个人简介

Echo Blog


江湖无名 安心练剑
  • 第9章 概率模型与统计学习
    第9章 概率模型与统计学习 9.1 朴素贝叶斯(Naive Bayes) (1)核心思想 朴素贝叶斯是一种基于 贝叶斯定理(Bayes’ theorem) 和 特征条件独立假设 的概率分类方法。 贝叶斯定理: [ P(y|x) = \frac{P(x|y)P(y)}{P(x)} ] 其中: (P(y)):先验概率(类别的总体概率); ...
    2025-11-03 12:40:12 | AI
  • 第8章 决策树与集成学习
    第8章 决策树与集成学习 8.1 决策树构建原理(ID3、C4.5、CART) (1)核心思想 决策树(Decision Tree)是一种 基于规则的监督学习方法。 它通过在特征空间中 逐步划分样本,最终形成一个 树状结构 来进行分类或回归。 每个内部节点表示一个“特征判定条件”,每个叶子节点对应一个“类别”或“预测值”。 直观理解: 就像人类判断事物一样,“如果温度高→再看...
    2025-11-03 12:40:12 | AI
  • 第7章 基于距离与相似度的方法
    第7章 基于距离与相似度的方法 在机器学习的世界里,有一类算法不依赖复杂的参数学习过程,而是通过“比较样本间的相似性”来进行预测。 这种思想源于人类的直觉学习方式——我们看到一个新事物时,会下意识地问: “它像不像我见过的某个东西?” 这类方法的代表是 k-近邻算法(K-Nearest Neighbors, KNN)。 它是“基于实例”的学习(Instance-based Le...
    2025-11-03 12:40:12 | AI
  • 第6章 线性模型家族
    第6章 线性模型家族 线性模型是机器学习中最早、最经典、也是最具代表性的算法家族。 几乎所有复杂模型(包括神经网络)在本质上都可以看作“非线性的线性组合”。 线性模型的魅力在于: 简单而强大 —— 可以解释、可计算、可扩展; 理论完备 —— 有清晰的概率解释和几何意义; 实用性极高 —— 仍被广泛用于工业界的特征工程、基线模型和可解释建模。 6.1 线性回归 ...
    2025-11-03 12:40:12 | AI
  • 第5章 优化与数值计算
    第5章 优化与数值计算 优化问题是机器学习的核心。 学习算法的本质是 寻找最优参数,使模型在给定任务上表现最佳。 这一过程几乎总可以形式化为一个“优化问题”: [ \min_\theta ; L(\theta) ] 其中 ( \theta ) 是模型参数,( L(\theta) ) 是损失函数或目标函数。 本章将介绍从损失函数设计到优化算法、再到数值陷阱与模型复杂度控制的系统思维。...
    2025-11-03 12:40:12 | AI
  • 第4章 线性代数与矩阵运算
    第4章 线性代数与矩阵运算 非常好,这一章是很多人“入门机器学习”时最模糊、但“深入机器学习”后才恍然大悟的部分。 几乎所有的算法——从线性回归到神经网络,从聚类到推荐系统——底层都离不开 线性代数。 下面我会以「直观解释 + 数学形式 + 实际应用」的方式来系统讲解。 4.1 向量空间与特征表示 🧩 向量(Vector) 在机器学习中,向量 = 一个样本的特征集合。 例如,一个...
    2025-11-03 12:40:12 | AI
  • 第3章 概率与统计
    第3章 概率与统计 这一章可以说是机器学习的数学“灵魂”章节——概率与统计是理解一切模型(从朴素贝叶斯到深度神经网络)的底层逻辑。 🌟 引言 机器学习的核心任务其实就是“在不确定性中做决策”。 而概率论提供了处理不确定性的语言,统计学提供了从数据中估计规律的方法。 如果说: 代数 → 是确定世界的数学; 概率与统计 → 就是“不确定世界的数学”。 3.1 随机变...
    2025-11-03 12:40:12 | AI
  • dive-into-llms-112-第2章 机器学习的核心思想
    机器学习的核心思想:从“人写规则”到“机器自己学” 很多人第一次听到“机器学习”,脑子里都会浮现一个念头——这是不是某种黑盒魔法? 其实不是。 机器学习的本质是一种新的“做事方式”:它不靠人一条条写规则,而是让机器自己从数据里学规律。 理解了这个核心转变,你在做任何和 AI 有关的项目时,都会更清楚地知道,自己到底在调什么、该先解决什么。 一、从“规则编程”到“经验学习” 规...
    2025-11-03 12:40:12 | AI