-
第9章 概率模型与统计学习
第9章 概率模型与统计学习
9.1 朴素贝叶斯(Naive Bayes)
(1)核心思想
朴素贝叶斯是一种基于 贝叶斯定理(Bayes’ theorem) 和 特征条件独立假设 的概率分类方法。
贝叶斯定理:
[
P(y|x) = \frac{P(x|y)P(y)}{P(x)}
]
其中:
(P(y)):先验概率(类别的总体概率);
...
2025-11-03 12:40:12 |
AI
-
第8章 决策树与集成学习
第8章 决策树与集成学习
8.1 决策树构建原理(ID3、C4.5、CART)
(1)核心思想
决策树(Decision Tree)是一种 基于规则的监督学习方法。
它通过在特征空间中 逐步划分样本,最终形成一个 树状结构 来进行分类或回归。
每个内部节点表示一个“特征判定条件”,每个叶子节点对应一个“类别”或“预测值”。
直观理解:
就像人类判断事物一样,“如果温度高→再看...
2025-11-03 12:40:12 |
AI
-
第7章 基于距离与相似度的方法
第7章 基于距离与相似度的方法
在机器学习的世界里,有一类算法不依赖复杂的参数学习过程,而是通过“比较样本间的相似性”来进行预测。
这种思想源于人类的直觉学习方式——我们看到一个新事物时,会下意识地问:
“它像不像我见过的某个东西?”
这类方法的代表是 k-近邻算法(K-Nearest Neighbors, KNN)。
它是“基于实例”的学习(Instance-based Le...
2025-11-03 12:40:12 |
AI
-
第6章 线性模型家族
第6章 线性模型家族
线性模型是机器学习中最早、最经典、也是最具代表性的算法家族。
几乎所有复杂模型(包括神经网络)在本质上都可以看作“非线性的线性组合”。
线性模型的魅力在于:
简单而强大 —— 可以解释、可计算、可扩展;
理论完备 —— 有清晰的概率解释和几何意义;
实用性极高 —— 仍被广泛用于工业界的特征工程、基线模型和可解释建模。
6.1 线性回归
...
2025-11-03 12:40:12 |
AI
-
第5章 优化与数值计算
第5章 优化与数值计算
优化问题是机器学习的核心。
学习算法的本质是 寻找最优参数,使模型在给定任务上表现最佳。
这一过程几乎总可以形式化为一个“优化问题”:
[
\min_\theta ; L(\theta)
]
其中 ( \theta ) 是模型参数,( L(\theta) ) 是损失函数或目标函数。
本章将介绍从损失函数设计到优化算法、再到数值陷阱与模型复杂度控制的系统思维。...
2025-11-03 12:40:12 |
AI
-
第4章 线性代数与矩阵运算
第4章 线性代数与矩阵运算
非常好,这一章是很多人“入门机器学习”时最模糊、但“深入机器学习”后才恍然大悟的部分。
几乎所有的算法——从线性回归到神经网络,从聚类到推荐系统——底层都离不开 线性代数。
下面我会以「直观解释 + 数学形式 + 实际应用」的方式来系统讲解。
4.1 向量空间与特征表示
🧩 向量(Vector)
在机器学习中,向量 = 一个样本的特征集合。
例如,一个...
2025-11-03 12:40:12 |
AI
-
第3章 概率与统计
第3章 概率与统计
这一章可以说是机器学习的数学“灵魂”章节——概率与统计是理解一切模型(从朴素贝叶斯到深度神经网络)的底层逻辑。
🌟 引言
机器学习的核心任务其实就是“在不确定性中做决策”。
而概率论提供了处理不确定性的语言,统计学提供了从数据中估计规律的方法。
如果说:
代数 → 是确定世界的数学;
概率与统计 → 就是“不确定世界的数学”。
3.1 随机变...
2025-11-03 12:40:12 |
AI
-
dive-into-llms-112-第2章 机器学习的核心思想
机器学习的核心思想:从“人写规则”到“机器自己学”
很多人第一次听到“机器学习”,脑子里都会浮现一个念头——这是不是某种黑盒魔法?
其实不是。
机器学习的本质是一种新的“做事方式”:它不靠人一条条写规则,而是让机器自己从数据里学规律。
理解了这个核心转变,你在做任何和 AI 有关的项目时,都会更清楚地知道,自己到底在调什么、该先解决什么。
一、从“规则编程”到“经验学习”
规...
2025-11-03 12:40:12 |
AI