-
第10章 无监督学习与聚类(Unsupervised Learning & Clustering)
第10章 无监督学习与聚类
10.1 K-Means 与高维空间的挑战
(1)核心思想
K-Means 是最经典的无监督学习算法之一。它通过 最小化簇内样本的平方误差,将数据划分为 K 个相对紧密的簇。
其优化目标函数为:
[
J = \sum_{i=1}^{K} \sum_{x_j \in C_i} ||x_j - \mu_i||^2
]
其中:
(C_i):第 i 个...
2025-11-03 12:40:12 |
AI
-
第9章 概率模型与统计学习
第9章 概率模型与统计学习
9.1 朴素贝叶斯(Naive Bayes)
(1)核心思想
朴素贝叶斯是一种基于 贝叶斯定理(Bayes’ theorem) 和 特征条件独立假设 的概率分类方法。
贝叶斯定理:
[
P(y|x) = \frac{P(x|y)P(y)}{P(x)}
]
其中:
(P(y)):先验概率(类别的总体概率);
...
2025-11-03 12:40:12 |
AI
-
第8章 决策树与集成学习
第8章 决策树与集成学习
8.1 决策树构建原理(ID3、C4.5、CART)
(1)核心思想
决策树(Decision Tree)是一种 基于规则的监督学习方法。
它通过在特征空间中 逐步划分样本,最终形成一个 树状结构 来进行分类或回归。
每个内部节点表示一个“特征判定条件”,每个叶子节点对应一个“类别”或“预测值”。
直观理解:
就像人类判断事物一样,“如果温度高→再看...
2025-11-03 12:40:12 |
AI
-
第7章 基于距离与相似度的方法
第7章 基于距离与相似度的方法
在机器学习的世界里,有一类算法不依赖复杂的参数学习过程,而是通过“比较样本间的相似性”来进行预测。
这种思想源于人类的直觉学习方式——我们看到一个新事物时,会下意识地问:
“它像不像我见过的某个东西?”
这类方法的代表是 k-近邻算法(K-Nearest Neighbors, KNN)。
它是“基于实例”的学习(Instance-based Le...
2025-11-03 12:40:12 |
AI
-
第6章 线性模型家族
第6章 线性模型家族
线性模型是机器学习中最早、最经典、也是最具代表性的算法家族。
几乎所有复杂模型(包括神经网络)在本质上都可以看作“非线性的线性组合”。
线性模型的魅力在于:
简单而强大 —— 可以解释、可计算、可扩展;
理论完备 —— 有清晰的概率解释和几何意义;
实用性极高 —— 仍被广泛用于工业界的特征工程、基线模型和可解释建模。
6.1 线性回归
...
2025-11-03 12:40:12 |
AI
-
第5章 优化与数值计算
第5章 优化与数值计算
优化问题是机器学习的核心。
学习算法的本质是 寻找最优参数,使模型在给定任务上表现最佳。
这一过程几乎总可以形式化为一个“优化问题”:
[
\min_\theta ; L(\theta)
]
其中 ( \theta ) 是模型参数,( L(\theta) ) 是损失函数或目标函数。
本章将介绍从损失函数设计到优化算法、再到数值陷阱与模型复杂度控制的系统思维。...
2025-11-03 12:40:12 |
AI
-
第4章 线性代数与矩阵运算
🧭 标题备选
别被矩阵吓到:机器学习的底层,其实全是线性代数
线性代数是机器学习的语言:从向量到PCA,一次讲透
机器学习的灵魂不是AI,而是矩阵
当你看懂向量、矩阵和PCA,机器学习才真正入门
数学不抽象:一文讲透机器学习背后的线性世界
🖼 封面文案
所有的智能背后,都是线性代数在默默支撑。
理解矩阵,你就理解了机器学习的底层逻辑。
(配图建议:...
2025-11-03 12:40:12 |
AI
-
第3章 概率与统计
【AI简史】第3章 概率与统计:机器学习的灵魂数学
你以为机器学习靠的是算力,其实靠的是“算概率”。
很多人一听到“概率与统计”,第一反应就是头疼。
但如果你真想理解机器学习的底层逻辑,这一块必须得啃下来。
因为无论是推荐算法、语音识别,还是 ChatGPT,
它们本质上都在做一件事——在不确定性中做决策。
而能让机器理解“不确定”,只有概率论和统计学。
一、不确定世界...
2025-11-03 12:40:12 |
AI