个人简介

Echo Blog


江湖无名 安心练剑
  • 第5章 优化与数值计算
    第5章 优化与数值计算 优化问题是机器学习的核心。 学习算法的本质是 寻找最优参数,使模型在给定任务上表现最佳。 这一过程几乎总可以形式化为一个“优化问题”: [ \min_\theta ; L(\theta) ] 其中 ( \theta ) 是模型参数,( L(\theta) ) 是损失函数或目标函数。 本章将介绍从损失函数设计到优化算法、再到数值陷阱与模型复杂度控制的系统思维。...
    2025-11-03 12:40:12 | AI
  • 第4章 线性代数与矩阵运算
    🧭 标题备选 别被矩阵吓到:机器学习的底层,其实全是线性代数 线性代数是机器学习的语言:从向量到PCA,一次讲透 机器学习的灵魂不是AI,而是矩阵 当你看懂向量、矩阵和PCA,机器学习才真正入门 数学不抽象:一文讲透机器学习背后的线性世界 🖼 封面文案 所有的智能背后,都是线性代数在默默支撑。 理解矩阵,你就理解了机器学习的底层逻辑。 (配图建议:...
    2025-11-03 12:40:12 | AI
  • 第3章 概率与统计
    【AI简史】第3章 概率与统计:机器学习的灵魂数学 你以为机器学习靠的是算力,其实靠的是“算概率”。 很多人一听到“概率与统计”,第一反应就是头疼。 但如果你真想理解机器学习的底层逻辑,这一块必须得啃下来。 因为无论是推荐算法、语音识别,还是 ChatGPT, 它们本质上都在做一件事——在不确定性中做决策。 而能让机器理解“不确定”,只有概率论和统计学。 一、不确定世界...
    2025-11-03 12:40:12 | AI
  • dive-into-llms-112-第2章 机器学习的核心思想
    机器学习的核心思想:从“人写规则”到“机器自己学” 很多人第一次听到“机器学习”,脑子里都会浮现一个念头——这是不是某种黑盒魔法? 其实不是。 机器学习的本质是一种新的“做事方式”:它不靠人一条条写规则,而是让机器自己从数据里学规律。 理解了这个核心转变,你在做任何和 AI 有关的项目时,都会更清楚地知道,自己到底在调什么、该先解决什么。 一、从“规则编程”到“经验学习” 规...
    2025-11-03 12:40:12 | AI
  • 第1章 机器学习的诞生与演化
    第1章 机器学习的诞生与演化 这一部分是整本书的灵魂章节——它帮助读者理解「为什么机器学习会出现」、「它解决了什么问题」、「它与深度学习和大模型之间的关系是什么」。 1.1 从符号主义到统计学习 一、人工智能的三大流派 人工智能(AI)并不是一夜之间出现的,它的思想可以追溯到上世纪 50 年代。AI 的发展大致经历了三大主要思潮: 符号主义(Symbolism)——...
    2025-11-03 12:40:12 | AI
  • 一文看懂深度学习与人工智能(已完结)
    机器学习系列 第0张 深入理解机器学习 第1章 机器学习的诞生与演化 第2章 机器学习的核心思想 第3章 概率与统计 第4章 线性代数与矩阵运算 第5章 优化与数值计算 第6章 线性模型家族 第7章 基于距离与相似度的方法 第8章 决策树与集成学习 第9章 概率模型与统计学习 第10章 无监督学习与聚类(Unsupervised Learning & Clust...
    2025-11-03 12:40:12 | AI
  • redis 访问次数过多的优化
    背景 系统上发现有的业务场景,访问了几百次 redis。 虽然每一次速度不算慢,但是性能多次访问叠加,就有些慢了。 一些方式: 关于 redis 访问次数的一些优化思考。 mget, 优化为1次,pipeline、多线程并发。 jvm 本地缓存,使用 cache 避免内存过大,类似于布隆过滤器,set 之类的,先访问本地,然后才访问 redis。 chat redis 访问优...
    2025-10-31 12:40:12 | Cache
  • 文本差异对比与增量存储的一点思考
    背景 这几天一直在对比 json、text,对的眼花缭乱。 于是就想着写两个页面小工具。 json 对比 纯文本的行、词、char 对比 一点延伸 又想到,如果我想存储文章的每一个版本。 其实每次都是全量并不是好的方法,因为有时候可能改动不多。 那么,有没有类似于 base+differ 的方式,来存储每个版本的信息呢? 思路 通过 differ 工具,直...
    2025-10-31 12:40:12 | Tool