?每次只用一条数据来更新参数。
?好处:快,而且因为有“随机性”,能跳出局部低谷。
?坏处:路径会抖动,就像你在碗底不断乱蹦,但平均方向是对的。
3。小批量梯度下降(Mini-BatchGradientDescent)
?折中方案,每次取几十到几百条数据更新。
?好处:速度和稳定性兼顾。
?这也是现代深度学习中最常用的做法。
所以你可以把梯度下降想象成:
?批量:像一个人走路前先把所有地图看清楚。
?随机:像一个盲人摸索着走,虽然乱七八糟,但大方向对。
?小批量:像一个人拿着指南针,每次用部分信息修正方向,既快又稳。
?
二、学习率的智慧
在梯度下降里有个很关键的参数:学习率(LearningRate)。
?如果学习率太大,就像球从碗的一边跳到另一边,永远落不到底,甚至越跳越高。
?如果学习率太小,就像蚂蚁往碗底爬,虽然方向正确,但走到天荒地老也到不了底部。
所以,人类在调参时,其实就是在控制“学习节奏”。
这跟人学习知识很像:
?学得太快,不扎实,容易反弹。
这章没有结束,请点击下一页继续阅读!
?学得太慢,效率低。
?最佳的学习率,就是“适度挑战,稳步前进”。
?
三、为什么说“碗”可能不是碗
你一开始用“碗”比喻很好,但在大模型里,真实情况更复杂:
?损失函数往往不是一个光滑的大碗,而是一个崎岖的山谷。
?它可能有很多小洼地(局部极小值),还有长长的平地(鞍点)。
?模型就像一个人在雾中走山路,只能靠脚下的坡度感知方向。
这时,随机梯度下降反而有好处,它带来的“抖动”能让人跳出一些小陷阱,继续往更深的谷底走。
?
四、和人的认知对比
你说“认识猫和狗”特别好,我再帮你扩展一下:
1。模糊性
?人类分类不是绝对的,而是“差不多”——这就是概率思维。
?比如一辆小巧的SUV和一个装甲车,它们都有四个轮子,但我们用特征加权来识别:形状、功能、用途。
2。迭代修正
?小孩第一次见到“猫”,可能把“狗”也叫猫。
?随着父母纠正,小孩在心里不断“调整参数”,逐渐收敛到更准的概念。