- 链接地址:https://blog.csdn.net/qq_18668137/article/details/80883350?utm_medium=distribute.pc_relevant.none-task-blog-2%7Edefault%7EB
- 链接标题:深度学习中的batch、epoch、iteration的含义-CSDN博客
- 所属网站:blog.csdn.net
- 被收藏次数:7484
文章浏览阅读8.6w次,点赞279次,收藏694次。深度学习的优化算法,说白了就是梯度下降。每次的参数更新有两种方式。第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习,这称为Batch gradient descent,批梯度下降。另一种,每看一个数据就算一下损失函数,然后求梯度更新参数,这个称为随机梯度下降,stochast..._epoch
版权声明:本文发布于特牛网址导航 内容均来源于互联网 如有侵权联系删除
标签:epoch