「李宏毅机器学习」学习笔记-Backpropagation
本章课程PDF,视频(油管或B站)。PS:本次课程视频油管上最新版长11分钟,有能力的同学推荐去油管观看。
Gradient Descent
在Neural Network用Gradient Descent的时候与在Logistic Regression、Liner Regression里使用是没有太多差别的,最大的差别是在Neural Network里有特别多的参数。
Backpropagation是一种Gradient Descent,是比较有效率的演算法,能更有效率的计算gradient。
Chain Rule
Backpropagation
Backpropagation – Forward pass
想要计算出Neural Network中每一个$w$对activation function input $z$的偏微分,只需要把input丢进去,计算每一个neural的output。
Backpropagation – Backward pass
Backpropagation – Summary
如果本博文对您有帮助,可以赞助支持一波博主~
推荐阅读
- 本文链接:https://blueschang.github.io/2018/11/08/「李宏毅机器学习」学习笔记-Backpropagation/
- 版权声明:本博客所有文章除特别声明外,均采用 知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议 许可协议。转载请注明出处!