本章课程PDF,视频(油管B站)。PS:本次课程视频油管上最新版长11分钟,有能力的同学推荐去油管观看。

Gradient Descent

在Neural Network用Gradient Descent的时候与在Logistic Regression、Liner Regression里使用是没有太多差别的,最大的差别是在Neural Network里有特别多的参数。

Backpropagation是一种Gradient Descent,是比较有效率的演算法,能更有效率的计算gradient。

Chain Rule

Backpropagation


Backpropagation – Forward pass


想要计算出Neural Network中每一个$w$对activation function input $z$的偏微分,只需要把input丢进去,计算每一个neural的output。

Backpropagation – Backward pass









Backpropagation – Summary

如果本博文对您有帮助,可以赞助支持一波博主~