Hinton神经网络公开课3 The backpropagation learning proccedure
虽然反向传播很简单,但老爷子讲的更本质。另外线性回归→逻辑斯谛回归→反向传播神经网络是很多课程的必经之路。为什么感知机算法不能用于训练隐藏层其实前面一次课简单地提了下,说是线性隐藏层构成的模型依然是线性的。这节课展开了讲,感知机算法的迭代目标是使得权值向量更接近“可行”的向量集合(上节课提到的虚线上方),但并不保证输出结果更接近真实结果。而复杂网络中,两个可行的权值向量的平均可能并不可行(非凸)。所以管神经网络叫multi-layerperceptrons(多层感知机)的提法是不对的。与感知机...
继续阅读Hinton神经网络公开课3Thebackpropagationlearningproccedure原文链接:http://www.hankcs.com/ml/the-backpropagation-learning-proccedure.html
继续阅读Hinton神经网络公开课3Thebackpropagationlearningproccedure原文链接:http://www.hankcs.com/ml/the-backpropagation-learning-proccedure.html