出处:第一门课 神经网络和深度学习(Neural Networks and Deep Learning) -第二周:神经网络的编程基础(Basics ofNeural Network programming) -2.12 向量化的更多例子(More Examples of Vectorization) 第54页 page 54 我的看法:**dz = a - y**,而不是 dz = a*(1-a) 此处我的理解是,应该时Loss函数对z求导,才可以梯度下降 但给的图是激活函数sigmoid对z求导的结果 a*(1-a) 如图: 