Skip to content

dz的结果可能有误,第一门课的2.12(第54页)  #74

@TimVan1596

Description

@TimVan1596

出处:第一门课 神经网络和深度学习(Neural Networks and Deep Learning)
-第二周:神经网络的编程基础(Basics ofNeural Network programming)
-2.12 向量化的更多例子(More Examples of Vectorization) 第54页 page 54

我的看法:dz = a - y,而不是 dz = a*(1-a)
此处我的理解是,应该时Loss函数对z求导,才可以梯度下降
但给的图是激活函数sigmoid对z求导的结果 a*(1-a)

如图:
image

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions