Skip to content

Backpropagation #10

@esthicodes

Description

@esthicodes

https://en.m.wikipedia.org/wiki/Backpropagation

Beim maschinellen Lernen ist Backpropagation ( backprop , [1] BP ) ein weit verbreiteter Algorithmus zum Trainieren von neuronalen Feedforward-Netzen . Verallgemeinerungen der Backpropagation existieren für andere künstliche neuronale Netze (KNNs) und für Funktionen im Allgemeinen. Diese Klassen von Algorithmen werden alle allgemein als "Backpropagation" bezeichnet. [2] Beim Anpassen eines neuronalen Netzwerks berechnet Backpropagation den Gradienten der Verlustfunktion in Bezug auf die Gewichte des Netzwerks für ein einzelnes Input-Output-Beispiel und tut dieseffizient , im Gegensatz zu einer naiven direkten Berechnung des Gradienten in Bezug auf jedes einzelne Gewicht. Diese Effizienz macht es möglich, Gradientenverfahren zum Trainieren von mehrschichtigen Netzwerken zu verwenden und Gewichtungen zu aktualisieren, um Verluste zu minimieren; Gewöhnlich werden Gradientenabstieg oder Varianten wie stochastischer Gradientenabstieg verwendet. Der Backpropagation-Algorithmus funktioniert, indem er den Gradienten der Verlustfunktion in Bezug auf jedes Gewicht durch die Kettenregel berechnet, den Gradienten Schicht für Schicht berechnet und von der letzten Schicht rückwärts iteriert , um redundante Berechnungen von Zwischentermen in der Kettenregel zu vermeiden; Dies ist ein Beispiel für dynamische Programmierung . [3]

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions