Diskussion zum Artikel "Neuronale Netze leicht gemacht (Teil 82): Modelle für gewöhnliche Differentialgleichungen (NeuralODE)"

 

Neuer Artikel Neuronale Netze leicht gemacht (Teil 82): Modelle für gewöhnliche Differentialgleichungen (NeuralODE) :

In diesem Artikel werden wir eine andere Art von Modellen erörtern, die auf die Untersuchung der Dynamik des Umgebungszustands abzielen.

Machen wir uns mit einer neuen Modellfamilie vertraut: Gewöhnliche Differentialgleichungen. Anstatt eine diskrete Abfolge von versteckten Schichten festzulegen, parametrisieren sie die Ableitung des versteckten Zustands mit Hilfe eines neuronalen Netzes. Die Ergebnisse des Modells werden mit Hilfe einer „Black Box“, d. h. dem Differentialgleichungslöser, berechnet. Diese Modelle mit kontinuierlicher Tiefe verwenden eine konstante Speichermenge und passen ihre Schätzstrategie an jedes Eingangssignal an. Solche Modelle wurden erstmals in der Arbeit „Neural Ordinary Differential Equations“ vorgestellt. In dieser Arbeit demonstrieren die Autoren der Methode die Möglichkeit, Backpropagation mit jedem beliebigen Löser für gewöhnliche Differentialgleichungen (ODE) zu skalieren, ohne auf dessen interne Operationen zugreifen zu müssen. Dies ermöglicht ein durchgehendes Training von ODEs innerhalb größerer Modelle.

Autor: Dmitriy Gizlyk