Diskussion zum Artikel "Neuronale Netzwerke der dritten Generation: Tiefe Netzwerke"

 

Neuer Artikel Neuronale Netzwerke der dritten Generation: Tiefe Netzwerke :

In diesem Beitrag widmen wir uns einer neuen und vielversprechenden Richtung des maschinellen Lernens: dem tiefen Lernen oder, genauer gesagt, tiefen neuronalen Netzwerken. Wir sehen uns kurz noch einmal die zweite Generation der neuronalen Netzwerke, die Architektur ihrer Verknüpfungen und die wichtigsten Typen, Methoden und Regeln des Einlernens sowie ihre wichtigsten Unzulänglichkeiten an und gehen dann zur Geschichte der Entwicklung der dritten Generation der neuronalen Netzwerke, ihren wichtigsten Typen, Besonderheiten und Einlernmethoden über. Wir führen praktische Experimente zum Aufbau und zum Einlernen eines tiefen neuronalen Netzwerks durch, eingeleitet durch die Gewichte eines gestackten Autoencoders mit realen Daten. Alle Phasen von der Auswahl der Eingabedaten bis zur Ableitung von Messwerten werden detailliert besprochen. Der letzte Teil des Beitrags liefert eine Softwareumsetzung eines tiefen neuronalen Netzwerks in einem Expert Advisor mit eingebautem Indikator auf Basis von MQL4/R.

1.2.1. Mehrlagige voll verknüpfte Feedforward-Netzwerke (Multilayer Perceptron, MLP)

Abb. 1. Struktur eines mehrlagigen neuronalen Netzwerks

Abb. 1. Struktur eines mehrlagigen neuronalen Netzwerks

1.2.2. Jordan-Netze sind teilweise rekurrente Netzwerke und ähneln Elman-Netzen.

Sie können als Feedforward-Netzwerke mit zusätzlichen Kontextneuronen in der Eingangslage behandelt werden.

Diese Kontextneuronen werden durch sich selbst (direktes Feedback) und die Eingangsneuronen gespeist. Kontextneuronen bewahren den aktuellen Zustand des Netzwerks. In einem Jordan-Netz muss die Menge der Kontext- und Eingangsneuronen gleich sein.

Abb. 2. Struktur eines Jordan-Netzes

Abb. 2. Struktur eines Jordan-Netzes

Autor: Vladimir Perervenko

Grund der Beschwerde: