Diskussion zum Artikel "MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 10). Die unkonventionelle RBM"

 

Neuer Artikel MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 10). Die unkonventionelle RBM :

Restriktive Boltzmann-Maschinen (RBM) sind im Grunde genommen ein zweischichtiges neuronales Netz, das durch Dimensionsreduktion eine unbeaufsichtigte Klassifizierung ermöglicht. Wir nehmen die Grundprinzipien und untersuchen, ob wir durch eine unorthodoxe Umgestaltung und ein entsprechendes Training einen nützlichen Signalfilter erhalten können.

Restriktive Boltzmann-Maschinen (RBMs) sind eine Form von neuronalen Netzen, die in ihrer Struktur recht einfach sind, aber in bestimmten Kreisen dennoch verehrt werden, wenn es darum geht, versteckte Eigenschaften und Merkmale in Datensätzen aufzudecken. Dies geschieht durch das Lernen der Gewichte in einer kleineren Dimension aus größer dimensionierten Eingabedaten, wobei diese Gewichte oft als Wahrscheinlichkeitsverteilungen bezeichnet werden. Wie immer können weitere Informationen von hier abgerufen werden, aber in der Regel lässt sich ihre Struktur anhand der nachstehenden Abbildung veranschaulichen:

Typischerweise bestehen RBMs aus zwei Schichten (ich sage typischerweise, weil es einige Netze gibt, die sie zu Transformatoren stapeln), einer sichtbaren Schicht und einer verborgenen Schicht, wobei die sichtbare Schicht größer ist (mehr Neuronen hat) als die verborgene Schicht. Jedes Neuron in der sichtbaren Schicht ist mit jedem Neuron in der verborgenen Schicht während der so genannten positiven Phase verbunden, sodass während dieser Phase, wie bei den meisten neuronalen Netzen üblich, die Eingabewerte in der sichtbaren Schicht mit den Gewichtswerten in den Verbindungsneuronen multipliziert werden und die Summe dieser Produkte zu einer Vorspannung addiert wird, um die Werte in den jeweiligen verborgenen Neuronen zu bestimmen. Es folgt die negative Phase, die die Umkehrung dieses Prozesses darstellt und durch verschiedene Neuronenverbindungen darauf abzielt, die Eingabedaten ausgehend von den berechneten Werten in der verborgenen Schicht in ihren ursprünglichen Zustand zurückzuführen.

Bei den frühen Zyklen stimmen die rekonstruierten Eingabedaten also erwartungsgemäß nicht mit den ursprünglichen Eingaben überein, da das RBM häufig mit zufälligen Gewichten initialisiert wird. Dies bedeutet, dass die Gewichte angepasst werden müssen, um die rekonstruierte Ausgabe näher an die Eingabedaten heranzuführen, und dies ist die zusätzliche Phase, die jedem Zyklus folgen würde. Das Endergebnis und Ziel dieses Zyklus - eine positive Phase, gefolgt von einer negativen Phase und der Anpassung der Gewichte - besteht darin, die Gewichte der Verbindungsneuronen zu ermitteln, die, wenn sie auf die Eingabedaten angewandt werden, „intuitive“ Neuronenwerte in der verborgenen Schicht liefern können. Diese Neuronenwerte in der versteckten Schicht sind die so genannte Wahrscheinlichkeitsverteilung der Eingabedaten über die versteckten Neuronen.

Autor: Stephen Njuki

Grund der Beschwerde: