Stereo-Neuro-Netz

 

Wenn Sie in Avishka die Augen richtig zusammenkneifen und sich in einen Zustand des Nirwana versetzen, können Sie sehen, wie ein dreischichtiges nichtlineares Gitter mit zwei Eingängen die Eingabedaten (die Preisreihen) durchforstet, um darin versteckte Muster zu finden. Und in der Tat, er findet sie.

P.S. Dies sollte nicht ernst genommen werden.

Dateien:
3d_1.zip  1295 kb
 
Neutron >> :

Wenn Sie in Avishka die Augen richtig zusammenkneifen und sich in einen Zustand des Nirwana versetzen, können Sie sehen, wie ein dreischichtiges nichtlineares Gitter mit zwei Eingängen die Eingabedaten (die Preisreihen) durchforstet, um darin versteckte Muster zu finden. Und in der Tat, er findet sie.

P.S. Sie sollten sie nicht ernst nehmen.

Und früher, so erinnere ich mich jetzt, gab es im kleinen Saal des Oktyabr-Kinos spezielle Brillen...

 
Handelt es sich dabei nur um weitere Karikaturen von einer Firma für Neuro-Packages?
 
Nein, das sind meine Cartoons. Ich habe sie selbst erfunden, oder besser gesagt, sie (NS) hat herausgefunden, wie man die beiden Eingangssignale in Kauf und Verkauf aufteilt.
 
Neutron >> :
Nein, das sind meine Cartoons. Ich habe sie selbst erfunden, oder besser gesagt, er (NS) hat erfunden, wie man zwei Eingangssignale in Kaufen und Verkaufen unterteilt.

>> Ist es eine Art Input-Quantisierung, wie bei SOM, oder ist es eine andere Art von NS?

 
Warum zwei Diagramme?
 

Nun, das ist für die Stereoanlage. Es ist wirklich ein dreidimensionales Bild.

budimir писал(а) >>

>> Ist es eine Quantisierung der Eingabedaten wie bei SOM, oder ist es eine andere Art von NS?

Es handelt sich um ein herkömmliches dreischichtiges Perseptron mit Vorspannung und Nichtlinearität in jedem Neuron, das bei jedem Takt vollständig neu trainiert wird.
 
Wenn es sich um ein reguläres dreischichtiges Perspectron handelt, warum sollte es dann bei JEDEM Takt komplett neu trainiert werden müssen?
 

Darf ich Ihnen eine Frage stellen?

Wenn das möglich ist, warum nicht?

 

Die Möglichkeit besteht, aber es gibt spezielle Arten von NS, bei denen es notwendig ist, das Training an jedem Takt durchzuführen, wie beim NS-Typ MLP,

Es muss einige Kriterien geben, damit MLPs bei JEDER Bar vollständig umgeschult werden können,

und ein solches Kriterium - dass es eine solche Möglichkeit gibt - ist fraglich.

 
Indem wir uns auf diesen Dialog einlassen, lösen wir unbewusst verschiedene Optimierungsprobleme (im globalen Sinne). Welchen Ansatz Sie gewählt haben, kann ich nur vermuten. Zu meinem kann ich sagen, dass ich in diesem Stadium der Forschung über genügend Rechenleistung verfüge, um mich nicht durch den Parameter "Komplexität des NS-Trainings" zu beschränken. Natürlich kann es nicht schaden, die NS bei jedem Schritt neu zu trainieren (zusätzliches Training). So kann ich mich auf andere interessante Aspekte der KI konzentrieren, indem ich die Dimensionalität des Parameterraums im untersuchten Bereich um eins verringere. Ich denke, in diesem Sinne geht es mir optimal.