Wie man die Eingabewerte für die NS richtig bildet. - Seite 11

 
LeoV писал (а) >>

Auch die Eingabewerte sind keine einfache Frage. Was in den Netzeingang eingespeist werden soll, hängt von vielen Faktoren ab -

1. Welche Art von neuronalem Netz wird verwendet?

2. Was wir vom neuronalen Netz erhalten wollen - Preis oder Bewegungsrichtung oder Umkehrpunkte oder die nächste Kerze oder etwas anderes.

Wir sollten also zuerst diese Fragen klären und dann über den Input entscheiden.

Ich schlage vor, bisher nur über zwei Netzwerke zu sprechen

1. Kohonennetz

2. MLP.


Den Rest heben wir uns für später auf.
 

1. Das neuronale Netz besteht aus 4-5 normalen Schichten (direkte Ausbreitung ohne Ringe, Sterne oder sonstiges).

2. Aus dem neuronalen Netz wollen wir Blasen erhalten... Oh nein. Zunächst möchten wir die Richtung der Bewegung und, wenn möglich, eine Schätzung ihrer Stärke (sozusagen in Pips) erhalten.

Für mich bleibt das Neuronetz bisher (nach meinem Verständnis) ein Approximator. Das bedeutet, dass ich eigentlich versuche, eine funktionale Beziehung zwischen Eingangs- und Ausgangsvariablen auszudrücken. Daher meine Gedanken zu den Inputs. Sie sollten nicht zu komplex sein und wir sollten nicht zu viel in der Ausgabe wollen. Es ist mehr oder weniger klar, mit Ausgängen (Richtung, Höhe), aber was ist für die Eingabe. Ich zerbreche mir schon den dritten Tag den Kopf. Es ist sehr frustrierend, dass ich eine solche Behandlung des Eingangssignals nicht erfinden kann, so dass es immer in einem festen Bereich liegt. Denn wenn wir auf ein Maximum der Gesamtstichprobe normalisieren, dann besteht immer die Möglichkeit, dass in der Zukunft ein höherer Wert auftaucht, den das Netz nicht kennt, und was in einem solchen Fall passiert, weiß ich nicht. Natürlich gibt es Varianten der Eingangsverarbeitung wie Sinus oder Sigmoid, aber das erscheint mir falsch, denn ich möchte eine lineare Kompression.

Für die Ausgabe werde ich wahrscheinlich die hyperbolische Abhängigkeit verwenden. (Up-Dn)/(Up+Dn). Die Türkei ist beigefügt.

Dateien:
_target.mq4  2 kb
 
TheXpert писал (а) >>

Ich schlage vor, vorerst nur über zwei Netze zu sprechen

1. Kohonen-Netzwerk

2. EINE MLP


Was ist MLP - Multilayer Perseptron?

Kohonen ist karachno. Aber wahrscheinlich schon zum zweiten Mal. Obwohl... wäre es in Ordnung, wenn man versteht, was und wo.

Übrigens, Kohonen unterrichtet ohne Lehrer, nicht wahr?

 
sergeev писал (а) >>

Was ist ein MLP - Multilayer Perseptron?

Ja

Übrigens, Kohonen lernt ohne Lehrer, richtig?

In der ursprünglichen Fassung ja. Es gibt jedoch eine Modifikation, die als überwachtes Kohonen bezeichnet wird. In diesem Fall vergeben wir selbst einen Gewinner für jedes Muster.

 
Und was ist mit den Eingaben? Wer verfügt über welche Netzwerke und Inputs?
 
sergeev писал (а) >>

2. Aus dem neuronalen Netz wollen wir die... Oh nein. Zunächst wollen wir die Richtung der Bewegung und, wenn möglich, eine Schätzung ihrer Stärke (z. B. in Pips) erhalten.

Es muss nicht besser sein, nur die Richtung reicht aus. Wenn es funktioniert, kann der Strom oben aufgeschraubt werden.

Bislang bleibt das neuronale Netz für mich (in meinen Begriffen) ein Approximator.

Ja, genau so ist es.

Das bedeutet, dass ich eigentlich versuche, eine funktionale Beziehung zwischen Eingangs- und Ausgangsvariablen auszudrücken. Daher meine Gedanken zu den Inputs. Sie sollten nicht zu komplex sein und wir sollten nicht zu viel in der Ausgabe wollen. Es ist mehr oder weniger klar, mit Ausgängen (Richtung, Höhe), aber was ist für die Eingabe. Ich zerbreche mir schon den dritten Tag den Kopf. Es ist allerdings frustrierend, dass mir keine Möglichkeit einfällt, das Eingangssignal so zu verarbeiten, dass es immer in einem festen Bereich liegt.

MACD

Natürlich gibt es Varianten der Eingangsverarbeitung wie Sinus oder Sigmoid, aber das erscheint mir alles falsch, denn ich möchte eine lineare Kompression.

Hier. Hier geht es nicht um Kompression, sondern um Division, also nicht um lineare Kompression, sondern um lineare Division, die selbst XOR nicht aufteilen kann.

Es muss also eine Nichtlinearität vorliegen. Es gibt ein Theorem, das besagt, dass jedes n-schichtige lineare Perseptron in ein 2-schichtiges Analogon umgewandelt werden kann - Eingang -> Ausgang.

Das lineare Perseptron ist also im Eimer.

 
sergeev писал (а) >>
Und was ist mit den Eingaben? Wer hat welche Netze und Eingänge?

Ich versuche, begrenzte Oszillatoren zu füttern, aber die Ergebnisse sind so weit wie der Himmel. Es ist noch sehr viel Arbeit zu leisten, um zu einem Ergebnis zu kommen.

 
TheXpert писал (а) >>

MACD

Es kann eine maximale Aktualisierung haben.

Hier. Das Problem ist nicht die Komprimierung, sondern die Trennung, so dass das Ergebnis nicht eine lineare Komprimierung, sondern eine lineare Trennung ist, die selbst XOR nicht trennen kann.

Es muss also eine Nichtlinearität vorliegen. Es gibt ein Theorem, das besagt, dass jedes n-schichtige lineare Perseptron in ein 2-schichtiges Analogon umgewandelt werden kann - Eingang -> Ausgang.

Gemeint ist nicht die Linearität der Ausgangssignale. Es geht darum, die Eingabedaten linear zu komprimieren , bevor sie in das Netz eingespeist werden . Komprimierung auf den Bereich [0, 1] auf der Grundlage der Daten aller Umlaufbahnen. Wenn der Bereich durch eine nichtlineare Funktion umgerechnet wird, ergibt sich eine Sättigung für große Werte, zwischen denen es keinen Unterschied gibt. Das bedeutet, dass es Wiederholbarkeit und damit Inkonsistenz geben wird. Die Komprimierung muss auf lineare Weise erfolgen. Aber wie, damit es auch in Zukunft maximal bleibt. (mein Gehirn zischt)?

 
sergeev писал (а) >>

kann es eine maximale Aktualisierung haben.

Ja, sicher, aber das klingt für mich nach einer guten Option.

Gemeint ist nicht die Linearität der Ausgangssignale. Es geht darum, die Eingabedaten linear zu komprimieren , bevor sie in das Netz eingespeist werden . Komprimierung auf das Intervall [0, 1] auf der Grundlage der Daten aller Umlaufbahnen.

>> Ah, ich verstehe.

 
sergeev писал (а) >>

Bei einer Umwandlung in einen Bereich durch eine nichtlineare Funktion kommt es zu einer Sättigung für große Werte, zwischen denen es keinen Unterschied gibt. Das bedeutet, dass es Wiederholbarkeit und damit Inkonsistenz geben wird. Die Komprimierung muss auf lineare Weise erfolgen. Aber wie, damit es auch in Zukunft maximal bleibt. (mein Gehirn zischt)?


Deshalb werden wir Dekorrekturen und Ähnliches verwenden %)