Wie man die Eingabewerte für die NS richtig bildet. - Seite 24

 
Reshetov писал (а) >>

Und schließlich kann ich den Nerds, die glauben, dass die Interpolationsfähigkeiten von NS für den Handel notwendig sind, ein konkretes Gegenargument liefern. Nehmen Sie einfach einen beliebigen Redrawing-Indikator oder Oszillator und Sie erhalten eine erstaunliche Interpolation der Geschichte ohne neuronale Netze und komplizierte Architekturen. Natürlich scheuen Händler die Neuberechnung von Indizes, denn was für die Interpolation oder Approximation geeignet ist, eignet sich nicht für die Extrapolation unter nicht-stationären Bedingungen.

Das ist Blödsinn... Was hat ein neu gezeichneter Indikator mit Interpolation und Zukunftsprognosen zu tun???

 
Reshetov писал (а) >>

Und schließlich kann ich denjenigen Nerds, die meinen, dass die Interpolationsfähigkeiten von NS für den Handel notwendig sind, ein konkretes Gegenargument liefern. Nehmen Sie einfach einen beliebigen Redrawing-Indikator oder Oszillator und Sie erhalten eine erstaunliche Interpolation der Geschichte ohne neuronale Netze und komplizierte Architekturen. Natürlich scheuen Händler die Neuberechnung von Indizes, denn was für die Interpolation oder Approximation geeignet ist, eignet sich nicht für die Extrapolation unter nicht-stationären Bedingungen.

Sie verstehen nur nicht ganz, was angenähert wird. Es gibt einen Eingangsvektor X der Dimension N und einen Ausgangsvektor Y der Dimension M. NS stellt eine Beziehung zwischen ihnen her, d. h. es nähert die Abhängigkeit Y = F(X) an. Y kann alles sein, sogar dreifach gewunden, NS ist es egal, es löst genau das Problem der Annäherung F(X) auf der Trainingsstichprobe.

 

UMZEICHNEN IST OPIUM FÜR DAS VOLK!!! ))))

 
Mathemat писал (а) >>
Ich würde diesen Rat sogar noch verstärken: Teilen Sie durch 10. Aus irgendeinem Grund kommt mir der Thread über stochastische Resonanz in den Sinn. Wenn man das Netz bis zum Ende trainiert, kann man die Zielfunktion auf ein tiefes Minimum, d.h. auf einen stabilen Zustand, bringen. Stabile Zustände sind überhaupt nicht typisch für Finanzmärkte. Sie sind quasistabil, d.h. solche, die unter dem Einfluss auch nur eines kleinen "Rauschens" jederzeit in eine Katastrophe (Trend) umschlagen können. Aber das ist nur eine philosophische Überlegung...

Meiner Meinung nach gibt es ein Missverständnis über die Art des Zustands der NS, der als "übertrainiert" und "untertrainiert" beschrieben werden kann. Diese Begriffe beziehen sich auf Eigenschaften, die sich auf die Länge der Trainingsstichprobe, die Anzahl der freien Parameter (Synapsen) eines bestimmten NS und die Größe des Generalisierungsfehlers auf der Testmenge beziehen. Wenn die Stichprobenlänge mit der Anzahl der einstellbaren Gewichte vergleichbar ist (im Grenzfall kleiner oder gleich), dann erhalten wir bei der Trainingsstichprobe eine exakte Übereinstimmung der NS-Reaktion mit den Eingangsvektoren, aber bei der Teststichprobe erhalten wir völligen Unsinn! Dies ist ein Beispiel für ein übertrainiertes Netz. Wenn die Länge der Trainingsstichprobe zu groß ist (wie groß, ist eine andere Frage), erhalten wir eine schlechte Übereinstimmung mit der Trainingsstichprobe (im Grenzfall bestimmen wir nur den Stichprobenmittelwert). Für die Teststichprobe erhalten wir das gleiche Ergebnis - den Mittelwert.

Wie man sieht, steht die Anzahl der Trainingsepochen außer Frage. Um ein globales Minimum zu erreichen (Lernen von NS), müssen wir aus allen möglichen Lösungen des neu definierten Systems nichtlinearer Gleichungen (was NS tut) diejenige auswählen, die uns den geringsten kumulativen Fehler liefert (die zumindest ALLE Gleichungen des Systems erfüllt). Diese Bedingung wird natürlich durch die Lösung (gefundene Gewichte der Synapsen) erfüllt, die zu den Grenzwerten tendiert, die man erhält, wenn die Anzahl der Trainingsepochen gegen unendlich geht.

Daher sollte man ein Über- oder Untertraining von NS nicht mit der Anzahl der Trainingsepochen verwechseln - letztere sollte immer angemessen groß sein (die genaue Anzahl sollte experimentell ermittelt werden).

Ich bin in der Literatur auf eine Diskussion über das "Problem des frühen Aufhörens" gestoßen, aber mein Eindruck ist, dass die Autoren nicht ganz verstehen, worüber sie schreiben. Wenn wir eine Situation annehmen, in der die Länge der Trainingsstichprobe kleiner ist als die optimale, dann wird im Trainingsprozess eine Situation eintreten, in der der Fehler auf der Testmenge zunächst abnimmt und dann, mit einer weiteren Zunahme der Anzahl der Trainingsepochen, wieder zu wachsen beginnt... Nun, das ist eine andere Geschichte, Kameraden!

 

Ich werde mich jetzt zurückziehen, da genug NN-Granden hier versammelt sind. Meine Meinung ist unbedeutend, denn ich bin ein Amateur in Sachen Nervennetze.

Ich habe noch nicht einmal über das Verhältnis von Eingaben zu Freiheitsgraden gesprochen, wobei ich davon ausgehe, dass es mindestens 10 beträgt, wie in der Theorie empfohlen. Ich habe nur von dem Moment gesprochen, in dem die TF im Verifizierungsabschnitt das Minimum durchläuft. Wenn ich mich nicht irre, wird dies von Schumsky recht deutlich beschrieben.

 
Mathemat писал (а) >>

Ich werde mich jetzt zurückziehen, da genug NN-Granden hier versammelt sind. Meine Meinung ist unbedeutend, denn ich bin ein Amateur in Sachen Nervennetze.

Ich habe nicht einmal über das Verhältnis von Eingaben zu Freiheitsgraden gesprochen, wobei ich davon ausgehe, dass es mindestens 10 beträgt, wie in der Theorie empfohlen. Ich habe nur von dem Moment gesprochen, in dem die TF im Verifizierungsabschnitt das Minimum durchläuft. Wenn ich mich nicht irre, wird dies auch von Schumsky recht anschaulich beschrieben.

Grands in Mathe würden auch nicht schaden, bitte nicht abschrecken lassen :) . Ich denke, andere werden sich der Bitte anschließen.

 
Mathemat писал (а) >>
Ich würde diesen Rat noch verstärken: Teilen Sie durch 10. Aus irgendeinem Grund kommt mir ein Zweig über stochastische Resonanz in den Sinn. Wenn man das Netz bis zum Ende trainiert, kann man die Zielfunktion auf ein tiefes Minimum, d.h. auf einen stabilen Zustand, bringen. Stabile Zustände sind überhaupt nicht typisch für Finanzmärkte. Sie sind quasistabil, d.h. solche, die unter dem Einfluss auch nur eines kleinen "Rauschens" jederzeit in eine Katastrophe (Trend) umschlagen können. Aber das sind nur philosophische Überlegungen...

Nun, ich meine dasselbe. Es ist nur so, dass der Begriff "steady-state" anstelle des gängigen Begriffs "steady-state" verwendet wurde. Mit beiden Begriffen ist gemeint, dass die statistischen (passenden) Daten der Wahrscheinlichkeitsrechnung sehr nahe kommen. Aber jeder, der sich mit Finanzinstrumenten beschäftigt hat, weiß sehr gut, dass Statistiken aufgrund der Nicht-Stationarität nicht auf sie anwendbar sind.


Rein empirisch habe ich festgestellt, dass das Netz um etwa ein Drittel umgeschult werden muss. Aber auch hier kommt es auf die Angemessenheit des Inputs an. Es ist möglich, dass andere erfahrungsgemäß nur um 10 % geschult werden müssen.

 
Reshetov писал (а) >>

Nun, das meine ich auch. Es ist nur so, dass der Begriff "steady-state" anstelle des gängigen Begriffs "steady" verwendet wurde. Mit beiden Begriffen ist gemeint, dass die statistischen (Anpassungs-)Daten nahezu probabilistisch sind. Aber jeder, der sich mit Finanzinstrumenten beschäftigt hat, weiß sehr gut, dass Statistiken aufgrund der Nicht-Stationarität nicht auf sie anwendbar sind.


Rein empirisch habe ich festgestellt, dass das Netz um etwa ein Drittel umgeschult werden muss. Aber auch hier kommt es auf die Angemessenheit des Inputs an. Es ist möglich, dass andere erfahrungsgemäß nur um 10 % trainieren müssen.


Nach Haikin können die Ergebnisse zwischen dem vollständigen Training auf der Trainings- und der Teststichprobe nur dann abweichen, wenn die Anzahl der Muster nicht hoch genug ist.

Wenn es genügend Muster gibt, führt ein vollständiges Training zu besseren Ergebnissen für die Teststichprobe als für den frühen Haltepunkt, wie oben erwähnt.

Nach meiner Erfahrung neige ich dazu, diese Ergebnisse zu glauben.



Was das lineare neuronale Netz betrifft, so kann man nur zu dem Schluss kommen, dass man kein neuronales Netz braucht, wenn man damit mit ausreichender Zuverlässigkeit positive Ergebnisse erzielen kann.

 
TheXpert писал (а) >>

Das ist Blödsinn... Was hat die Neuzeichnung von Indikatoren mit Interpolation und Zukunftsprognosen zu tun?

Sehr geehrter Herr, wo habe ich behauptet, dass Interpolation etwas mit der Zukunft zu tun hat? Gehen Sie zu einem Augenarzt und lesen Sie die Beiträge aufmerksam, anstatt mit Begriffen um sich zu werfen. Ich habe berichtet und wiederhole für die besonders Begabten, dass eine Extrapolation für die Zukunft notwendig ist.


Mein Beitrag war eine Antwort auf den Beitrag von rip:


------------------ Angebot ------------------------


rip 14.07.2008 00:01
Reschetow schrieb (a) >>

Richtig. Die Architektur ist, wenn sie richtig eingegeben wird, kein Problem mehr. Man könnte sagen: Inputs sind alles, Architektur ist nichts.


Hier nahmen die Herren normale Eingaben auf und erhielten mit MTS "Sombo" ordentliche Ergebnisse :

Ich stimme Ihnen bis zu einem gewissen Grad zu. Aber die Netzarchitektur spielt eine große Rolle... RBF-Netze sind zum Beispiel viel besser in der Lage, einige Interpolationsaufgaben zu lösen.

 
TheXpert писал (а) >>

Nach Heikin kann eine Diskrepanz zwischen den Ergebnissen eines vollständigen Trainings auf einer Trainings- und einer Teststichprobe nur auftreten, wenn die Anzahl der Muster nicht groß genug ist.

Herr Nerd, normale Menschen haben ihren eigenen Verstand und ihre eigene Erfahrung, während Nerds andere Nerds zitieren, weil sie keinen eigenen Verstand haben und auch nicht haben können.


Haykin hat das Netz höchstwahrscheinlich in einer stationären Umgebung trainiert, daher seine Schlussfolgerungen. In einer nicht-stationären Umgebung kann das Netz möglicherweise überhaupt nicht lernen, wenn ihm zu viele Muster vorgegeben werden, weil z. B. beim Handel ein Muster heute auf Kauf und das nächste Mal auf Verkauf hindeutet. Denn bei jeder Eingabe besteht eine gewisse Wahrscheinlichkeit von Fehlsignalen.