Marktknigge oder gute Manieren im Minenfeld - Seite 70

 
Neutron >> :

Die Varianz ist allerdings ein bisschen hoch, man muss die Werte erhöhen.

Vielleicht ist es ganz normal, dass ein Kotir stündlich ausfällt? Ich habe die Statistik auf 1000 erhöht. Das Ergebnis ist ein wenig niedriger. Die d-Statistiken werden jetzt schon gezählt, ich zeige sie euch, wenn sie fertig ist.

 
Neutron >> :

Genauer gesagt, aus der Feststellung der Quasi-Instabilität folgt nicht, dass der Markt vollkommen effizient ist.

Ja, ich verstehe es, und es macht auch mehr Sinn für mich. Allerdings würde ich das Wort "quasi" in einem Wortspiel verwenden, um den Ratenden mehr Zeit zu geben. :)

 

Hier sind die Statistiken über Wiener:


 

Wenn K=2 ist, ist es noch schöner (auf Wiener). Ich setze einfach überall K=1 ein, denn damit lernt das Mädchen besser und arbeitet besser(deutlich)



Und das ist für 1000 Erfahrungen kotir (K=1)


 
paralocus писал(а) >>

Hier sind die Statistiken über Wiener:

Die Abbildung sieht nicht sehr informativ aus. Zeigen Sie nur die Tangenten als Funktion der Eingabedimensionalität der Trainings- und der Teststichprobe an, und setzen Sie die Autoskalierung auf die Ordinatenachse.

 

Ist das in Ordnung?

 

Erklären Sie nun, worauf Sie hinauswollen.

Schauen Sie sich Ihre Abbildung an, in der der Tangens für Wiener abgeleitet ist:

Es ist nicht schwierig, seinen Wert visuell zu schätzen tg=1/2 für die Trainingsstichprobe. Wenn Sie sich Ihre letzte Abbildung ansehen, überschreitet der Wert von tg nicht den Wert von 0,1

Kommentar.

 
Könnte es an der Geschwindigkeit liegen? Ich werde es mir ansehen.
 

Dies liegt daran, dass ich den berechneten Tangens mit der Wiener Volatilität multipliziert habe, die ebenfalls falsch berechnet wurde (die Differenz der akkumulierten Zählungen wurde nicht quadriert)


Diese Bilder sind für K=1


 

Herzlichen Glückwunsch!

Wir sehen, dass der einschichtige NS-Code korrekt funktioniert - Null (wenn wir weitere Statistiken hinzufügen) bei einem Zufallsprozess und etwas statistisch signifikant von Null verschiedenes bei einem Markt-GP. Nun können wir zur Arbeit mit dem universellen Approximator (zweischichtiger nichtlinearer NS) übergehen und die erzielten Ergebnisse mit der Arbeit des linearen Neurons vergleichen. Nach dem Polieren können wir die Ergebnisse mit einer unterschiedlichen Anzahl von Neuronen in der versteckten Schicht vergleichen und mit verschiedenen Eingabedaten experimentieren.