Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1978

 
Maxim Dmitrievsky:

Es funktioniert zwar besser, aber es ist viel schwieriger, wenn der RL auch eingeschraubt ist.

Im Allgemeinen sind herkömmliche Backpropagation-Netze wie mlp für Zeitreihen nicht geeignet, ganz und gar nicht. Als Minimum benötigen Sie RNN

Sie sind gut für den stationären Einsatz) Einfache Logik für einfache Arbeiten. Für echte Ränge ist ein komplexer Algorithmus erforderlich).

 
Valeriy Yastremskiy:

Für stationäre sind sie gut) Einfache Logik für einfache nur funktioniert. Für echte Serien wird ein komplexes Gehirn benötigt).

Jede nicht-stationäre Reihe kann als eine Summe stationärer Reihen beliebiger Länge dargestellt werden. Aber die beliebige Länge ist ein großes Problem für die Prognose.

 
Valeriy Yastremskiy:

Jede nicht-stationäre Reihe kann als Summe von stationären Reihen beliebiger Länge dargestellt werden. Beliebige Länge ist ein großes Problem bei der Vorhersage.

Das ist ein großes Missverständnis.

 
Valeriy Yastremskiy:

Für stationäre sind sie gut) Einfache Logik für einfache nur funktioniert. Für reale Serien brauchen Sie ein komplexes Gehirn)

hängt vom Signal-Rausch-Verhältnis ab. Irgendwann funktionieren sie nicht mehr, weil sie die Nicht-Dunkelheit nicht berücksichtigen.

Grob gesagt, verschwindet die Regelmäßigkeit bei verrauschten Reihen (offensichtliche Schleifen), aber die Unmarkierung bleibt erhalten (wenn der Prozess mit Speicher ist). Normales MP fängt es nicht auf, nur RNN.

daher mlp, boosting, forest usw. nur für markovianische Prozesse ohne Speicher.

Beispiel Sprache: Jede Sprache hat ein gewisses Maß an Entropie, d.h. die Abwechslung der Wörter in der Sprache. Auf einem hohen Niveau wird die Sprache inkohärent, z. B. wenn es viele parasitäre Wörter gibt oder wenn man nur Peter Konov ist. Dann kann man es nur aus dem Kontext erschließen, was die Erinnerung an vergangene Sätze (Muster) voraussetzt.

Sie lesen zum Beispiel meinen Satz und wissen nicht, wer Peter ist und in welchem Zusammenhang ich ihn geschrieben habe. Sie haben keine Erinnerung an vergangene Ereignisse und können sie nicht mit dem aktuellen Wortlaut in Verbindung bringen, also ziehen Sie die falschen Schlüsse.

 
Maxim Dmitrievsky:

hängt vom Signal-Rausch-Verhältnis ab. Irgendwann funktionieren sie nicht mehr, weil sie die Nicht-Dunkelheit nicht berücksichtigen.

Grob gesagt, verschwindet in verrauschten Reihen die Regelmäßigkeit (offensichtliche Zyklen), aber die Unregelmäßigkeit bleibt erhalten (wenn es sich um einen Prozess mit Speicher handelt). Normales MP fängt es nicht auf, nur RNN.

daher mlp, boosting, forest usw. nur für markovianische Prozesse ohne Speicher.

Beispiel Sprache: Jede Sprache hat ein gewisses Maß an Entropie, d.h. die Abwechslung der Wörter in der Sprache. Auf einem hohen Niveau wird die Sprache inkohärent, z. B. wenn es viele parasitäre Wörter gibt oder wenn man nur Peter Konov ist. Dann kann man es nur aus dem Kontext erschließen, was die Erinnerung an vergangene Sätze (Muster) voraussetzt.

Sie lesen zum Beispiel meinen Satz und wissen nicht, wer Peter ist und in welchem Zusammenhang ich ihn geschrieben habe. Sie haben keine Erinnerung an vergangene Ereignisse und können sie nicht mit dem aktuellen Wortlaut in Verbindung bringen, so dass Sie die falschen Schlüsse ziehen werden.

Entscheidend ist natürlich das Signal/Rauschen. Bei starkem Rauschen gehen schwache Regelmäßigkeiten verloren, man kann sie einfach nicht sehen. Im Falle von Preisreihen entsteht das Rauschen jedoch nicht von außen. Rauschen ist eine verblassende Regelmäßigkeit oder schwach, wenn auch stark. Das ändert aber nichts am Kern der Sache. Regelmäßigkeiten, die erkannt werden können, und der Rest ist Rauschen.

 
Oleg Avtomat:

Dies ist ein großer Irrtum.

Sicherlich nicht für alle im vollen Sinne des Wortes alle. Weißes Rauschen ist hier nicht enthalten, aber wir berücksichtigen es auch nicht. Eine Reihe setzt sich zunächst aus verschiedenen Regelmäßigkeiten zusammen, die unterschiedliche Amplituden und Längen haben, so dass wir eine Reihe mit Rauschen und Regelmäßigkeiten haben.

 
Valeriy Yastremskiy:

Das Signal/Rauschen ist natürlich der entscheidende Faktor. Wenn es viel Rauschen gibt, gehen schwache Regelmäßigkeiten verloren, sie sind einfach nicht zu erkennen. Im Falle von Preisreihen wird das Rauschen jedoch nicht von außen verursacht. Rauschen ist eine verblassende Regelmäßigkeit oder eine schwache, wenn auch starke Regelmäßigkeit. Das ändert aber nichts am Kern der Sache. Die Muster, die erkannt werden können, und der Rest ist Rauschen.

Wenn das Rauschen größer ist als das Signal, ist es immer über- oder unterversorgt (bei Verwendung von Validierungssampling). Weil es keine stabilen Muster gibt.

und wenn es viel Rauschen und wenig Muster gibt, dann versuchen Sie, das Signal zu isolieren.

Es ist wirklich schwer zu verstehen, warum eine Folge von verrauschten Mustern ein Signal enthält, ein Muster aber nicht. Wir können einfach die Anzahl der Merkmale erhöhen (Geschichte wird gefüttert). Aber nein, so funktioniert das nicht. Lärm auf Lärm erzeugt Lärm. Es erfordert eine subtilere Kontextextextraktion, aber aus irgendeinem Grund funktioniert es dort. Magie, mit einem Wort.

 
Maxim Dmitrievsky:

Nun, wenn das Rauschen größer ist als das Signal, handelt es sich immer um eine Über- oder Unteranpassung (bei Verwendung von Validierungsstichproben). Weil es keine stabilen Muster gibt.

aber wenn es viel Rauschen und wenig Muster gibt, werden Sie versuchen, das Signal zu isolieren

Nun, das ist der Sinn aller Recherchen in allen probabilistischen Themen, ein Muster zu isolieren und den Moment zu erwischen, wenn es verschwunden ist. Und es ist in der Regel weniger problematisch und kostspielig, sie zu isolieren).

 
Maxim Dmitrievsky:


freundlich sanft höflich))))

 
Valeriy Yastremskiy:

freundlich zärtlich höflich))))

Ich führe ein vollständiges Protokoll, das Ihnen sagt, was er tut.

damit wir herausfinden können, was zu verbessern ist