Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3358

 
Wurde vor langer Zeit diskutiert und endete mit einer Überoptimierung von f-y :)
 
Andrey Dik #:
Über dieses Thema wurde schon zu Zeiten von Porksaurus, Matemat, Granite und Metadriver diskutiert, das ist lange her.
Ich habe dieses Thema von ihnen nicht gesehen, vielleicht habe ich es nur verpasst (ich habe früher mehr Cyberpaw gelesen). Es geht um Modelle, die Wahrscheinlichkeitsverteilungen als Ergebnisse liefern, und nicht bestimmte numerische Werte. Ich will nicht sagen, dass dies ein völlig neuer Ansatz ist, aber in den letzten Jahren ist das Interesse an diesem Thema deutlich gestiegen.
 
Aleksey Nikolayev #:
Ich habe dieses Thema nicht gesehen, vielleicht habe ich es nur verpasst (ich habe früher mehr Cyberpawk gelesen). Es geht um Modelle, die Wahrscheinlichkeitsverteilungen als Ergebnisse liefern und nicht bestimmte numerische Werte. Ich will nicht sagen, dass dies ein völlig neuer Ansatz ist, aber das Interesse an diesem Thema hat in den letzten Jahren deutlich zugenommen.

Nun, es hat viele Versuche gegeben, aber ich kenne ihre erfolgreichen öffentlichen Ergebnisse nicht. Die einfachste Methode ist, die Ausgabe eines einzelnen Neurons als die Wahrscheinlichkeit eines Kaufs/Verkaufs im Bereich [-1,0;1,0] zu behandeln, aber das hat nichts gebracht, und die Anwendung eines Schwellenwerts hilft auch nicht.

Eine andere Sache ist, dass es möglich ist, die Verteilung der Neuronenausgänge als Wahrscheinlichkeit anzuwenden, aber ich habe noch niemanden gesehen, der das getan hat. Bei gleichen Verkaufs-/Kaufsignalen des Ausgangsneurons des Netzes während des Trainings kann die Verteilung der Werte beispielsweise sehr unterschiedlich sein, so dass sich das Verhalten bei OOS anders darstellt.

Außerdem habe ich schon vor langer Zeit Graphen des Trainings und des Verhaltens am OOS gezeigt, wo die Linie ohne Bruch verläuft, natürlich ohne Streuung, und dem Input wurden Inkremente von einfachen Mashka aus verschiedenen Zeitrahmen gegeben, elementar. Und hier einige Genies plötzlich eine "brillante" Schlussfolgerung, dass der Spread das Verhalten auf OOS beeinflusst.

 
Andrey Dik #:

Nun, es hat viele Versuche gegeben, aber ich kenne ihre erfolgreichen öffentlichen Ergebnisse nicht. Das Einfachste, was gemacht wurde, war, die Ausgabe eines einzelnen Neurons als Wahrscheinlichkeit für Verkauf/Kauf im Bereich [-1,0;1,0] zu behandeln, aber es kam nichts Gutes dabei heraus, die Anwendung eines Schwellenwertes hilft nicht.

Eine andere Sache ist, dass man die Verteilung der Neuronenausgaben als Wahrscheinlichkeit anwenden kann, aber ich habe noch niemanden gesehen, der das getan hat. Bei gleichen Verkaufs-/Kaufsignalen des Ausgangsneurons des Netzes während des Trainings kann die Verteilung der Werte beispielsweise sehr unterschiedlich sein, so dass sich das Verhalten bei OOS anders darstellt.

Außerdem habe ich vor langer Zeit Graphen des Trainings und des Verhaltens am OOS gezeigt, wo die Linie ohne Bruch verläuft, natürlich ohne Streuung, und dem Input wurden Inkremente von einfachen Mashka aus verschiedenen Zeitrahmen gegeben, elementar. Und hier einige Genies plötzlich eine "brillante" Schlussfolgerung, dass der Spread das Verhalten auf OOS beeinflusst.

Dennoch ist die Klassifizierung ein relativ einfacher Spezialfall, bei dem die Verteilung des Outputs diskret ist und sich daher alles relativ leicht auf das übliche "Punkt"-Problem der numerischen MO reduzieren lässt.

Interessant ist ein breiterer Ansatz mit Modellen, bei denen der Output keine Zahl ist, sondern eine beliebige (natürlich innerhalb vernünftiger Grenzen) Verteilung. Ein Beispiel ist die MO, die in der Zuverlässigkeitstheorie (wo die Verteilung der Lebensdauer untersucht wird) oder in der probabilistischen Wettervorhersage (wo eine Wahrscheinlichkeitsverteilung für die mögliche Niederschlagsmenge konstruiert wird) verwendet wird.

 
Aleksey Nikolayev #:

...

Interessant ist ein breiterer Ansatz mit Modellen, bei denen das Ergebnis nicht eine Zahl, sondern eine beliebige (natürlich innerhalb vernünftiger Grenzen) Verteilung ist. Ein Beispiel wäre das MO, das in der Zuverlässigkeitstheorie verwendet wird (wo die Verteilung der Lebensdauer untersucht wird) oder in der probabilistischen Wettervorhersage (wo eine Wahrscheinlichkeitsverteilung für die mögliche Menge an Regenfällen konstruiert wird).


Genau das wollte ich damit sagen, dass man versuchen sollte, die Verteilung und nicht die Ausgangswerte selbst als Klassifikator zu verwenden.
 
Wahrscheinlichkeiten werden von einem bereits trainierten Modell abgeleitet. Warum sollte man ihm sonst Wahrscheinlichkeiten beibringen? Wenn die Wahrscheinlichkeiten bekannt sind, warum trainiert man es dann?

Momente von Verteilungen in Regressionsmodellen zur Schätzung von Intervallen? Nein, Sie haben noch nie davon gehört? Haben Sie schon viel mit ihnen prognostiziert?

Was ist, wussten Sie vor 20 Jahren schon alles, aber es war Ihnen zu peinlich, es zu sagen? Das ist eine lange Zeit, um von der Überoptimierung der Phasen wegzukommen.

Es ist traurig, 20 Jahre...
 

Bildung einer Wahrscheinlichkeitsverteilung während der Ausbildung, nicht danach.

Und was nützt es, nach dem Training überhaupt etwas zu tun? Ein hypothetischer Maschinennarr wird kein neues Wissen erwerben, wenn er nach dem Training mit einem Schraubenzieher bearbeitet wird.

 
Maxim Dmitrievsky #:

Ich habe das Beispiel oben bereits beschrieben. Es gibt einen Klassifikator, der das OOS besteht, aber die Rückgaben sind 60/40 verteilt. Das gefällt Ihnen nicht, Sie erhöhen die Entscheidungsschwelle, aber die Situation ändert sich nicht, und manchmal wird sie sogar noch schlimmer. Sie fragen sich, warum das so ist.

Die Erklärung liegt auf der Hand: Weil sich bei einer echten Wahrscheinlichkeitsschätzung die Situation ändern sollte.

Es wird eine Lösung angeboten.


Wie findet man Schwachköpfe wie diesen Karpov?

Der Kopf des Mannes ist ein einziges Durcheinander. Der Mann ist nicht fähig, zusammenhängend zu denken. Es ist einfach unheimlich!

Von der ersten Minute an sagt er einfach, dass der Klassifikator keine Wahrscheinlichkeit angibt. Und woher soll man die Wahrscheinlichkeit nehmen, ohne das zu verwenden, was der Klassifikator liefert?

 
СанСаныч Фоменко #:

Wie finden Sie Idioten wie diesen Karpov?

Der Kopf des Mannes ist ein einziges Durcheinander. Der Mann ist nicht fähig, zusammenhängend zu denken. Das ist einfach nur gruselig!

Nun, du wurdest auch eingeladen, in England mit deinem Brei zu arbeiten? )

Der Mann kümmert sich überhaupt nicht, es geht ihm gut.

Nicht verstanden != falsch verstanden. Das sind Leute mit einer etwas anderen Ausbildung, das ist wohl das Problem.

Es ist schon seit langem klar, dass das Thema neues Blut braucht. Ich bin auch schon eine alte Schwuchtel. Die Neuen werden kommen und sich zeigen, wenn das Forum am Ende nicht verschimmelt, versteht sich.

Das Schlimmste ist, dass ich verstehe, welche Veränderungen im Gehirn mit dem Alter eintreten, und warum Menschen so und nicht anders denken. Diese Offensichtlichkeit ist manchmal urkomisch, aber man kann ihr nicht entkommen.

 
Maxim Dmitrievsky #:

Wurden Sie mit Ihrem Haferbrei auch zum Arbeiten nach England eingeladen? )

dem Mann ist das völlig egal, ihm geht es gut.

Nicht auf die Idee kommen != es nicht richtig machen. Das sind Menschen mit einer etwas anderen Ausbildung, das ist wahrscheinlich das Problem.

Es ist schon lange klar, dass das Thema neues Blut braucht. Ich bin auch schon eine alte Schwuchtel. Die Neuen werden kommen und sich zeigen, wenn das Forum am Ende nicht verschimmelt, versteht sich.

Das Schlimmste ist, dass ich verstehe, welche Veränderungen im Gehirn mit dem Alter eintreten, und warum Menschen so und nicht anders denken. Diese Offensichtlichkeit ist manchmal urkomisch, aber man kann ihr nicht entkommen.

Was hat das mit England zu tun?

Sie scheinen ein qualifizierter Mensch zu sein, aber Sie werden ständig in den Mülleimer geschleppt.

Sie argumentieren sehr selten über die Verdienste....