Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3038
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Ich bin auch kein großer Fan davon, aber Alexej sagt, es funktioniert.
Die Frage ist, warum er es nicht benutzt. Anscheinend ist er mit dem Ergebnis nicht sehr zufrieden.
Es stellt sich heraus, dass es Regeln auswählt, aber wir sollten verstehen, dass einige von ihnen von Jahr zu Jahr nicht beständig funktionieren, einige von ihnen überhaupt nicht mehr funktionieren und der andere Teil beständig weiterarbeitet.
Natürlich sind wir an denjenigen interessiert, die weiterhin funktionieren - was sie von den anderen unterscheidet, ist das Geheimnis, das jeden TS deutlich verbessern wird.
Genau das ist es, was ich versuche, die Anzahl der guten Regeln potenziell zu erhöhen, indem ich eine begrenzte Anzahl von Abschnitten von Prädiktoren für sie auswähle. Dazu müssen wir die Bereiche mit "stabiler" Leistung jedes Prädiktors identifizieren, die zur Erstellung von Regeln verwendet werden. Das ist die Aufgabe, mit der ich mich derzeit beschäftige.
Mit anderen Zielen habe ich noch nicht experimentiert, da ich nach einer weniger kostspieligen Methode suche, als ich sie für die Ermittlung dieser Regeln habe.
Habe ich das richtig verstanden, dass Sie sich entschieden haben, kein Colab zum Vergleich der beiden Methoden durchzuführen?
Es stellt sich heraus, dass sie Regeln auswählt, aber wir müssen uns darüber im Klaren sein, dass einige von ihnen nicht von Jahr zu Jahr gleichmäßig funktionieren, einige von ihnen überhaupt nicht mehr funktionieren und der andere Teil weiterhin gleichmäßig funktioniert.
Natürlich sind wir an denjenigen interessiert, die weiterhin funktionieren - was sie von den anderen unterscheidet, ist das Geheimnis, das jeden TS deutlich verbessern wird.
Genau das ist es, was ich versuche, die Anzahl der guten Regeln potenziell zu erhöhen, indem ich eine begrenzte Anzahl von Abschnitten von Prädiktoren für sie auswähle. Dazu müssen wir die Bereiche mit "stabiler" Leistung jedes Prädiktors identifizieren, die zur Erstellung von Regeln verwendet werden. Mit dieser Aufgabe befasse ich mich derzeit.
Ich habe nicht mit anderen Zielen experimentiert, da ich nach einer weniger kostspieligen Methode suche, als ich sie für die Ermittlung dieser Regeln habe.
Habe ich das richtig verstanden, dass Sie sich entschieden haben, kein Colab zum Vergleich der beiden Methoden durchzuführen?
Ich denke darüber nach, es vorerst auf Automatik zu machen.
Es stellt sich heraus, dass sie Regeln auswählt, aber wir müssen uns darüber im Klaren sein, dass einige von ihnen nicht von Jahr zu Jahr gleichmäßig funktionieren, einige von ihnen überhaupt nicht mehr funktionieren und der andere Teil weiterhin gleichmäßig funktioniert.
Die Wahrheit ist, dass wir bei einer Zufallsstichprobe von 1000 TKs genau die gleichen Ergebnisse erhalten werden.
Und wenn wir eine weitere Stichprobe für den Test machen, eine vierte Art - Train-Test-Valid-Test2.
dann stellen wir fest, dass "der andere Teil stetig weiterarbeitet".
genau das gleiche wird nicht funktionieren ))
Es ist alles zufällig, und das gefundene Muster ist tatsächlich zufällig.
Die Wahrheit ist, dass man bei 1.000 zufälligen TCs genau die gleichen Ergebnisse erhält.
Wenn wir außerdem eine weitere Stichprobe für den Test machen, einen vierten Typ - Train-Test-Valid-Test2.
dann werden Sie feststellen, dass "der andere Teil kontinuierlich weiterarbeitet".
nicht auf die gleiche Weise funktionieren wird ))
Es ist alles zufällig, und das Muster, das Sie finden, ist tatsächlich zufällig.
Ich habe 10000 Modelle trainiert und weiß, dass dies nicht der Fall ist - die meisten von ihnen funktionieren nicht mehr bei neuen Daten.
Und die Blätter - ja, Sie haben anscheinend nicht genau gelesen - ich schrieb, dass ich auf Daten von 2014 bis 2019 (ein paar Monate) trainiert habe, einschließlich Validierung, und zeigte, wie sie im Jahr 2021 funktionierten - d.h. hier war ein ehrlicher Test, ohne Blick in die Zukunft - im Gewinn 50%.
Vielleicht ist alles zufällig, aber jede zufällige hat eine Zyklizität, nach der es geschieht nicht zufällig sein :)
Ich habe 10000 Modelle trainiert und weiß, dass dies nicht der Fall ist - die meisten von ihnen funktionieren nicht mehr bei neuen Daten.
Und die Blätter - ja, Sie haben offenbar nicht sorgfältig gelesen - ich schrieb, dass ich auf Daten von 2014 bis 2019 (ein paar Monate) trainiert, einschließlich Validierung, und zeigte, wie sie im Jahr 2021 gearbeitet - dh hier war ein ehrlicher Test, ohne Blick in die Zukunft - in Gewinn 50%.
Vielleicht ist alles zufällig, aber jeder Zufall hat eine Zyklizität, nach der er nicht zufällig ist :)
Wenn man z.B. einen stationären Zustand über FF erhält, wird dieser einen stationären Zustand TC charakterisieren? Jedem ist klar, dass es sich dabei um Kurwafitting handelt
Die FF muss die Regeln einer stabilen TZ beschreiben. Wenn sich die TK als instabil erweist, dann sind die Regeln im FF falsch.
Das Problem ist, dass es bisher niemandem gelungen ist, solche Regeln für FF zu finden (zumindest habe ich sie nicht gesehen). Es gibt zwei Möglichkeiten: entweder die TS so zu vereinfachen, dass sie so wenig Freiheitsgrade wie möglich hat, was bedeutet, dass sie eher stabil abfließend oder stabil ausfließend ist, oder Regeln für FF zu finden, was ein komplizierterer Weg ist.
Im Allgemeinen gibt es keinen universellen Satz von Aktionen für einen Gralserbauer. Es gibt einen dritten Weg - die Entwicklung einer flexiblen, selbstlernenden KI wie ChatGPT, aber auch hier gibt es FF, die beim Training verwendet wird. Ich wollte nur eines sagen: FF wird in der einen oder anderen Form immer vorhanden sein, es gibt keine Möglichkeit, sie loszuwerden.
Das Problem liegt nicht in der Konstruktion eines stabilen TS, sondern in den beschreibenden Merkmalen, die in die FF eingebracht werden.
Der FF sollte die Regeln einer stabilen TK beschreiben. Wenn sich die TK als instabil erweist, dann sind die Regeln im FF falsch.
Das Problem ist, dass es bisher niemandem gelungen ist, solche Regeln für FFs zu finden (zumindest habe ich sie nicht gesehen). Es gibt zwei Möglichkeiten: Entweder man vereinfacht die TS so, dass sie möglichst wenige Freiheitsgrade hat, was bedeutet, dass sie eher stabil abfließend oder stabil schüttend ist, oder man findet Regeln für FF, was ein komplizierterer Weg ist.
Im Allgemeinen gibt es keinen universellen Satz von Aktionen für einen Gralserbauer. Es gibt einen dritten Weg - die Entwicklung einer flexiblen, selbstlernenden KI wie ChatGPT, aber auch hier gibt es FF, die beim Training verwendet wird. Ich wollte nur eines sagen: FF wird in der einen oder anderen Form immer vorhanden sein, es gibt keine Möglichkeit, sie loszuwerden.
Das Problem liegt nicht in der Konstruktion eines stabilen TS, sondern in den beschreibenden Merkmalen, die in die FF eingebracht werden.
Ganz richtige und kompetente Argumentation, natürlich widersprüchlich - "... nicht in der Konstruktion eines nachhaltigen TS", sondern in der Technologie der Konstruktion/Selektion/Evolution von nachhaltig rentablen TS und wir streben danach.
Der FF sollte die Regeln einer stabilen TK beschreiben. Wenn sich die TK als instabil erweist, dann sind die Regeln im FF falsch.
Der FF kann per Definition keine Probleme lösen. Entweder gibt es SEHR viel, was man um eine Einheitsprozent verbessern kann, oder nicht. Man kann keinen Müll verbessern, egal wie sehr man im Müll wühlt, der Müll bleibt Müll.
Daher sind erste Überlegungen zur Beziehung zwischen Ziel und Prädiktoren ein Anfang . Darüber hinaus ist eine quantitative Bewertung dieser Beziehung erforderlich, und zwar nicht nur eine Bewertung der Beziehung, sondern eine quantitative Bewertung der Fähigkeit der Prädiktoren, künftige Werte der Zielvariablen (des Lehrers) vorherzusagen . In dieser Argumentationskette gibt es keinen Platz für FF, so dass man einfach einen MO-Algorithmus - von denen es Hunderte gibt - nehmen und als Black Box verwenden kann, ohne zu versuchen, irgendetwas an bestimmten Algorithmen zu "verbessern".
Außerdem sind FF-Klassen eine heikle Angelegenheit - der Geruch einer zu starken Anpassung an die Geschichte ist zu stark.
Genau, keine. Es ist unklar, warum Sie 20% als Erfolg anpreisen...
Weder 20%, noch 8%, noch 50% bedeuten irgendetwas. Die Zahlen bedeuten nichts.
Die Bilanz ist interessant. Keine Grafik?
Sie haben eine Spalte mit der Bezeichnung "Klassifizierungsfehler", und jetzt ist die Klassifizierung irrelevant.
Es ist unmöglich, das zu verstehen. Ich wünschte, ich könnte es.
Vielleicht können Sie Ihre Ergebnisse klarer formulieren?