Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3352

 

Gewöhnliche Inkremente mit beliebiger Verzögerung. Keine Logarithmen oder Null-Balken. Die Frage bezog sich auf Vorzeichen. Das Hauptproblem dabei ist das geringe Signal/Rausch-Verhältnis. Aber sie enthalten alle Informationen.

Das Gehörlosentelefon entwickelt sich weiter :)

Ich lese überhaupt keine neueren Artikel, vor allem nicht von Autoren, die sich mit dem Thema Wasser beschäftigen, mit ganzen Wasserkreisläufen :)
 
Maxim Dmitrievsky #:

Gewöhnliche Inkremente mit beliebiger Verzögerung. Keine Logarithmen oder Null-Balken. Die Frage bezog sich auf Vorzeichen. Das Hauptproblem dabei ist das geringe Signal/Rausch-Verhältnis. Aber sie enthalten alle Informationen.

Offensichtlich alle Informationen. Aber wenn wir Inkremente zwischen benachbarten Balken verwenden, dann sollte das Modell, um zu verstehen, dass es einen Trend für die letzten 100 Balken gab, alle 100 Balken zusammenzählen und das Inkrement von Balken 0 erhalten. Und indem wir von 0 Balken auf einmal anfangen, - erleichtern wir ihm die Arbeit.
Vielleicht können neuronale Netze alle 100 Inkremente berücksichtigen und einen Trend finden, aber Holzmodelle sind unwahrscheinlich. Sie haben selbst gesagt (und ich bin zu demselben Ergebnis gekommen), dass Modelle am besten bei mehreren Merkmalen (bis zu 10) funktionieren, und ein vollständiger Trend von 100 wird nicht aus 10 gebildet. Und neben den Inkrementen kann es noch weitere nützliche Zeichen geben.

Deshalb ist mein willkürlicher Abstand für Inkremente immer von 0 Balken, damit das Modell den Trend sieht. Die Inkremente zwischen benachbarten Balken werden überhaupt nicht verwendet, weil ich sie als Rauschen betrachte. Welchen Einfluss hat zum Beispiel ein Inkrement von 0,00010 Punkten zwischen 120 und 121 Balken, d.h. vor 2 Stunden, auf die aktuelle Situation? - Keinen.

 
Forester #:

Es ist klar , dass alle von ihnen. Aber wenn wir Inkremente zwischen benachbarten Balken verwenden, dann muss das Modell, um zu verstehen, dass es einen Trend für die letzten 100 Balken gab, alle 100 Balken zusammenzählen und das Inkrement von 0 Balken erhalten. Und indem wir von 0 Balken auf einmal anfangen, - erleichtern wir ihm die Arbeit.
Vielleicht können neuronale Netze alle 100 Inkremente berücksichtigen und einen Trend finden, aber Holzmodelle sind unwahrscheinlich. Sie haben selbst gesagt (und ich bin zu demselben Ergebnis gekommen), dass Modelle am besten mit mehreren Merkmalen (bis zu 10) arbeiten, und ein vollständiger Trend von 100 wird nicht aus 10 gebildet. Und neben den Inkrementen kann es noch weitere nützliche Zeichen geben.

Deshalb ist mein willkürlicher Abstand für Inkremente immer von 0 Balken, damit das Modell den Trend sieht. Die Inkremente zwischen benachbarten Balken werden überhaupt nicht verwendet, weil ich sie als Rauschen betrachte. Welchen Einfluss hat zum Beispiel ein Inkrement von 0,00010 Punkten zwischen 120 und 121 Balken, d.h. vor 2 Stunden, auf die aktuelle Situation? - Keinen.

Ein Trend ist eine Verschiebung der durchschnittlichen Inkremente. Er ist also auch im Inkrementdiagramm zu sehen. Das Problem mit mehreren Attributen erklärt sich aus dem Blickwinkel der Confounder, d. h. es wird schwieriger, den Einfluss jedes Attributs von allen anderen zu trennen. Schließlich führt jedes Attribut zu einem zusätzlichen Fehler in der endgültigen Schätzung. Der Kausalschluss wird komplizierter und die Unsicherheit nimmt zu. Offensichtlich gibt es eine gewisse Begrenzung der Komplexität des Vordergrundmodells, die vom Signal-Rausch-Verhältnis abhängt.

Die Verzögerung der Inkremente steht in direktem Zusammenhang mit der Dauer des vorhergesagten Handels in Takten. Beträgt die Dauer beispielsweise 1 Bar, ist es besser, Inkremente mit einer kleinen Verzögerung und einer kleinen Fenstertiefe zu nehmen. Mit zunehmender Dauer des Handels erhöht sich natürlich auch die Verzögerung der Inkremente. Und das wirkt sich natürlich auf den Spread aus.
 

Ichhabe einen Expert Advisor geschrieben, der die Daten jedes Ticks aufzeichnet und eine csv-Datei mit den Daten erstellt. Daneben habe ich ein neuronales Netzwerk laufen lassen, das diese Datei analysiert, ein Training durchführt und auf der Grundlage der letzten Zeile in der ersten Datei eine Prognose darüber abgibt, wohin der Preis gehen wird und um wie viele Punkte. Geschrieben in Python. Wer hat schon etwas ähnliches gemacht und welche Daten kann man lernen, um das ganze Bild abzudecken. Jetzt basiert die Erfahrung auf 'Opening', 'Maximum', 'Minimum', 'Closing', 'Volume'.

Ich weiß nicht, wie ich einen Bildschirm einfügen kann.

 
Андрей habe einen Expert Advisor geschrieben, der die Daten jedes Ticks aufzeichnet und eine csv-Datei mit den Daten erstellt, und daneben habe ich ein neuronales Netzwerk gestartet, das diese Datei analysiert, ein Training durchführt und auf der Grundlage der letzten Zeile in der ersten Datei eine Vorhersage darüber abgibt, wohin der Preis gehen wird und um wie viele Punkte. Geschrieben in Python. Gibt es jemanden, der bereits etwas Ähnliches gemacht hat und welche Daten man lernen kann, um das gesamte Bild abzudecken. Jetzt basiert die Erfahrung auf 'Opening', 'Maximum', 'Minimum', 'Closing', 'Volume'.

Ich weiß nicht, wie ich einen Bildschirm einfügen kann.

Ticks für ALLE Währungspaare und Metalle aufzeichnen und analysieren kann.

Tageszeit, Wochentag hinzufügen

Klassifizierung der erwarteten Nachrichten

Sekunden vor den Nachrichten

Klassifizierung der vergangenen Nachrichten

Sekunden nach den Nachrichten

===

im Allgemeinen etwas, um sich und Python zu beschäftigen :-)

 
Wir sind noch nicht alle MOs durchgegangen, also können wir dir keinen Hinweis geben :)
 
Maxim Dmitrievsky #:
Da wir noch nicht alle IOs beherrschen, können wir Ihnen das nicht auf Anhieb sagen :)

Warum alle MOs beherrschen? Es gibt allein mehrere hundert Modelle... Und Modelle sind eindeutig weniger als die Hälfte des Problems.

Beherrschen Sie vielleicht ein paar Modelle, aber lernen Sie, wie Sie bei OOV und OOS durchgängig den gleichen Klassifizierungsfehler von weniger als 20 % erreichen? Und dabei den Nachweis erbringen, dass man nicht zu viel lernt, vorausschauend handelt und vor allem den daraus resultierenden Klassifikationsfehler in der Zukunft nachweist?

 
СанСаныч Фоменко #:

Warum alle MoDs beherrschen? Es gibt allein mehrere hundert Modelle... Und die Modelle sind eindeutig weniger als die Hälfte des Problems.

Wie wäre es, wenn man einige Modelle beherrscht, aber lernt, bei OOV und OOS durchgängig den gleichen Klassifikationsfehler von weniger als 20 % zu erreichen? Und dabei den Nachweis zu erbringen, dass man nicht zu viel lernt, vorausschauend zu arbeiten und vor allem den daraus resultierenden Klassifizierungsfehler in der Zukunft nachzuweisen?

Unter allen IOs gibt es gemeinsame Ansätze und Praktiken. Können Sie zum Beispiel Klassenwahrscheinlichkeiten für die binäre Klassifizierung erhalten? Wenn ja, auf welche Weise?
 
Maxim Dmitrievsky #:
Unter allen MOEs gibt es gemeinsame Ansätze und Praktiken. Können Sie zum Beispiel Klassenwahrscheinlichkeiten für die binäre Klassifizierung erhalten? Wenn ja, auf welche Weise?

Mir fallen auf Anhieb keine Pakete ein, die KEINE Klassenwahrscheinlichkeiten erzeugen. Ich hatte also den Eindruck, dass dies der Standard ist.

 
СанСаныч Фоменко #:

Mir fallen auf Anhieb keine Pakete ein, die KEINE Klassenwahrscheinlichkeiten ausgeben. Es schien mir also, dass dies der Standard ist.

Batch-Denken ist in. Das sind nicht die Wahrscheinlichkeiten, sondern sie werden so genannt, weil das Löß-Phs-Verfahren für die Wahrscheinlichkeitsschätzung verwendet wird.

Wie erhält man echte Klassenwahrscheinlichkeiten?