Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1488
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Wir müssen davon ausgehen, dass wir nur einen Algorithmus entwickeln können, der sich am besten an die Daten anpasst, da wir die Zukunft nicht kennen und es viele Variationen gibt, selbst auf der Grundlage der verfügbaren Vorhersagewerte. Und wenn wir Glück haben, können wir ein Muster entdecken, das für einige Zeit bestehen bleibt. Deshalb ist es wichtig, nach einem solchen Muster mit bestimmten Kriterien zu suchen, und die Logik sagt, dass es zumindest ein Muster sein sollte, das in der gesamten Stichprobe vorkommt.
Es gibt nur ein Muster auf dem Markt und es wird immer sein - Zeitzyklen, Perioden: Handelssitzung, Tag, Woche, ..., und ihre Halbperioden. Diese Zyklen sind im Prinzip unzerstörbar, bilden eine komplexe zeitliche Struktur und bestimmen das Volumen einer Probe, mit der gearbeitet werden kann. Durch die Identifizierung des Preisverhaltens innerhalb dieser hierarchischen Struktur wird das Handelssystem immer funktionieren.
Standardalgorithmen sind für die Arbeit mit stationären Phänomenen, geschlossenen Systemen, konzipiert, so dass dort jede Information a priori als nützlich angesehen und nicht nach dem Zufallsprinzip bewertet wird, sondern nur nach der Möglichkeit, sie für die gestellte Aufgabe (Klassifizierung nach Ziel) zu nutzen, während wir eine Menge Rauschen haben und ich einen logischen Weg vorgeschlagen habe, damit umzugehen.
D.h. die Einheitlichkeit der erfolgreichen Berufe im Ausbildungsbereich?
Es ist gut so, wie es ist, denn die Passung ist genau zum Lernen, bis auf 0% Fehler.
Ich nehme an, dass dies der Fall sein sollte, wenn das Modell durch Tiefenreduktion oder andere Methoden reguliert/vergröbert wird. Und stoppen Sie zum Beispiel bei 20% Fehler im Trainingsbereich.
Ich denke, es gibt nur einen Weg - nach jeder hinzugefügten Knotenversion alle Daten durch den resultierenden Teil des Baums laufen lassen und die Bilanzlinie analysieren.
Anzahl der Versionen = (Anzahl der Merkmale * Anzahl der Knoten im Baum * 3 (wenn durch Quartile geteilt)) * Anzahl der Bäume
Die Berechnung wird sehr lange dauern, ich fürchte, sogar länger als bei NS.
Es gibt ein Muster auf dem Markt und es wird immer sein - Zeitzyklen, Perioden: Handelssitzung, Tag, Woche, ... sowie ihre Halbperioden. Diese Zyklen sind im Prinzip unzerstörbar, bilden eine komplexe zeitliche Struktur und bestimmen das zu bearbeitende Probenvolumen. Indem das Verhalten des Preises innerhalb dieser hierarchischen Struktur identifiziert wird, wird das Handelssystem immer funktionieren.
Ich bestreite nicht, dass die Zeit eine wichtige Rolle spielt, aber es reicht nicht aus, ein Modell zu erstellen - man braucht noch andere Variablen, die den Preis beeinflussen.
Ich bestreite nicht die Bedeutung der Zeit, aber sie reicht nicht aus, um ein Modell zu erstellen - man braucht noch andere preisbeeinflussende Variablen.
Das ist genug.
Innerhalb der Zeitzyklen befindet sich der Gral. Die Struktur in einem Zeitzyklus ist Teil der Struktur in einem anderen.
Wenn Sie arbeiten mit derselbe Stichprobengrößen, die folgenden Werten entsprechen verschiedene streng definierte Zeiträume, dann sind diese verschachtelten Strukturen wie auf einer Handfläche.
Kann der NS das nicht regeln? Ich habe es in meinem TS ohne neuronales Netzwerk gemacht.
D.h. die Einheitlichkeit der erfolgreichen Berufe im Ausbildungsbereich?
Ich persönlich bewerte das finanzielle Ergebnis für jedes Jahr (derzeit 5 Jahre), wobei ich die Inanspruchnahme und den Rückzahlungsfaktor sowie andere Bewertungskriterien berücksichtige. Im Moment schaue ich nicht einmal auf die Einstufung, da es eine Trendstrategie gibt, und selbst bei einer 35%igen korrekten Einstufung kann es sich um einen Gewinn zum Jahresende (anderer Zeitraum) handeln.
Das ist auch in Ordnung so, denn die Passung ist genau so, dass man lernen kann, bis auf 0% Fehler.
Die Frage ist, wie viele Bäume dafür verwendet werden und welchen Speicher das Modell im Wesentlichen hat. Ein Baum mit einer Tiefe von 6 Spalten kann nicht so gut passen...
Ich vermute, dass dies durch Regularisierung/Laden des Modells mit Tiefenreduktion oder anderen Methoden geschehen muss. Und stoppen Sie z.B. bei 20% Fehler auf dem Trainingsabschnitt.
Ich verwende bereits Splits und Vollständigkeitsbeschränkungen, und ja, sie sollten in der Ausbildung verwendet werden.
Ich denke, es gibt nur einen Weg - nach jeder hinzugefügten Knotenversion alle Daten durch den resultierenden Teil des Baums laufen lassen und die Bilanzlinie analysieren.
Anzahl der Versionen eines Knotens = (Anzahl der Merkmale * Anzahl der Knoten im Baum * 3 (wenn durch Quartile geteilt)) * Anzahl der Bäume
Die Berechnung wird sehr lange dauern, ich fürchte, sogar länger als bei NS.
Dies wird effizienter sein, was noch wichtiger ist, und am Ende wird es mehr marktfähige Modelle geben.
Im Moment verbringe ich etwa 15 Tage mit der Berechnung - ich erhalte etwa 800 einzelne Blätter und im Durchschnitt 8 davon, von denen die Hälfte ähnlich sind, die stabile Ergebnisse in Zeitintervallen zeigen (und die Überprüfung nimmt immer noch nicht wenig Maschinenzeit in Anspruch). D.h. eine Verlangsamung der Berechnung von 800/8 um den Faktor 100 würde sogar zu einem vergleichbaren Ergebnis führen.
Genug ist genug.
Innerhalb der Zeitzyklen befindet sich der Gral. Die Struktur in einem Zeitzyklus ist Teil der Struktur in einem anderen.
Wenn Sie arbeiten mit derselbe Stichprobengrößen, die folgenden Werten entsprechen verschiedene streng definierte Zeiträume, dann haben Sie diese verschachtelten Strukturen direkt in der Hand.
Kann der NS das nicht regeln? Ich habe es in meinem TS ohne ein neuronales Netz gemacht.
Einen Gral bekomme ich nicht, obwohl ich gerade mit Strukturen und Ähnlichkeit von Fraktalen arbeite, d.h. Verschachtelung von Zeit in verschiedenen TFs. Es ist nicht genug, vielleicht habe ich noch nicht alles begriffen.
NS ist ein Werkzeug, das menschliche Gehirn kann eine Lösung schneller und genauer finden oder auch nicht...
Ich persönlich schätze das finanzielle Ergebnis für jedes Jahr (derzeit 5 Jahre), wobei ich die Inanspruchnahme und den Rückzahlungsfaktor sowie andere Bewertungskriterien berücksichtige. Im Moment schaue ich nicht einmal auf die Einstufung, da es eine Trendstrategie gibt, und selbst bei einer 35%igen korrekten Einstufung kann es sich um einen Gewinn zum Jahresende (anderer Zeitraum) handeln.
Die Frage ist, wie viele Bäume dafür verwendet werden und welchen Speicher das Modell im Wesentlichen hat. Ein Baum mit einer Tiefe von 6 Spalten kann nicht so gut passen...
Die Aufteilungs- und Vollständigkeitsbeschränkung ist etwas, das ich bereits verwende, und ja, sie sollte in der Ausbildung verwendet werden.
Es wird effizienter sein, was das Wichtigste ist, und das Endergebnis werden mehr marktfähige Modelle sein.
Im Moment verbringe ich etwa 15 Tage mit der Berechnung - ich erhalte etwa 800 einzelne Blätter, von denen ich im Durchschnitt 8 erhalte, von denen die Hälfte ähnlich sind, was stabile Ergebnisse in Zeitintervallen zeigt (und die Überprüfung nimmt immer noch eine nicht geringe Menge an Maschinenzeit in Anspruch). D.h. eine Verlangsamung der 800/8-Berechnung um den Faktor 100 führt sogar zu einem vergleichbaren Ergebnis.
Es hört sich an, als würden Sie die Ventile vorwärts testen.
Ich auch, aber von Hand. Meiner Meinung nach ist dies die beste Methode zur Bewertung von Modellen.
Ich habe noch kein zeitstabiles Modell gefunden. Wenn man ein halbes Jahr/Jahr vorwärts/rückwärts geht, beginnen die Modelle bereits, schlecht zu funktionieren oder abzulaufen. Sogar neu trainiert auf denselben Merkmalen und mit denselben Modellparametern. D.h. auch die Bedeutung der Merkmale ändert sich.
Das hört sich an, als ob Sie einen Vorwärtstest machen würden.
Ich auch, aber manuell. Ich denke, das ist der beste Weg, um Modelle zu bewerten.
Ich habe noch kein zeitstabiles Modell gefunden. Wenn man ein halbes Jahr/Jahr vorwärts/rückwärts geht, beginnen die Modelle bereits, schlecht zu funktionieren oder abzulaufen. Sogar neu trainiert auf denselben Merkmalen und mit denselben Modellparametern. D.h. auch die Bedeutung der Merkmale ändert sich.
Deshalb ist es notwendig, all dies beim Training zu berücksichtigen und Aufteilungen vorzunehmen, die wenn nicht das Gleichgewicht, so doch eine Schätzung der Wahrscheinlichkeit der Klassifizierungsgenauigkeit berücksichtigen. Der Teil, der fragwürdig ist, sollte einfach entweder auf Handelsverbot oder 99% Wahrscheinlichkeit gehen, dann kann er herausgefiltert werden, wenn das Modell angewendet wird.
Deshalb ist es notwendig, beim Training alles zu berücksichtigen und Splits vorzunehmen, wobei, wenn nicht das Gleichgewicht, so doch die Wahrscheinlichkeit der Klassifizierungsgenauigkeit zu bewerten ist. Der Teil, der zweifelhaft ist, sollte für den Handel verboten oder mit einer Wahrscheinlichkeit von 99 % gekennzeichnet werden, so dass er bei der Anwendung des Modells herausgefiltert werden kann.
Es gibt zwar unterschiedliche Trennungsfaktoren, d. h. Verunreinigungsmaße (linke oder rechte Probenahme).