Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2706
![MQL5 - Sprache von Handelsstrategien, eingebaut ins Kundenterminal MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Ich lese hier, ich sehe, dass jeder seine eigenen Gespräche versteht...
Man kann die Methoden zur Erzeugung von Merkmalen nicht vergleichen, weil ich noch kein System in Code erstellt habe. Was verglichen werden kann, ist Ihr System mit meinem Satz von Prädiktoren und meinem System/meiner Methodik für deren Auswahl.
Jeder kann Daten aus dem historischen Intervall des MQL-Servers erhalten - Sie wollen eine kontinuierliche Historie. Aber die endgültige Stichprobe, die trainiert werden soll, wird eine um eine Größenordnung kleinere Stichprobenkette sein, aber mit zusätzlichen Prädiktoren.
Der Expert Advisor, den ich vorschlage zu verwenden, speichert die offenen Prädiktoren und am Ende der csv-Datei gibt es Spalten mit dem finanziellen Ergebnis und dem Ziel - Sie können Informationen über den Zeitpunkt der Auslösung der "Anfangsregel"/Aktivierungsfunktion von dort nehmen, so dass es keine Notwendigkeit gibt, den Algorithmus in R zu reproduzieren.
Ich schlage vor, das Zeitintervall - von 2010 bis 2020 - für das Training zu verwenden, den Rest der Zeit für das Testen der Ergebnisse außerhalb des Trainings.
Wenn Sie Ihre Prädiktoren erstellen, können Sie das Ergebnis in csv speichern - und das werde ich auch tun. Weiterhin können Sie Spalten zusammenführen und auf verschiedenen Bereichen oder nur separat untersuchen - dies ist für den Vergleich der Korrektheit der Synchronisation notwendig.
Ich kann Ihnen auch ein reines Markup schicken, wenn Sie sich damit gar nicht beschäftigen wollen.
Sie können die Methoden der Merkmalsgenerierung nicht vergleichen, da ich noch kein System im Code erstellt habe. Sie können Ihr System mit meinem Satz von Prädiktoren und dem System/der Methode ihrer Auswahl vergleichen.
Jeder kann Daten aus dem historischen Intervall des MQL-Servers erhalten - Sie wollen eine kontinuierliche Historie. Aber die endgültige Stichprobe, die für das Training verwendet wird, wird eine Größenordnung kleiner sein als die Strings mit Beispielen, aber mit zusätzlichen Prädiktoren.
Der Expert Advisor, den ich vorschlage zu verwenden, speichert die offenen Prädiktoren und am Ende der csv-Datei gibt es Spalten mit dem finanziellen Ergebnis und dem Ziel - Sie können Informationen über den Zeitpunkt der Auslösung der "Anfangsregel"/Aktivierungsfunktion von dort nehmen, so gibt es keine Notwendigkeit, den Algorithmus in R zu reproduzieren.
Ich schlage vor, das Zeitintervall - von 2010 bis 2020 - für das Training zu verwenden, den Rest der Zeit für die Überprüfung der Ergebnisse außerhalb des Trainings.
Wenn Sie Ihre Prädiktoren erstellen, können Sie das Ergebnis in csv speichern - und das werde ich auch tun. Sie können die Spalten entweder zusammenführen und auf verschiedene Bereiche untersuchen oder nur getrennt - Sie brauchen es, um die Korrektheit der Synchronisation zu vergleichen.
Ich kann Ihnen auch ein reines Markup schicken, wenn Sie sich damit gar nicht beschäftigen wollen.
Kommen wir zurück zur Logik
Es kann viele verschiedene Attribute geben, die je nach ihrer Beziehung zum Ziel informativ sein können oder nicht.
Was ist der Unterschied zwischen einer Beziehung und einer Übereinstimmung? Der Grad der informativen Abhängigkeit, ausgedrückt durch ein Maß
Je geringer die Informationsabhängigkeit der Etiketten von jedem einzelnen Merkmal ist, desto mehr Merkmale sind für das Training erforderlich.
Die Erhöhung der Anzahl der Merkmale führt zu einer Anpassung, weil das System beginnt, so viele freie Parameter zu haben
Was ist in diesem Fall der einzig richtige Ansatz? Minimierung der Anzahl der Merkmale bei gleichzeitiger Erhöhung ihres Verhältnisses zu den Zielmerkmalen
Aus diesem Grund ist es notwendig, nicht nur die Merkmale, sondern auch die Zielmerkmale nach einem informationsbindenden Kriterium zu bombardieren.
Wenn jemand in dieser Richtung arbeiten will, werde ich mit dem Code helfen.Kommen wir zurück zur Logik
Es kann viele verschiedene Attribute geben, die je nach ihrer Beziehung zu den Zielattributen informativ sein können oder nicht.
Was ist der Unterschied zwischen einer Beziehung und einer Übereinstimmung? Der Grad der informativen Abhängigkeit, ausgedrückt durch ein Maß
Je geringer die Informationsabhängigkeit der Etiketten von jedem einzelnen Merkmal ist, desto mehr Merkmale sind für das Training erforderlich.
Die Erhöhung der Anzahl der Merkmale führt zu einer Anpassung, weil das System beginnt, so viele freie Parameter zu haben
Was ist in diesem Fall der einzig richtige Ansatz? Minimierung der Anzahl der Merkmale bei gleichzeitiger Erhöhung ihres Verhältnisses zu den Zielmerkmalen
Aus diesem Grund ist es notwendig, nicht nur die Merkmale, sondern auch die Zielmerkmale nach einem informationsbindenden Kriterium zu bombardieren.
Wenn jemand in dieser Richtung arbeiten will, werde ich mit dem Code helfen.Natürlich stimme ich mit der Logik überein, deshalb habe ich vorhin vorgeschlagen, dass wir Prädiktoren nach dem Zufallsprinzip identifizieren und sie dann für das Markup verwenden.
Für mich sind diese Punkte, die prädiktive Fähigkeiten haben, Ereignisse, die ich im Allgemeinen denke, um separat zu trainieren, oder um Blätter von ihnen zu trennen, und dann jedes kumulative Trainingsverfahren durchzuführen.
Ein solches Ereignis kann als separates Handelssystem betrachtet werden und das Verhalten/die Effizienz dieser Systeme kann analysiert werden.
Das Problem beim Netting ist für mich nun die unabhängige Abrechnung dieser Events, d.h. eine virtuelle Unterstützung, die auf realen Daten mit Kommunikationsverlusten und anderen Vorzügen korrekt funktionieren würde.
Die Methoden zur Generierung von Merkmalen können nicht verglichen werden, da ich das System noch nicht im Code erstellt habe.
Vergleichen Sie also menschliche und maschinelle Methoden zur Erstellung von Prognosen :)
Vergleichen Sie also die Methoden zur Erstellung von Prognosen durch Mensch und Maschine :)
Was machen Sie dann in dieser ganzen Angelegenheit?
Nur zur Klarstellung: meine generierten Prädiktoren.
Genauer gesagt, meine generierten Prädiktoren.
Natürlich stimme ich mit der Logik überein, deshalb habe ich vorhin vorgeschlagen, dass wir die Prädiktoren nach dem Zufallsprinzip ermitteln und sie dann für die Aufbereitung verwenden.
Für mich sind diese Punkte, die prädiktive Fähigkeit haben, Ereignisse, die ich in der Regel denken, um separat zu trainieren, oder zu trennen Blätter von ihnen, und dann zur Durchführung einer aggregierten Trainingsverfahren.
Ein solches Ereignis kann als separates Handelssystem betrachtet werden, und das Verhalten/die Effizienz dieser Systeme kann analysiert werden.
Nun ist für mich beim Netting das Problem die unabhängige Abrechnung dieser Events, d.h. eine virtuelle Unterstützung, die auf realen Daten mit Kommunikationsverlusten und anderen Freuden korrekt funktionieren würde.
Glauben Sie wirklich, dass das irgendeinen Wert hat?
Natürlich ist er das. Sie können sehen, welchen Gewinn Ihnen Ihre Methode bringt. Vielleicht ist sie so unbedeutend, dass es keinen Sinn macht, sie anzuwenden, oder umgekehrt.