Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1211
![MQL5 - Sprache von Handelsstrategien, eingebaut ins Kundenterminal MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Mein Roboter ist immer auf der Oberseite. Ich weiß nicht, wann es möglich ist, eine Bestellung auf einmal aufzugeben, und ich weiß einfach nicht, wie ich sie sofort öffnen kann. Ich muss also wissen, wann der Roboter schlechter abschneiden könnte als sonst... da die Risiken begrenzt sind, ist mein Gewinn nur eine Frage der Zeit... und manchmal muss man eine Woche warten... Und in einer Woche, in der es keine solchen Rückschläge gab, hätten Sie viel mehr verdienen können...
Martin und Drawdown sind zwei unzertrennliche Freunde
Und das wird immer so sein, egal wie sehr man sich im Trend bewegt.
PS
Können Sie mir bitte einen Link zu dem Lehrbuch geben?
Bitte beraten, denn es ist zu faul, um 1200 Seiten zu lesen, hat jemand hier versucht, maschinelles Lernen auf der Grundlage der Ergebnisse des Handels auf geschlossenen EAs zu implementieren?
https://www.mql5.com/ru/code/22710
Martin und Drawdown sind zwei unzertrennliche Freunde
Und egal wie der Trend ist, es wird immer so sein.
PS
Haben Sie einen Link zu diesem Handbuch?
Martin und Drawdown sind zwei unzertrennliche Freunde
Und egal wie der Trend ist, es wird immer so sein.
PS
Haben Sie einen Link zu diesem Handbuch?
Die vorläufigen Ergebnisse (da ich noch nicht alle Prädiktoren erstellt habe) bei der Modellerstellung zur Bestimmung profitabler Modelle (1) waren gar nicht so schlecht. Hier ist die Aufschlüsselung nach y - Profit bei unabhängigen Stichproben und nach x - 1 - TP+FP und 0 - TN+FN.
Das Ziel war ein Gewinn von 2000, was bisher nicht erreicht wurde, aber nur 3 Modelle sind von 960 in die Verlustzone eingetreten, was kein schlechtes Ergebnis ist.
Die Tabelle der Konjugation
Das durchschnittliche Finanzergebnis ohne Klassifizierung beträgt 1318,83, nach der Klassifizierung 1 - 2221,04 und 0 - 1188,66, so dass sich das durchschnittliche Finanzergebnis der Modelle nach der Klassifizierung um 68 % erhöht hat, was nicht schlecht ist.
Es bleibt jedoch abzuwarten, ob dieses Modell auch mit Modellen funktionieren kann, die auf anderen Daten beruhen.
Logloss-Training - überraschenderweise konvergieren die Teststichprobe (auf der das Modell automatisch abgetastet wird - nicht die Trainingsstichprobe) und die unabhängige (Untersuchungs-) Logloss_e fast perfekt.
Das gilt auch für den Rückruf.
Und die Präzisionsmetrik hat mich überrascht, da sie standardmäßig für die Modellauswahl verwendet wird. Ich hatte kein Training, da sie beim ersten Baum sofort gleich 1 war.
Aber die unterschiedlichen Messwerte im Test und in der Prüfung - das Ergebnis überrascht mich sehr - ein sehr kleines Delta.
Anhand der Diagramme kann ich natürlich sehen, dass das Modell übertrainiert ist und ich das Training bei 3500 Bäumen oder sogar früher hätte beenden können, aber ich habe das Modell nicht angepasst und die Daten sind tatsächlich mit Standardeinstellungen.
Ein Fehler irgendwo, so etwas wie eine gleichmäßige Prüfung und Strecke gibt es nicht. Oder Gral, dann teilen :D
Es ist kein Gral, ich habe weitere 100k Modelle in meinem Exemplar und die Ergebnisse sind nicht sehr gut für sie - alle profitablen Modelle bekommen nur 2%, aber die profitablen haben auch zu viele.
Ich denke, es ist der Effekt eines geschlossenen Systems, d.h. eine Art von Stationarität, denn die Modelle sind einander ähnlich, ich habe es nur geschafft, ihre Merkmale gut zu identifizieren, deshalb gibt es eine so geringe Diskrepanz zwischen den Ergebnissen.
Ich schließe die geplanten Prädiktoren ab, und was mir dabei einfällt - vielleicht sollte ich sofort die Modelle entfernen, die ich selbst nicht wählen würde (große Drawdowns, starkes Missverhältnis zwischen Käufen und Verkäufen, sehr kleine Wahrscheinlichkeitsverteilung usw.), dann wird die Information über offensichtlich schlechte Modelle abnehmen, aber es wird mehr Nachdruck auf die Wahl eines Modells aus hypothetisch guten gelegt (natürlich kann das gute Modell im Test schlechte Ergebnisse auf der Teststichprobe haben). Ich weiß also nicht, ob ich die Probe ausschneiden soll oder nicht, was meinen Sie?
Außerdem werde ich den bloßen Gewinn als Zielvorgabe ablehnen - ich werde die Modelle nach einer Reihe von Kriterien auswählen - leider wird dies die Zielvorgabe "1" verringern, aber vielleicht gibt es tiefere Zusammenhänge, die eine Bewertung des Modells anhand von Testergebnissen ermöglichen.
Könnten Sie mich bitte beraten, denn ich bin zu faul, 1200 Seiten zu lesen? Hat jemand versucht, maschinelles Lernen auf der Grundlage der Ergebnisse des Handels mit geschlossenen Aufträgen von Expert Advisors zu implementieren?
Es gibt keine Notwendigkeit, dieses Thema zu lesen, glauben Sie mir, Sie werden Ihren Geist, versuchen, sofort zu tun, wie hierWALKING LINKS VORHER TRENDS Dies ist ein hervorragender Einführungskurs in die Verwendung von IR im Algorithmenhandel, aber im Allgemeinen ist IR ein sehr breit gefächertes Thema, in der Tat ist IR eine Erweiterung der klassischen Statistik, hauptsächlich mit Heuristiken und technischen Tricks, also keine Wissenschaft, sondern ein technologischer Schamanismus, der einerseits interessant ist, andererseits aber auch voller Spekulationen und Missbrauch. Wenn Sie sich für die Entwicklung von Indikatoren interessieren, vergessen Sie vielleicht, was Sie ursprünglich getan haben, und die MO ist ein bodenloses Loch, in das Sie eintauchen und nie wieder herauskommen. Außerdem sollten Sie einen guten mathematischen Hintergrund haben, mindestens einen Bachelor-Abschluss in Ingenieurwissenschaften, um sich mit Indikatoren zu beschäftigen, anstatt die Parameter von Bibliotheken und Paketen zu langweilen.
Kein Gral, es gibt 100k mehr Modelle und das Ergebnis ist nicht sehr gut für sie - ja, es schneidet völlig unrentable Modelle gut - nur 2%, aber es schneidet auch zu viele profitable Modelle.
Ich denke, es ist der Effekt eines geschlossenen Systems, d.h. eine Art von Stationarität, denn die Modelle sind einander ähnlich, ich habe es nur geschafft, ihre Merkmale gut zu identifizieren, deshalb gibt es eine so geringe Diskrepanz zwischen den Ergebnissen.
Ich schließe die geplanten Prädiktoren ab, und was mir dabei einfällt - vielleicht sollte ich sofort die Modelle entfernen, die ich selbst nicht wählen würde (große Drawdowns, starkes Missverhältnis zwischen Käufen und Verkäufen, sehr kleine Wahrscheinlichkeitsverteilung usw.), dann wird die Information über offensichtlich schlechte Modelle abnehmen, aber es wird mehr Nachdruck auf die Wahl eines Modells aus hypothetisch guten gelegt (natürlich kann das gute Modell im Test schlechte Ergebnisse auf der Teststichprobe haben). Ich weiß also nicht, ob ich die Probe ausschneiden soll oder nicht, was meinen Sie?
Nun, ich werde auch den bloßen Gewinn als Ziel aufgeben - ich werde die Modelle nach einer Reihe von Kriterien auswählen - leider wird dies das Ziel "1" verringern, aber vielleicht gibt es tiefere Zusammenhänge, die eine Bewertung des Modells anhand von Testergebnissen ermöglichen.
Natürlich kann man sie entfernen, wenn sie eindeutig nutzlos ist.