Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1302
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Was mich am meisten freut, ist die große Zahl der "Prädiktoren". Woher sollte es in den Zitaten überhaupt kommen? Das ist zu 90 % Quatsch.
Jeder beschreibt seine Illusion auf unterschiedliche Weise, und die Illusion desjenigen, der im Moment viel Geld hat, funktioniert. Deshalb kann es wirklich viele Prädiktoren geben, ich sehe hier keinen Widerspruch, es ist wie bei Büschen, die aus Ästen und Blättern bestehen, aber jemand kann sie zu verschiedenen komplizierten Figuren schneiden, die unterschiedliche Reaktionen bei den Betrachtern hervorrufen.
Jeder beschreibt seine Illusion auf unterschiedliche Weise, und die Illusion desjenigen, der im Moment viel Geld hat, funktioniert. Es kann also wirklich viele Prädiktoren geben, ich sehe hier keinen Widerspruch, es ist wie bei Sträuchern, die aus Ästen und Blättern bestehen, aber jemandem fällt ein, sie zu verschiedenen komplizierten Figuren zu trimmen, was bei den Betrachtern eine andere Reaktion hervorruft.
Nun, jedem das Seine, ich bin mit solchen Skrupel zu kämpfen, auf jeden Fall die Einstellung, wie es ist, die Hauptsache, die für eine Weile funktionieren würde
es stellt sich heraus, dass 4 Prädiktoren ausreichen, wenn man eine optimale Kombination von Eingängen/Ausgängen findet
Kurzum, es muss ein Kompromiss zwischen Effizienz und Zeit gefunden werden.
Wie auch immer Sie graben, Sie werden überall illusorische "Muster" finden, und sie können in jedem Phänomen gefunden werden
Was mich am meisten freut, ist die große Anzahl von "Prädiktoren". Woher kommt das in den Zitaten? Das ist zu 90 % Quatsch.
Genau, das ist Blödsinn. Und jeder Indikator für sich genommen ergibt etwa 50/50 und hat zudem einen sehr engen Wirkungsbereich - an den Stellen, an denen seine Messwerte wirklich sinnvoll sind.
Aber zusammengenommen... Sie schränken bereits den Anwendungsbereich anderer Indikatoren ein, indem sie einen Bereich des N-dimensionalen Raums definieren, in dem ihre gemeinsamen Messwerte sinnvoll sind. Ich glaube, man nennt es ein Modewort - Synergie.)
Meiner Meinung nach sind 7-8 Indikatoren/Prädiktoren erforderlich, damit es funktioniert. Das einzige Problem ist, dass sie nicht dasselbe messen sollten).
Nun, das ist jedem selbst überlassen, ich bin besorgt über solche Skrupellosigkeit, auf jeden Fall ist die Hauptsache, dass es für einige Zeit funktioniert
es stellt sich heraus, dass sogar 4 Prädiktoren ausreichen, wenn man eine optimale Kombination von Eingängen und Ausgängen findet
Kurz gesagt, es muss ein Kompromiss zwischen Effizienz und Zeitaufwand gefunden werden.
Das ist der Punkt, die Hauptsache ist, dass es funktioniert...
Und doch, wie sich herausstellt:
1. das große Modell wird aufgrund des Memory-Effekts übertrainiert
2. Je besser die Regel (Blatt/Binärbaum) in der Vergangenheit funktioniert hat, desto weniger Chancen hat sie in der Produktion
Andernfalls erhalten Sie ein solches Diagramm mit hoher Genauigkeit und hoher Rentabilität
und auf die Untersuchungsstichprobe (verfügbar auf dem Diagramm) für das Jahr 1000 Gewinn nur (und die Inanspruchnahme der Mittel ist etwa die gleiche), und die Genauigkeit fällt auf 58%.
Die Tests wurden mit 1/0 Split-Aktivierung bei "Wahrscheinlichkeit" 0,6 und bei einer Wahrscheinlichkeit von 0,5 der Gewinn ist rund 5000 auf der außerhalb der Studie Zeitraum, sondern auf der Testphase rund 57 und die Tabelle geht mehr, hat weniger Genauigkeit.
Bedeutet das, dass besonders gute Ergebnisse in der Ausbildungszeit eine Garantie für eine Umschulung sind?
sondern im Testzeitraum in der Region von 57
Bedeutet dies, dass ein besonders guter Wert für die Trainingszeit eine Garantie für Übertraining ist?
Die Genauigkeit von 57 % im Test ist sehr gut, sogar zu gut, aber ja, je größer der Unterschied zwischen den Ergebnissen im Garn und im Test ist, desto höher ist die Wahrscheinlichkeit einer Überanpassung.
Die Genauigkeit von 57 % beim Test ist sehr gut, sogar zu gut, aber ja, je mehr sich die Ergebnisse auf dem Firn und beim Test unterscheiden, desto wahrscheinlicher ist es, dass man zu viel einfüllt.
Ich gehe also davon aus, dass die Zukunft ungewiss ist, und niemand kann mir sagen, dass Sie bei einer Probe außerhalb der Ausbildung gut abschneiden werden... Deshalb suche ich nach irgendeiner Art von Verbindung.
Wie sieht es mit der Genauigkeit aus (es ist nicht die Genauigkeit, denn sie berücksichtigt keine verpassten Einträge, also solche, die mit 0 eingestuft werden, obwohl sie mit 1 hätten eingestuft werden müssen), so einfach ist das nicht, denn Gewinn ist nicht gleich Verlust - es kann ein höherer Gewinn sein und umgekehrt. Es stellt sich heraus, dass das Modell zwar zu funktionieren scheint, aber keinen Gewinn abwirft.
Das ist der Punkt, die Hauptsache ist, dass es funktioniert...
Und doch hat sich bisher gezeigt, dass:
1. das große Modell wird aufgrund des Memory-Effekts übertrainiert
2. Je besser die Regel (Blatt/Binärbaum) in der Vergangenheit funktioniert hat, desto weniger Chancen hat sie in der Produktion
Andernfalls erhalten Sie ein solches Diagramm mit hoher Genauigkeit und hoher Rentabilität
und auf die Untersuchungsstichprobe (verfügbar auf dem Diagramm) für das Jahr 1000 Gewinn nur (und die Inanspruchnahme der Mittel ist etwa die gleiche), und die Genauigkeit fällt auf 58%.
Die Tests wurden mit 1/0 Split-Aktivierung bei einer "Wahrscheinlichkeit" von 0,6 durchgeführt, und bei einer Wahrscheinlichkeit von 0,5 ist der Gewinn rund 5000 auf der außerhalb der Studie Zeitraum, aber der Testzeitraum ist rund 57 und das Diagramm geht mehr, hat weniger Genauigkeit.
Bedeutet das, dass ein super guter Wert für die Trainingszeit eine Garantie für Übertraining ist?
In der Regel, ja.
je mehr Zeichen, desto mehr ÜbertrainingDie Genauigkeit von 57 % im Test ist sehr gut, sogar zu gut, aber ja, je mehr sich die Ergebnisse im Firn und im Test unterscheiden, desto höher ist die Wahrscheinlichkeit einer Überanpassung.
einige Leute denken, dass Random auch gut ist, spinnen Sie )) Random+7% nerendom ist schlecht, aber es ist besser als Random
nein, es ist nicht schlecht, es ist ekelhaft, es ist überhaupt kein Modell.
jeder lernt dringend die Grundlagen des maschinellen Lernens und des Terver
Vor allem, wenn die Kurve bei 57 % aufsteigt, kann man das a priori als Übertraining ansehen und nicht weiter analysieren.einige Leute denken, dass Randoms auch gut sind, spinnen Sie )) Randoms+7% Nerandom ist schlecht, aber es ist ein wenig besser als Randoms
nein, es ist nicht schlecht... es ist ekelhaft, es ist überhaupt kein Modell
Jeder sollte dringend die Grundlagen des maschinellen Lernens und von terver erlernen.
Wie hoch ist die Genauigkeit Ihrer Modelle jetzt außerhalb des Trainings? Und mit welchem Zeitraum, wie fällt (verändert) sie sich?
Ich habe einen Zeitraum von 10 Monaten außerhalb der Ausbildung.
Wie hoch ist die Genauigkeit Ihrer Modelle jetzt nach dem Lernen? Und mit welcher Zeitspanne sinkt (verändert) sich diese Zahl?
Ich habe eine Ausbildungspause von 10 Monaten.
10% Fehler pro Test und Spur für ~10k Beispiele, steigt gleichmäßig mit Zunahme
bei diesem Fehler begannen die Modelle mit der Arbeit an neuen Daten
bei der Validierung ist es anders, ich muss versuchen, die Optionen herauszufinden
Algorithmen nicht mehr offenlegen, sondern nur noch kommunizieren