Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 963
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Und womit begründen Sie selbst die Zulässigkeit von Abweichungen nach unten, abgesehen von reinem Zufall?
Ich habe keine Rechtfertigung für die Erwartung, dass OOS besser sein sollte als Train.
Wie können Sie von zufälligen OOS-Daten bessere Ergebnisse verlangen als von denen, mit denen Sie gelernt haben? Das kann nicht sein, außer durch Zufall.
In einem anderen Thread wurde kürzlich geschrieben, dass der Schüler nicht mehr wissen kann als der Lehrer.
Beispiel.
Ein Teil der Daten (z. B. 80 %) auf dem EP wird dem Modell vertraut sein und es wird dort den gleichen Fehler wie auf dem Zug zeigen (lassen Sie den Fehler=30 %), die anderen 20 % der Daten auf dem EP werden neu und ungelernt sein und einen Fehler von 50 % ergeben. Zusammengenommen dürften diese 80 % bekannten und 20 % neuen Daten den OOS-Fehler der Website auf etwa 35 % erhöhen.
Ich würde also eher mit einer Verschlechterung der OOS-Ergebnisse rechnen als mit einer Verbesserung.
Es besteht auch eine Wahrscheinlichkeit für eine Verbesserung, wenn sehr viele gute Beispiele in die OOS gelangen, und zwar in einem größeren Verhältnis als in der Zugparzelle. Mir fällt keine andere Möglichkeit ein, Fehler bei der Rückmeldung zu reduzieren.
Und was ist dann Ihre Hauptaufgabe, wenn nicht der Kampf gegen diese Zufälligkeit, denn sie nivelliert die Bedeutung von Validierung und OOS und IO im Allgemeinen)?
Die Aufgabe besteht darin, das Fehlerdelta nicht zu groß werden zu lassen.
Wie kann man die "Störfaktoren" aus den 600 Prädiktoren herausfiltern?
Ich habe keine Rechtfertigung für die Erwartung, dass OOS besser ist als Train.
Wie können Sie erwarten, dass zufällig erhobene OOS-Daten bessere Ergebnisse liefern als die unterrichteten? Das kann nicht sein, außer durch Zufall.
In einem anderen Thread wurde kürzlich geschrieben, dass der Schüler nicht mehr wissen kann als der Lehrer.
Beispiel.
Ein Teil der Daten (z. B. 80 %) auf der OOS wird dem Modell vertraut sein, und es wird dort den gleichen Fehler wie auf der Bahn zeigen (lassen Sie den Fehler=30 %), die anderen 20 % der OOS-Daten werden neu und ungelernt sein und einen Fehler von 50 % ergeben. Zusammengenommen dürften diese 80 % bekannten und 20 % neuen Daten den OOS-Fehler der Website auf etwa 35 % erhöhen.
Ich würde also eher mit einer Verschlechterung der OOS-Ergebnisse rechnen als mit einer Verbesserung.
Es besteht auch eine Wahrscheinlichkeit für eine Verbesserung, wenn sehr viele gute Beispiele in das OOS gelangen, und zwar in einem größeren Anteil als im Train-Plot. Mir fällt keine andere Möglichkeit ein, den Fehler in der Rückmeldung zu verringern.
Die Aufgabe besteht darin, das Fehlerdelta nicht zu groß werden zu lassen.
Um nicht durcheinander zu kommen, ist es notwendig, die Terminologie zu definieren - OOS oder OOS (out of sample) sind Daten, die dem Modell per Definition nicht bekannt sind, etwas anderes ist IS (in sample)
Sie müssen die Terminologie definieren - OOS oder OOS (out of sample) sind Daten, die per Definition nicht als Modelle bekannt sind, IS (in sample) ist eine andere Sache.
Es besteht auch eine Chance auf Verbesserung, wenn viele gute Beispiele in die OOS aufgenommen werden, und zwar in größerem Umfang als im Zugteil. Ich sehe keine anderen Möglichkeiten, den Fehler in der Rückkopplungsschleife zu reduzieren.
In einem Buch des Verteidigungsministeriums habe ich gelesen, dass bei der Ausbildung das Verhältnis zwischen Erfolg und Misserfolg der Realität entsprechen sollte. Wir sollten sowohl erfolgreiche als auch erfolglose Ergebnisse gleichermaßen trainieren.
In einem Buch des Verteidigungsministeriums habe ich gelesen, dass bei der Ausbildung das Verhältnis zwischen Erfolg und Misserfolg mit der Realität übereinstimmen sollte. Wir sollten sowohl erfolgreiche als auch erfolglose Ergebnisse gleichermaßen unterrichten.
Warum sollte man dann versuchen, die schlechten und verrauschten Beispiele herauszufiltern oder sie zu isolieren, sie in "weiß nicht" umzuteilen und das Netz erneut zu trainieren?
Ich bin mir dessen nicht bewusst. Das ist für diejenigen, die das tun. Ich unterrichte, wie ich oben geschrieben habe.
Ja, es ist schade, dass Ihre Demo verschwunden ist. Und das alles nur, weil Sie zu sehr auf die OOS schauen, obwohl Sie den Artikel zitiert haben, der besagt, dass das OOS-Modell nicht ausgewählt werden kann, und hier im Forum viele Male das Gleiche geschrieben haben.
Ich habe bereits geschrieben, dass es einen direkten Zusammenhang zwischen der TOF und der Stabilität der TOF gibt.
Habe bisher bei OOB nicht den gleichen Fehler wie bei Trine bekommen, immer mehr als mindestens 2 mal. Ich versuche es später noch einmal, ich habe jetzt genug von diesem Mist :)
Vielleicht muss ich zu P wechseln und mir ein besseres Modell besorgen, denn das Algleib selbst gibt mir nichts anderes zu sehenda die Alglib selbst nichts anderes anzeigen kann
Ich habe Ihnen schon vor langer Zeit gesagt, dass das eine Sackgasse ist. Sie sollten nicht in MT - R, MathLab, wie A_K2, in VisSim, etc. modellieren.
Wenn das Modell funktioniert, können Sie es auf MT übertragen, und Sie können es nicht übertragen).
Es wurde Ihnen schon lange gesagt, dass es eine Sackgasse ist. Sie sollten nicht in MT - R, MathLab, wie A_K2, in VisCim, etc. modellieren.
Wenn das Modell funktioniert, können Sie es auf MT übertragen, aber Sie müssen es nicht).
Was können Sie sonst noch von Interesse sagen?