Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1854
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Wie kommt es, dass es kein OM-Archiv in der Börse gibt?
Ich habe eine merkwürdige Eigenschaft im Verhalten der verschiedenen Fehlererkennungsmethoden entdeckt. Regressionsmodell. Lernen mit Lehrer y = 0 oder 1. Titanic-Daten.
oob RMSEr AvgEr AvgRelEr Train RMSEr AvgEr AvgRelEr 0.409762 0.333394 0.431368 0.406325 0.330199 0.430042 0.384805 0.293965 0.377680 0.380747 0.289936 0.377605 0.383891 0.286546 0.356373 0.370912 0.275152 0.358349 0.370671 0.261466 0.321370 0.353781 0.250322 0.326013 0.380332 0.259588 0.299060 0.337633 0.227993 0.296931 0.388428 0.248587 0.245976 0.309293 0.191325 0.249176 0.401764 0.237416 0.195562 0.273932 0.150077 0.195456
Für Train ist alles, wie es sein sollte, je stärker wir unterrichten, desto weniger Fehler für alle Methoden.
Bei OOV erreicht der RMSE-Fehler 0,370671 und beginnt dann zu wachsen, was bedeutet, dass das Übertraining begonnen hat. Aber AvgEr und AvgRelEr sinken weiter. Ich hatte den Eindruck, dass sich alle Fehler synchron verhalten sollten, d. h. sie sollten zusammen mit dem RMSE ansteigen.
Formeln für die Berechnung:
Die Berechnungen sind sehr ähnlich (die Quadrierung (Sqr) und der Modulus des Wertes (fabs) entfernt das Vorzeichen), aber das Verhalten der Kurven ist unterschiedlich...
Bei wiederholtem Training mit dem Klassifizierungsmodell hat es auch ein Minimum an dem Punkt, an dem der RMSE 0,370671 erreicht .
Ist jemandem ein solches Verhalten der Fehler aufgefallen? Wie lässt sich das erklären?
Ich habe eine merkwürdige Eigenschaft im Verhalten der verschiedenen Fehlererkennungsmethoden entdeckt. Regressionsmodell. Lernen mit Lehrer y = 0 oder 1. Titanic-Daten.
Für Train ist alles, wie es sein sollte, je stärker wir unterrichten, desto weniger Fehler für alle Methoden.
Bei OOV erreicht der RMSE-Fehler 0,370671 und beginnt dann zu wachsen, was bedeutet, dass das Übertraining begonnen hat. Aber AvgEr und AvgRelEr sinken weiter. Ich hatte den Eindruck, dass sich alle Fehler synchron verhalten sollten, d. h. sie sollten zusammen mit dem RMSE ansteigen.
Formeln für die Berechnung:
Die Berechnungen sind sehr ähnlich (die Quadrierung (Sqr) und der Modulus des Wertes (fabs) entfernt das Vorzeichen), aber das Verhalten der Kurven ist unterschiedlich...
Bei wiederholtem Training mit dem Klassifizierungsmodell hat es auch ein Minimum an dem Punkt, an dem der RMSE 0,370671 erreicht .
Ist jemandem ein solches Verhalten der Fehler aufgefallen? Wie lässt sich das erklären?
Und das ist tatsächlich ein Thema, wenn während der Optimierung der Fehler zunächst abnimmt und dann zu wachsen beginnt. Wenn wir rein theoretisch davon ausgehen, dass zu Beginn des Fehlerwachstums ein Übertraining einsetzt, dann sollten wir das Training genau in dem Moment beenden, in dem der Fehler zu wachsen beginnt oder kurz davor. Es ist eine Frage der Nachweismethode selbst. Welche Bewertungsmethoden dies umsetzen werden, ist eine andere Frage, aber die Tatsache, dass der Fehler als Zeichen für den Beginn der Umschulung zu wachsen beginnt, ist genial. ohne jeden Sarkasmus :-) Jetzt werde ich darüber nachdenken, was es möglich machen wird...
Dies ist eine seit langem bekannte Methode zur Ermittlung von Übertraining, ich glaube, seit etwa 50 Jahren, d. h. seit den Anfängen der neuronalen Netze und Bäume. Siehe z. B. Artikel von V. Perervenko.
Ich bin mir in dieser Situation über das unterschiedliche Fehlerverhalten nicht im Klaren. Anhand des RMSE können wir den Beginn der Umschulung bestimmen, bei anderen nicht.
Dies ist eine seit langem bekannte Methode zur Ermittlung von Übertraining, ich glaube, seit etwa 50 Jahren, d. h. seit den Anfängen der neuronalen Netze und Bäume. Siehe zum Beispiel Artikel von V. Perervenko.
Ich bin mir in dieser Situation über das unterschiedliche Verhalten von Fehlern nicht im Klaren. Anhand des RMSE können Sie den Beginn der Umschulung bestimmen, bei anderen nicht.
Ich habe eine merkwürdige Eigenschaft im Verhalten der verschiedenen Fehlererkennungsmethoden entdeckt. Regressionsmodell. Lernen mit Lehrer y = 0 oder 1. Titanic-Daten.
Für Train ist alles, wie es sein sollte, je stärker wir unterrichten, desto weniger Fehler für alle Methoden.
Bei OOV erreicht der RMSE-Fehler 0,370671 und beginnt dann zu wachsen, was bedeutet, dass das Übertraining begonnen hat. Aber AvgEr und AvgRelEr sinken weiter. Ich hatte den Eindruck, dass sich alle Fehler synchron verhalten sollten, d. h. sie sollten zusammen mit dem RMSE ansteigen.
Formeln für die Berechnung:
Die Berechnungen sind sehr ähnlich (die Quadrierung (Sqr) und der Modulus des Wertes (fabs) entfernt das Vorzeichen), aber das Verhalten der Kurven ist unterschiedlich...
Bei wiederholtem Training mit dem Klassifizierungsmodell hat es auch ein Minimum an dem Punkt, an dem der RMSE 0,370671 erreicht .
Ist jemandem ein solches Verhalten der Fehler aufgefallen? Wie lässt sich das erklären?
Es ist wie die SMA und EMA, AvrEr ist mehr verzögert - ich nehme es - ein Zahlenspiel.
Das ist das Problem: Es gibt kein Archiv. Wir haben schon lange vorgeschlagen, dass die Entwickler das OM in das Copybook aufnehmen, damit es aus der Geschichte übernommen werden kann. Aber es scheint, dass es einige Einschränkungen gibt. Ich kann auch den Kerl fragen, der es für mich gemacht hat. Er schreibt es immer wieder, aber nicht für alle Symbole. Ich habe nur wegen der schlechten Leistung des Indikators aufgehört, es zu schreiben :-(.
Misha, ich habe ein Video für dich aufgenommen.
Mischa, ich habe ein Video für dich gemacht, ich werde es bald hochladen.