Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1239

 
Maxim Dmitrievsky:

Ich habe eine kleinere Klasse und habe einen Fehler von 0,14\0,4.

14% bis 40% im Test?

 
Gral:

14% bis 40% im Test?

gut, Ausbildung 14 Test 40

 
Eidechse_:

Genauigkeit und Klassifizierungsfehler sind unterschiedliche Dinge. Genauigkeit und % der Stichprobe (Test-Train).

es ist im Prinzip klar - es übersteigt die Spur... 0,6 Genauigkeit bei diesem Datensatz im Test (20% der Stichprobe) reicht aus...

Klassifizierungsfehler so weit...lange Zeit, um dort neu zu machen ))

Ich habe 20% Ausbildung in alglib, 80% OOB, und tat das gleiche hier

Ich habe dies in Python getan und es funktioniert wie folgt

score(X,y,sample_weight=None)[source]

Gibt die mittlere Genauigkeit für die angegebenen Testdaten und Bezeichnungen zurück.


Ich verstehe es überhaupt nicht, ich habe es gerade heute in Python herausgefunden, ich werde es morgen wieder versuchen. Wenn der Test und die Verfolgung 50 % betragen, sieht es folgendermaßen aus


 
Eidechse_:

Mein Datensatz (Genauigkeit) in diesem Fall ist
Trend (80% der Stichprobe) = 0,619
test(20% der Stichprobe) = 0,612 OOS

Ein bisschen Wühlen, weniger Kopfarbeit. So macht man es, nicht mit 20% der Test))))

50 % sind nicht genug, 300 Beobachtungen sind nichts.

Wie sah die Ausbildung aus?
 
elibrarius:
Das Lernen um 20 % ist etwas Neues))

Ich denke, dass der Fehler dort nicht viel verändert hat, deshalb habe ich es so gemacht, eine starke Regularisierung also

 
Maxim Dmitrievsky:

Ich denke, der Fehler hat sich dort nicht großartig verändert, deshalb habe ich es so gemacht, starke Regularisierung kurz gesagt

Wie kann sich das nicht geändert haben? 14 und 40 % sind ein großer Unterschied.
Zum Beispiel 60x60 wie bei Wizard - das ist wahr!

 
Eidechse_:

Das Gleiche habe ich mit Doc und Toxic gemacht, Python und R haben das nicht...ich werde es Ihnen nicht sagen...

Zumindest das Gerüst oder die Netze?
 
Elibrarius:

Wie könnte es anders sein? 14 und 40 % sind ein großer Unterschied.
60 über 60 wie ein Zauberer - das ist es!

Nun, wir werden uns alle Modelle ansehen, die in Python sind... ich meine, die, die im Umlauf sind... nicht vor morgen... nicht vor morgen...

Vielleicht brauchen wir noch etwas mehr Vorverarbeitung.
 

Verstehen Sie nicht, dass man mit Devisen kein Geld verdienen kann?)

Es ist einfacher, Programmierer zu werden und einen gut bezahlten Job zu bekommen, als diesen Masochismus zu betreiben.

 

kurz gesagt, in alglib Klassifizierungsfehler und logloss... Der Logloss macht überhaupt keinen Sinn, der Klassifizierungsfehler im Wald fällt auf Null bei einer Azubi-Stichprobe>0,8 und oob 0,2

rmse ist nicht gut für die Klassifizierung

Deshalb habe ich eine kleine Trainingsstichprobe genommen, um eine Art Fehler zu vermeiden, aber sie ist immer noch klein. Ich weiß nicht, wie man das mit Python vergleichen kann