Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1334

 
Aleksey Vyazmikin:

Ich habe MSUA nachgeschlagen, ich weiß nicht, auf welches Buch es sich konkret bezieht, aber es ist nicht unter diesem Namen suchbar. Soweit ich weiß, wird dieses Ding in CatBoost verwendet

--l2-Blatt-reg

l2-Blatt-Regelmäßigkeitsprüfung

L2-Regularisierungskoeffizient. Wird für die Berechnung des Blattwerts verwendet.

Es sind alle positiven Werte zulässig.

3

CPU und GPU


Oder geht es um etwas anderes? Diese Methode kann auch bei der Erstellung von Prädiktoren verwendet werden, um z. B. Muster in bestimmten Bereichen zu beschreiben.

Nun, das ist die Regularisierung nach Tichonow, und wo ist der Temperatursprung?

 
Maxim Dmitrievsky:

Das ist die Tichonowsche Regularisierung, wo ist die Temperatursackung?

Aber der Punkt scheint doch derselbe zu sein, oder? Ich weiß nur nicht, was für ein Algorithmus da drin ist...

-Verpackungs-Temperatur

Legt die Einstellungen für den Bayes'schen Bootstrap fest. Sie wird standardmäßig im Klassifizierungs- und Regressionsmodus verwendet.

Verwenden Sie den Bayes'schen Bootstrap, um den Objekten zufällige Gewichte zuzuweisen.

Die Gewichte werden aus einer Exponentialverteilung entnommen, wenn der Wert dieses Parameters auf"1" gesetzt ist. Wenn der Wert dieses Parameters auf"0" gesetzt wird, sind alle Gewichte gleich 1.

Mögliche Werte liegen im Bereich von. Je höher der Wert, desto aggressiver ist die Absackung.

1
 
Aleksey Vyazmikin:

Aber der Punkt scheint doch derselbe zu sein, oder? Ich weiß nur nicht, was für ein Algorithmus da überhaupt drin ist...

-Verpackungs-Temperatur

Legt die Einstellungen für den Bayes'schen Bootstrap fest. Sie wird standardmäßig im Klassifizierungs- und Regressionsmodus verwendet.

Verwenden Sie den Bayes'schen Bootstrap, um den Objekten zufällige Gewichte zuzuweisen.

Die Gewichte werden aus einer Exponentialverteilung entnommen, wenn der Wert dieses Parameters auf"1" gesetzt ist. Wenn der Wert dieses Parameters auf"0" gesetzt wird, sind alle Gewichte gleich 1.

Mögliche Werte liegen im Bereich von. Je höher der Wert, desto aggressiver ist die Absackung.

1

das ist natürlich anders

ziemlich nützlich, wenn man viele Funktionen hat, denke ich.

wird das Modell ein wenig verändern, rein subtiles Tuning nicht mehr

die Details müssen gelesen werden, im Allgemeinen ist es verständlich, aber nicht bis zum Ende

 

Übrigens habe ich die bereits erwähnten Vorlesungen mit Beispielen in Python gefunden, für diejenigen, die mehr über XGboost erfahren wollen. Dort oder in den nächsten Vorlesungen wird auch die Regularisierung behandelt.


 
Maxim Dmitrievsky:

Das ist natürlich etwas anderes.

Das ist nützlich, wenn es viele Funktionen gibt, denke ich.

wird das Modell ein wenig verändern, rein subtiles Tuning nicht mehr

Wir werden sehen, welche Art von Variation - heute oder morgen werden die nächsten 100k Modelle, werde ich entscheiden, ob dieser Parameter in der Überschreitung anzuwenden...

 
Aleksey Vyazmikin:

Mal sehen, wie die Spanne sein wird - heute oder morgen wird es weitere 100k Modelle geben, ich werde entscheiden, ob ich diesen Parameter in der Überschreitung anwenden werde...

Ich weiß nicht, ob es schon ein Handbuch für die Parameter gibt, ich lese gerade über andere Dinge

 
Maxim Dmitrievsky:

Gibt es kein Handbuch für die Parameter? Ich benutze noch keine katb, ich lese über andere Dinge.

Nun, es gibt nur eine Einstellung und eine kurze Beschreibung sowie einen berühmten Clip mit Erläuterungen.

 
Aleksey Vyazmikin:

Wenn Sie genau hinsehen, können Sie feststellen, dass die finanziellen Ergebnisse der Modelle in derselben Stichprobe sehr unterschiedlich sein können - von 5000 bis 1500, d. h. erheblich, was bedeutet, dass Seed die Modelle beeinflusst. Ich gehe davon aus, dass die ausgewählten Modelle ähnlich sind (ich werde es überprüfen), während sie leicht unterschiedliche Gewinnspannen haben, aber fast alle Modelle sind in der Mitte flach, was überraschend ist - sie liegen bei den gleichen Margen falsch (eine Anomalie in den neuen Daten?).

Sie haben eine Schachtel mit einer Art sehr hügeliger Landschaft darin erstellt. Wir werfen dort viele Bälle hinein (das sind die Sids), und unsere Aufgabe ist es, dafür zu sorgen, dass die meisten Bälle die tiefsten Vertiefungen treffen. Das wird das Lernen sein, und das ist das Prinzip, nach dem das Lernen in ME organisiert ist.

1. Wenn wir den Kasten leicht rütteln, können die meisten Kugeln die Vertiefungen, in denen sie ursprünglich aufgeschlagen sind, nicht mehr verlassen - Lernen findet nicht statt.

2. wenn wir die Schachtel kräftig schütteln, haben einige der Kugeln eine Chance zu treffen und bleiben nur in den tiefsten Vertiefungen, aber die flacheren bleiben ungefüllt, da die Kugeln dort herausspringen. Vollständiges Lernen wird nicht stattfinden.

Wenn wir die Schachtel mit mittlerer Kraft schütteln, werden nur die tiefen und mittleren Vertiefungen gefüllt, aber der Rest der Kugeln findet nichts und hüpft weiter wahllos in der Schachtel herum. Das Lernen ist besser als in 1 und 2, aber auch nicht überragend.

Bei den Lernmethoden gibt es immer Einstellungen - genau wie und wann man die Box schütteln muss, um den größten Lerneffekt zu erzielen.

Wenn die verschiedenen "sids" nicht zusammenpassen, dann ist entweder etwas mit dem Lernalgorithmus nicht in Ordnung - Sie schütteln ihn falsch, oder es fehlen in unserer Box tiefe Vertiefungen, die Sie in den Griff bekommen können.

 
Yuriy Asaulenko:

Sie haben eine Box, in der eine Art sehr hügelige Landschaft entsteht. Wir werfen dort viele Bälle hinein (das sind die Sids), und unsere Aufgabe ist es, dafür zu sorgen, dass die meisten Bälle die tiefsten Vertiefungen treffen. Das wird das Lernen sein, und das ist das Prinzip, nach dem das Lernen in ME organisiert ist.

1. Wenn wir den Kasten leicht rütteln, können die meisten Kugeln die Vertiefungen, in denen sie ursprünglich aufgeschlagen sind, nicht mehr verlassen - Lernen findet nicht statt.

2. wenn wir die Schachtel kräftig schütteln, haben einige der Kugeln eine Chance zu treffen und bleiben nur in den tiefsten Vertiefungen, aber die flacheren bleiben ungefüllt, weil die Kugeln dort herausspringen. Vollständiges Lernen wird nicht stattfinden.

Wenn wir die Schachtel mit mittlerer Kraft schütteln, werden nur die tiefsten und mittleren Vertiefungen gefüllt, aber der Rest der Kugeln wird nichts finden und wird weiterhin zufällig in der Schachtel herumspringen. Das Lernen ist besser als in 1 und 2, aber auch nicht überragend.

Bei den Lernmethoden gibt es immer Einstellungen - genau wie und wann man die Box schütteln muss, um den größten Lerneffekt zu erzielen.

Wenn die verschiedenen "sids" nicht zusammenpassen, dann stimmt entweder etwas mit dem Lernalgorithmus nicht - man schüttelt ihn falsch, oder es fehlen in unserer Box tiefe Vertiefungen, die man in den Griff bekommt.

oder einen Schuhkarton)

Die Bälle sind eine gute Erklärung.

und eine gute Kiste schüttelt sich.

 
Yuriy Asaulenko:

Sie haben eine Box, in der eine Art sehr hügelige Landschaft entsteht. Wir werfen dort viele Bälle hinein (das sind die Sids), und unsere Aufgabe ist es, dafür zu sorgen, dass die meisten Bälle die tiefsten Vertiefungen treffen. Das wird das Lernen sein, und das ist das Prinzip, nach dem das Lernen in ME organisiert ist.

1. Wenn wir den Kasten leicht rütteln, können die meisten Kugeln die Vertiefungen, in denen sie ursprünglich aufgeschlagen sind, nicht mehr verlassen - Lernen findet nicht statt.

2. wenn wir die Schachtel kräftig schütteln, haben einige der Kugeln eine Chance zu treffen und bleiben nur in den tiefsten Vertiefungen, aber die flacheren bleiben ungefüllt, weil die Kugeln dort herausspringen. Vollständiges Lernen wird nicht stattfinden.

Wenn wir die Schachtel mit mittlerer Kraft schütteln, werden nur die tiefsten und mittleren Vertiefungen gefüllt, aber der Rest der Kugeln wird nichts finden und wird weiterhin zufällig in der Schachtel herumspringen. Das Lernen ist besser als in 1 und 2, aber auch nicht überragend.

Bei den Lernmethoden gibt es immer Einstellungen - genau wie und wann man die Box schütteln muss, um den größten Lerneffekt zu erzielen.

Wenn sich die verschiedenen "sids" nicht addieren, dann stimmt entweder etwas mit dem Lernalgorithmus nicht - Sie schütteln ihn in die falsche Richtung, oder es gibt in unserer Box keine tiefen Mulden, an denen man sich festhalten kann.

Gute Abstraktion, wenn wir mit tiefen Tälern Antworten mit minimalem Fehler bei der Validierung meinen, für die es einen Lernstopp gibt, dann könnte dies auch erklären, warum er bessere Ergebnisse erhielt, als die Validierungsstichprobe vergrößert wurde, und dies könnte das Ergebnis einer formalen Vergrößerung des abstrakten Terrains und damit der Anzahl der Täler sein.