Gibt es ein Muster in diesem Chaos? Lassen Sie uns versuchen, es zu finden! Maschinelles Lernen am Beispiel einer bestimmten Stichprobe. - Seite 16
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
In einer normalen Situation hat der Seed so gut wie keine Auswirkung, es ist der Algorithmus, der zählt. Wenn man sich mit dem Seed befassen muss, sind die Daten bereits mangelhaft
die Überprüfung neuer Daten löst, wenn es nur 10 und nicht 1000 Zeichen gibt, kann man sich bis zu einem gewissen Grad sicher sein.
Ich glaube, die Standardtiefe ist 6, das hat auch keinen großen Einfluss, außer bei kritischen Werten.
Die Lerntiefe wirkt sich unterschiedlich aus, abhängig von der historischen Variabilität.
Ja, vielleicht hat sie bei 4-Seed-Prädiktoren keinen großen Einfluss. Dieser Unsinn ist ein Missverständnis. Es ist der Seed, der im Wesentlichen bestimmt, wie viele Prädiktoren in dem Modell verwendet werden.
Alle Parameter sind davon betroffen. Ich wollte nur sagen, dass Sie wahrscheinlich eine Größenordnung mehr Kombinationen als Beispiele haben. Bei 4 Prädiktoren sehe ich den Sinn in einem Modell mit 1-3 CB-Bäumen, mit einer Lernrate von 0,3-0,5, ansonsten ist es schon passend.
Sie können einfach versuchen, verschiedene Proben zu füttern, um mit neuen Daten weiter zu lernen. Auch CatBoost scheint dazu in der Lage zu sein. Es weiß auch, wie man Modelle zusammenführt, aber ich habe mich damit nicht beschäftigt.
Es ist gradient bousting...
was bedeutet, dass es aus den Fehlern des vorherigen Modells lernt
und wir müssen nur mit einem Modell trainieren, und das mehrmals.
Der einzige Unterschied zwischen den Modellen besteht darin, dass die Stichproben zeitlich verschoben sind.
es ist gradient bousting.....
das heißt, aus den Fehlern des Vorgängers zu lernen
und wir müssen nur mit einem Modell trainieren, und das mehrmals.
Der einzige Unterschied zwischen den Modellen besteht darin, dass die Stichproben zeitlich verschoben sind.
Mein Gehirn kann nicht verarbeiten, was Sie geschrieben haben.
Ja, vielleicht hat Saatgut bei 4 Prädiktoren keine große Wirkung. Dieser Unsinn ist ein Missverständnis. Tatsächlich bestimmt der Seed, wie viele Prädiktoren im Modell verwendet werden.
Alle Parameter sind davon betroffen. Ich wollte nur sagen, dass Sie wahrscheinlich eine Größenordnung mehr Kombinationen als Beispiele haben. Bei 4 Prädiktoren sehe ich den Sinn in einem Modell mit 1-3 CB-Bäumen, mit einer Lernrate von 0,3-0,5, ansonsten ist es schon passend.
Der Seed wirkt sich nicht überall dort aus, wo es ein normales Optimum gibt
+- Kurzschluss, das spielt keine Rolle.
man kann ihn ein wenig verändern, aber er ist nicht mehr entscheidend
Saatgut hat überall dort keine Wirkung, wo es ein normales Optimum gibt
+- Kurzschluss, er spielt keine Rolle
Sie können es ein wenig optimieren, aber es ist nicht entscheidend.
Wo ist er?
Und wo ist sie?
wo Variationen des Saatgutthemas das Ergebnis nicht sehr beeinflussen, nehme ich an)
wobei Variationen des Saatgutthemas das Ergebnis anscheinend nicht sehr beeinflussen)
Offensichtlich nicht in unserem Fall...
Offensichtlich nicht in unserem Fall.
Nun, es gibt etwas, auf das man sich freuen kann.
Die gibt es. Aber wir sprechen hier von der idealen Welt, manchmal ist es besser, sich an die bestehende anzupassen.
Die Frage ist, ob es besser ist, wahllos herumzustochern oder sich an von vornherein zuverlässige Informationen zu halten
Abgesehen von den Anfangs- und Endzeiten (Sitzungen, Kalender) fällt mir nichts ein. Wie meinen Sie das?