Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3398

 
Aleksey Vyazmikin #:

Eine gute Zusammenfassung des gesamten Themas


Mit Vergnügen zugehört
 
mytarmailS #:
Ich habe mit Vergnügen zugehört
Das hier ist auch gut https://youtu.be/EutX1Knl6v4?si=bBicqPoh474EiRIc 
 
Am Ende der Grundlagen gibt es eine Kozula, auf die ich aufmerksam machen möchte
 
Wo genau? Ich würde sagen, am Anfang ist es umgekehrt.
 
mytarmailS #:
Wo genau? Ich würde sagen, am Anfang ist es genau andersherum.
Ich meinte das Video von Alexej, deines habe ich noch nicht gesehen. In Deinem geht es um die Auswahl der Funktionen. Das gefällt mir nicht so gut, weil ich nicht so viele Zeichen habe ;-).
 
Maxim Dmitrievsky #:
weil ich nicht viele Eigenschaften habe.)

So funktioniert es, aus "vielen" verschiedenen bekommt man "nicht viele", aber gute.

Und je mehr "viele" man am Anfang hat, desto reicher und besser werden die "nicht vielen", aber guten am Ende.

 
mytarmailS #:

So funktioniert es, aus "vielen" verschiedenen bekommt man "nicht viele", aber gute.

Und je mehr "viele" man am Anfang hat, desto reicher und besser werden die "nicht vielen", aber guten am Ende.

Das hat man mit gmdh oder was auch immer gemacht.
Kozul scheint vielversprechend zu sein (es ist sehr schwer, darauf basierende Algorithmen zu entwickeln, man muss eine wilde Fantasie haben). Und Sprachmodelle - es ist sehr schwierig, sie zu trainieren. Die von Google sind kürzer, es gibt ein kleines Modell für 2 Milliarden Parameter, man kann immer noch versuchen, es zu trainieren. One-Shot-Methodik.
 
Maxim Dmitrievsky #:
Es wurde durch gmdh oder was auch immer es ist
gemacht.
Kozul scheint vielversprechend zu sein (es ist sehr schwer, darauf basierende Algorithmen zu entwickeln, man muss eine wilde Fantasie haben). Und Sprachmodelle - es ist sehr schwierig, sie zu trainieren. Die von Google sind kürzer, es gibt ein kleines Modell für 2 Milliarden Parameter, man kann immer noch versuchen, es zu trainieren. One-Shot-Methodik.

Was hat LLM damit zu tun?

 
mytarmailS #:

Was hat der LLM damit zu tun?

Weil sie theoretisch gut verallgemeinern.

Je größer die Trainingsstichprobe, desto besser die Statistik (im Allgemeinen).

 
Maxim Dmitrievsky #:
Weil sie gut verallgemeinern, theoretisch.

Sie verallgemeinern gut, weil sie auf Milliarden von Wortdatensätzen trainiert wurden, und wir haben Preise.

Was soll man einem Neuron beibringen, wenn es auf Sprache trainiert ist?

Und Sie können Ihre Neuronen nicht auf Preise trainieren, weil Sie eine Menge Visualisierungen brauchen.


Entweder weiß ich also etwas nicht, oder noch einmal - was hat der LLM damit zu tun?