L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3398

 
Aleksey Vyazmikin #:

Una buona sintesi dell'intero thread


Ascoltato con piacere
 
mytarmailS #:
Ho ascoltato con piacere
Anche questo è buono https://youtu.be/EutX1Knl6v4?si=bBicqPoh474EiRIc 
 
C'è una kozula alla fine delle basi, vorrei richiamare l'attenzione su questo aspetto.
 
Dove esattamente? Direi che all'inizio è il contrario.
 
mytarmailS #:
Dove esattamente? Direi che all'inizio è il contrario.
Mi riferivo al video di Alexei, non ho ancora visto il tuo. Il tuo riguarda la selezione delle caratteristiche. Non mi piace molto, perché non ho molti segni).
 
Maxim Dmitrievsky #:
perché non ho molti tratti).

È così che funziona: da "molti" tratti diversi si ottengono "non molti" ma buoni.

E più "molti" si hanno all'inizio, più ricchi e migliori sono i "non molti" ma buoni alla fine.

 
mytarmailS #:

È così che funziona, da "molti" diversi si ottengono "non molti" ma buoni.

E più "molti" si hanno all'inizio, più ricchi e migliori sono i "non molti" ma buoni alla fine.

È stato fatto attraverso il Gmdh o quello che è.
Kozul sembra promettente (è molto difficile trovare algoritmi basati su di esso, bisogna avere un'immaginazione sfrenata). E i modelli linguistici: è molto difficile addestrarli. Questi di Google sono più brevi, c'è un piccolo modello per 2 miliardi di parametri, ma si può comunque provare ad addestrarlo. Metodologia one shot.
 
Maxim Dmitrievsky #:
È stato fatto attraverso gmdh o qualunque cosa sia
.
Kozul sembra promettente (è molto difficile trovare algoritmi basati su di esso, bisogna avere un'immaginazione sfrenata). E i modelli linguistici: è molto difficile addestrarli. Questi di Google sono più brevi, c'è un piccolo modello per 2 miliardi di parametri, ma si può comunque provare ad addestrarlo. Metodologia one shot.

Cosa c'entra il LLM?

 
mytarmailS #:

cosa c'entra l'LLM?

Perché generalizzano bene, in teoria.

Più grande è il campione di allenamento, migliori sono le statistiche (in generale).

 
Maxim Dmitrievsky #:
Perché generalizzano bene, in teoria.

generalizzano bene perché sono addestrati su miliardi di dati di parole, e noi abbiamo dei prezzi.

Cosa addestrerete a fare un neurone se è addestrato a parlare?

E non si può addestrare un neurone sui prezzi perché servono molte visualizzazioni.


Quindi o non so qualcosa o, ancora una volta, cosa c'entra l'LLM?