L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1980

 
Valeriy Yastremskiy:
Come è organizzata la memoria?

dipende da dove

se lo capisci, aspetto una spiegazione :)

http://peterbloem.nl/blog/transformers

Transformers from scratch
  • peterbloem.nl
I will assume a basic understanding of neural networks and backpropagation. If you’d like to brush up, this lecture will give you the basics of neural networks and this one will explain how these principles are applied in modern deep learning systems. Self-attention The fundamental operation of any transformer architecture is the self-attention...
 

Ciao a tutti, non ho postato il video direttamente nel thread del forum ma l'ho postato sul mio blog. ATTENZIONE linguaggio non normativo per coloro che sono veramente interessati al mercato...

https://www.mql5.com/ru/blogs/post/739164

Говорим и показываем о рынке
Говорим и показываем о рынке
  • www.mql5.com
Оказывается пьяным меня смотреть ещё интересней. ВНИМАНИЕ в видео используется не нормативная лексика так что уберите детей от экрана телевизора. Ну и говорим собственно о рынке
 
Mihail Marchukajtes:

Ciao a tutti, non ho postato il video direttamente nel thread del forum ma l'ho postato sul mio blog. ATTENZIONE linguaggio non normativo per coloro che sono veramente interessati al mercato...

https://www.mql5.com/ru/blogs/post/739164

C'è anche un riferimento diretto a te, Maxim!!!!!
 
Maxim Dmitrievsky:

Ho solo vagato nei boschi prima, non ho usato l'HH-ki.....

Nemmeno io... Quindi sto parlando di uno schema a blocchi, in modo che almeno a livello di immagini per capire come funziona

 
mytarmailS:

Sì, anch'io... Ecco perché sto parlando del diagramma a blocchi, in modo che almeno a livello di immagini per capire come funzionano le cose

Ho passato due giorni a cercare di capire cos'è uno strato di cohonen

e si scopre che è solo un autocodificatore primitivo.

Vladimir ha scritto su di loro in articoli
 
Maxim Dmitrievsky:

dipende da dove

se lo capite, non vedo l'ora di spiegarlo :)

http://peterbloem.nl/blog/transformers

Quello che non posso creare non lo capisco, è quello che diceva Feynman.

La moltiplicazione è meglio dell'addizione, il segno viene preso in considerazione. Generalmente le opere di dire argomento e risultato è qualcosa) una singola funzione contabile.

Le query, le chiavi e i valori non capiscono bene come sono organizzati.

La differenza principale è l'elaborazione pseudo-parallela e l'accesso ai dati addestrati e al prodotto scalare dei vettori di risultato di input e di output chiamato autoconsapevolezza. E poi la matrice di questi prodotti scalari è usata nell'addestramento. E non sono pesi.

Non ho trovato alcuna informazione sulla memoria lunga nell'articolo.

In generale, vengono create matrici aggiuntive che correggono il risultato.

Non pretendo di capire bene ))))

 
Valeriy Yastremskiy:

Quello che non posso creare, non lo capisco, è quello che diceva Feynman.

La moltiplicazione è meglio dell'addizione, il segno viene preso in considerazione. Generalmente le opere di dire argomento e risultato è qualcosa) una singola funzione contabile.

Le query, le chiavi e i valori non capiscono bene come sono organizzati.

La differenza principale è l'elaborazione pseudo-parallela e l'accesso ai dati addestrati e al prodotto scalare dei vettori di risultato di input e di output chiamato autoconsapevolezza. E poi la matrice di questi prodotti scalari è usata nell'addestramento. E non sono pesi.

Non ho trovato alcuna informazione sulla memoria lunga nell'articolo.

In generale, vengono create matrici aggiuntive che correggono il risultato.

Non pretendo di capirlo correttamente))))

è un altro algoritmo (come il coolest now), non c'è definizione di memoria lunga e corta in esso come in lstm.

il lungo e il corto è solo per vedere come funziona una cella lstm

 
Maxim Dmitrievsky:

Ho passato due giorni a cercare di capire cosa sia uno strato di cohonen (VQ)

e si scopre che è solo un autocodificatore primitivo.

Vladimir ha scritto su di loro in articoli

Vladimir ha scritto specificamente su VQ ? o solo ?

E la memoria? Come funziona lì? È fisso o gira in una finestra (come l'indicatore), è statico o si sta riqualificando?

Mi chiedo se è possibile fare lo stesso con le impalcature?

ho un milione di domande)))

 
Maxim Dmitrievsky:

questo è un algoritmo diverso (come il più fresco ora), non c'è definizione di memoria lunga e corta come in lstm, penso

su lungo e corto è solo per vedere come funziona una cella lstm

Ahh. Beh, allora c'è la consapevolezza di sé e delle risorse in tempi come questi. In generale, scalare l'architettura di rete migliora semplicemente le sue prestazioni fino ad un certo limite. Qui capisco la complicazione di una rete tramite combinazioni di varie logiche e poi scalarla)). E di conseguenza

Il collo di bottiglia nell'apprendimento del trasformatore è la matrice dei prodotti scalari dell'autocoscienza. Per la lunghezza della sequenza t , è una matrice densa contenente t elementi al quadrato . Con una precisione standard di 32 bit e con t= 1000 un lotto di 16 matrici di questo tipo richiede circa 250 MB di memoria. Poiché abbiamo bisogno di almeno quattro di loro (prima e dopo il softmax, più i loro gradienti) per una singola operazione di auto-immagine, questo ci limita a un massimo di dodici strati in una GPU standard e BREAKS 12 GB.

 
Maxim Dmitrievsky:

dovrai fare molte ricerche e riflessioni prima di capire...

potresti dover comprare vitamine per il cervello, bere meno)

Non l'ho ancora capito). Ma non è così difficile come sembra.

Così torniamo di nuovo al solito diagramma di flusso, bisogna inventarlo prima per avere una comprensione a livello di immagine...

come -

prima il classificatore(fa questo e quello)

poi colleghiamo il classificatore all'uscita (fa questo e quello)

poi conta qualcosa (fa questo e quello)

l'uscita è collegata di nuovo al casterizzatore

ecc...


Se leggete direttamente notizie complicate di cui non conoscete nemmeno i termini, cosa otterrete?

Bisogna capire il principio di base dell'algoritmo, soprattutto a livello di schema a blocchi, come ho sottolineato. Allora capirete cosa è cosa e cosa è cosa, e quando lo capirete, capirete cosa e come potete migliorarlo.