L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1980
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Come è organizzata la memoria?
dipende da dove
se lo capisci, aspetto una spiegazione :)
http://peterbloem.nl/blog/transformers
Ciao a tutti, non ho postato il video direttamente nel thread del forum ma l'ho postato sul mio blog. ATTENZIONE linguaggio non normativo per coloro che sono veramente interessati al mercato...
https://www.mql5.com/ru/blogs/post/739164
Ciao a tutti, non ho postato il video direttamente nel thread del forum ma l'ho postato sul mio blog. ATTENZIONE linguaggio non normativo per coloro che sono veramente interessati al mercato...
https://www.mql5.com/ru/blogs/post/739164
Ho solo vagato nei boschi prima, non ho usato l'HH-ki.....
Nemmeno io... Quindi sto parlando di uno schema a blocchi, in modo che almeno a livello di immagini per capire come funziona
Sì, anch'io... Ecco perché sto parlando del diagramma a blocchi, in modo che almeno a livello di immagini per capire come funzionano le cose
Ho passato due giorni a cercare di capire cos'è uno strato di cohonen
e si scopre che è solo un autocodificatore primitivo.
Vladimir ha scritto su di loro in articolidipende da dove
se lo capite, non vedo l'ora di spiegarlo :)
http://peterbloem.nl/blog/transformers
Quello che non posso creare non lo capisco, è quello che diceva Feynman.
La moltiplicazione è meglio dell'addizione, il segno viene preso in considerazione. Generalmente le opere di dire argomento e risultato è qualcosa) una singola funzione contabile.
Le query, le chiavi e i valori non capiscono bene come sono organizzati.
La differenza principale è l'elaborazione pseudo-parallela e l'accesso ai dati addestrati e al prodotto scalare dei vettori di risultato di input e di output chiamato autoconsapevolezza. E poi la matrice di questi prodotti scalari è usata nell'addestramento. E non sono pesi.
Non ho trovato alcuna informazione sulla memoria lunga nell'articolo.
In generale, vengono create matrici aggiuntive che correggono il risultato.
Non pretendo di capire bene ))))
Quello che non posso creare, non lo capisco, è quello che diceva Feynman.
La moltiplicazione è meglio dell'addizione, il segno viene preso in considerazione. Generalmente le opere di dire argomento e risultato è qualcosa) una singola funzione contabile.
Le query, le chiavi e i valori non capiscono bene come sono organizzati.
La differenza principale è l'elaborazione pseudo-parallela e l'accesso ai dati addestrati e al prodotto scalare dei vettori di risultato di input e di output chiamato autoconsapevolezza. E poi la matrice di questi prodotti scalari è usata nell'addestramento. E non sono pesi.
Non ho trovato alcuna informazione sulla memoria lunga nell'articolo.
In generale, vengono create matrici aggiuntive che correggono il risultato.
Non pretendo di capirlo correttamente))))
è un altro algoritmo (come il coolest now), non c'è definizione di memoria lunga e corta in esso come in lstm.
il lungo e il corto è solo per vedere come funziona una cella lstm
Ho passato due giorni a cercare di capire cosa sia uno strato di cohonen (VQ)
e si scopre che è solo un autocodificatore primitivo.
Vladimir ha scritto su di loro in articoliVladimir ha scritto specificamente su VQ ? o solo ?
E la memoria? Come funziona lì? È fisso o gira in una finestra (come l'indicatore), è statico o si sta riqualificando?
Mi chiedo se è possibile fare lo stesso con le impalcature?
ho un milione di domande)))
questo è un algoritmo diverso (come il più fresco ora), non c'è definizione di memoria lunga e corta come in lstm, penso
su lungo e corto è solo per vedere come funziona una cella lstm
Ahh. Beh, allora c'è la consapevolezza di sé e delle risorse in tempi come questi. In generale, scalare l'architettura di rete migliora semplicemente le sue prestazioni fino ad un certo limite. Qui capisco la complicazione di una rete tramite combinazioni di varie logiche e poi scalarla)). E di conseguenza
Il collo di bottiglia nell'apprendimento del trasformatore è la matrice dei prodotti scalari dell'autocoscienza. Per la lunghezza della sequenza t , è una matrice densa contenente t elementi al quadrato . Con una precisione standard di 32 bit e con t= 1000 un lotto di 16 matrici di questo tipo richiede circa 250 MB di memoria. Poiché abbiamo bisogno di almeno quattro di loro (prima e dopo il softmax, più i loro gradienti) per una singola operazione di auto-immagine, questo ci limita a un massimo di dodici strati in una GPU standard e BREAKS 12 GB.
dovrai fare molte ricerche e riflessioni prima di capire...
potresti dover comprare vitamine per il cervello, bere meno)
Non l'ho ancora capito). Ma non è così difficile come sembra.
Così torniamo di nuovo al solito diagramma di flusso, bisogna inventarlo prima per avere una comprensione a livello di immagine...
come -
prima il classificatore(fa questo e quello)
poi colleghiamo il classificatore all'uscita (fa questo e quello)
poi conta qualcosa (fa questo e quello)
l'uscita è collegata di nuovo al casterizzatore
ecc...
Se leggete direttamente notizie complicate di cui non conoscete nemmeno i termini, cosa otterrete?
Bisogna capire il principio di base dell'algoritmo, soprattutto a livello di schema a blocchi, come ho sottolineato. Allora capirete cosa è cosa e cosa è cosa, e quando lo capirete, capirete cosa e come potete migliorarlo.