L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1967

 
mytarmailS:

Non so... L'ho letto quattro volte e ancora non l'ho capito, forse l'insegnante è una riserva?

+ ci sono altre votazioni in corso dagli strati.

Beh, sì, la memoria in LQV sotto forma delle ultime uscite dei neuroni LQV, ma da quanto ho capito la memoria è solo un passo indietro...

E che dire di questa fantastica analogia con il bollitore e il caffè? Questo è tutto il graal...


Non ti ha detto niente?

Mi chiedo dove insegnino questa roba. È come la cibernetica, la robotica e...

I DataSynthians sono solo fisici dell'istituto tecnico).


==============================================================

c'è anche il LVQ dinamico - - dlvq

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

Dettagli

dlvq : I dati di ingresso devono essere normalizzati per usare DLVQ.

Apprendimento DLVQ: per ogni classe, un vettore medio (prototipo) viene calcolato e memorizzato in un modulo nascosto (appena creato). La rete viene quindi utilizzata per classificare ogni pattern utilizzando il prototipo più vicino. Se un pattern viene classificato erroneamente come classe y invece che come classe x, il prototipo di classe y viene allontanato dal pattern e il prototipo di classe x viene spostato verso il pattern.Questa procedura viene ripetuta iterativamente fino a quando non ci sono più cambiamenti nella classificazione. Poi nuovi prototipi vengono introdotti nella rete per ogni classe come nuove unità nascoste e inizializzati dal vettore medio dei modelli mal classificati in quella classe.

Architettura di rete: la rete ha un solo strato nascosto che contiene un'unità per ogni prototipo. I prototipi/unità nascoste sono anche chiamati vettori codebook. Poiché SNNS genera le unità automaticamente e non richiede una specificazione preliminare del numero di unità, la procedura in SNNS è chiamata LVQ dinamico .

Le funzioni predefinite di inizializzazione, apprendimento e aggiornamento sono le uniche adatte a questo tipo di rete. I tre parametri della funzione di apprendimento definiscono due tassi di apprendimento (per i casi classificati correttamente/erroneamente) e il numero di cicli per cui la rete viene addestrata prima di calcolare i vettori medi.

Riferimenti

Kohonen, T. (1988), Auto-organizzazione e memoria associativa, Vol. 8, Springer-Verlag.



=========================================================


Amico, ho letto questo LVQ, è proprio come Kohonen (SOM) ma con un insegnante.

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=Il%20Learning%20Vector%20Quantization%20algorithm, quelle%20instanze%20dovrebbero%20assomigliare%20.

Non è LVQ, è VQ.

non risponde

Probabilmente a causa delle connessioni rade, in qualche modo non tutti i neuroni sono sempre attivi, quindi la memoria può richiedere più tempo per essere conservata... Oltre a questo c'è la memoria associativa (quali insiemi di caratteristiche appartengono a quale cluster). Il libro dei codici è così chiamato.

Beh, è tutto dalla teoria del controllo, probabilmente la insegnano all'università. L'articolo originale è del 2015 di alcuni cinesi. Non ho accesso ad esso. Questo è probabilmente già un rimaneggiamento.

 
Maxim Dmitrievsky:

Non è LVQ, è VQ.

non risponde.

Probabilmente a causa delle connessioni rade, in qualche modo non tutti i neuroni sono sempre attivi, quindi la memoria può richiedere più tempo per essere conservata... Oltre a questo c'è la memoria associativa (quali insiemi di caratteristiche appartengono a quale cluster). Il libro del codice è così chiamato.

Beh, è tutto dalla teoria del controllo, probabilmente la insegnano all'università. L'articolo originale è del 2015 di alcuni cinesi. Non ho accesso ad esso. Molto probabilmente questa è già una rielaborazione.

Si scopre che la quantizzazione vettoriale viene eseguita prima sui dati nudi e poi con i risultati presi in considerazione, e il risultato è più accurato. Appare almeno un filtro per un risultato negativo. Insiemi di caratteristiche per diversi cluster, è come dividere una fila in diversi segmenti stabili.

 
Valeriy Yastremskiy:

Si scopre che la quantizzazione dei vettori viene eseguita prima sui dati grezzi e poi sul risultato, il che rende il risultato più accurato. Almeno appare il filtro per il risultato negativo. Insiemi di caratteristiche a diversi cluster, è come dividere una fila in diverse sezioni stabili.

È difficile immaginare da dove venga la memoria lunga. Per esempio, all'iterazione precedente l'ultimo neurone ha prodotto uno zero, aggiungilo al vettore di input del primo neurone all'iterazione successiva. Iterazione. È + 1 dimensione, cioè mettiamo le caratteristiche in un nuovo spazio e otteniamo uno stato condizionale più complesso che dipende dall'azione precedente. Il primo neurone ha lavorato e ha inviato un vettore unitario all'ultimo neurone. Quest'ultimo ha restituito 0 o 1 al primo. Supponiamo che ci siano solo 2 cluster. Dove la memoria va più in profondità di 1 passo indietro?

Supponiamo che ci sia un terzo neurone che prende un altro valore +1. Stato condizionale ancora più complesso. E così in ordine crescente la memoria viene immagazzinata... difficile da immaginare :)

 
Maxim Dmitrievsky:

......... memoria memorizzata... difficile da immaginare :)

ancora più difficile per me )

====


rete associativa

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


E l'immagine associativa è il prototipo di un cluster.

 
mytarmailS:

ancora più difficile per me )

Nel livello 2 si può anche aggiungere memoria sotto forma di collegamenti di ricorrenza, ma funziona senza di essi. Quindi la memoria è nel livello 1 dopo tutto.

 
mytarmailS:

è ancora più difficile per me )

====


rete associativa

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


È la stessa cosa del clustering, no? E l'immagine associativa è un prototipo di cluster

beh, sì, ma non ha memoria delle azioni precedenti dell'agente, è diverso

Vado a rileggere il raccoglitore, poi pasticcio con il codice.

 
Maxim Dmitrievsky:

Beh, sì, ma non c'è memoria delle azioni precedenti dell'agente, è diverso

Andrò a rileggere il raccoglitore, poi andrò a curiosare nel codice.

vediamo, pensiamo a questo )

un'azione agente è un'immagine, un modello (cluster)

la sequenza di azioni (cluster) è la memoria


un'azione agente o qualsiasi cosa può essere rappresentata come una sequenza di cluster

ma un modello come "versare il caffè" ma "il caffè deve essere già preparato"


può essere rappresentato come un modello di transizioni


 
mytarmailS:

vediamo, pensiamoci).

un'azione agente è un'immagine, un modello (cluster)

una sequenza di azioni (cluster) è la memoria

un'azione agente o qualsiasi altra cosa può essere rappresentata come una sequenza di cluster

Non è esattamente così. L'azione precedente di un agente + lo stato ambientale (insieme di caratteristiche) è un modello (stato condizionale). Sia l'azione precedente che le caratteristiche sono infilate in 1 vettore.

Ma nei neuroni non ci sono informazioni esplicite sulla sequenza dei modelli passati, solo attraverso segnali di uscita di risparmio. E lì solo 1 modello (attuale) è stato elaborato. Cioè gli stati condizionali più complessi sono codificati da un gruppo di neuroni in qualche modo.

 

Maxim Dmitrievsky:

Sia l'azione precedente che le schede sono infilate in 1 vettore.

Ma nei neuroni non ci sono informazioni esplicite sulla sequenza, solo attraverso il salvataggio dei segnali di uscita. E lì solo 1 modello è stato elaborato.

Bene, può essere ridotto a un singolo vettore, dallo stesso umap. Ho compresso 2k chip in questo modo)

 
mytarmailS:

Beh, può essere consolidato in un unico vettore, dallo stesso umap. È così che ho compresso 2k chip)

Questo è ciò che fa questo strato.