L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1957

 
elibrarius:

Proprio così. Sarebbe una buona idea descrivere subito la sequenza delle azioni...
Ripensando alla tua descrizione, presumo la seguente sequenza:

1. Calcolare la correlazione di tutti i predittori sul treno
2. Costruire l'albero
3. Sull'ultimo split, ricorda ad esempio gli ultimi 100 migliori split. Fate una scorta fino a 100, in modo che ci sia l'imbarazzo della scelta.
4. Da questi 100 sceglierne 5 non correlati con il predittore della migliore divisione e non correlati tra loro.

Inoltre non è chiaro quale di queste 5 diverse suddivisioni scegliere?
Se è casuale, allora è analogo alla foresta casuale, che dà ad ogni albero predittori casuali e costruisce un albero su di essi.
Se media, allora di nuovo analogo della foresta casuale, la foresta quindi da alberi casuali trova la media aritmetica.

Ora hai capito bene!

Ecco perché leforeste casuali sono casuali, sono piene di spazzatura e le condizioni descritte sopra non sono necessariamente vere, anche se ci possono essere situazioni simili, ed è possibile che un modello di successo possa nascere da un simile tipo di decomposizione. Qui, però, ci sarà un processo più controllato.

I pesi di ogni spacco nel foglio saranno pesati naturalmente, e forse daremo gli stessi coefficienti, possiamo anche prendere i coefficienti sulla stessa storia. Questo è quello che faccio ora in generale quando assemblo un modello dalle foglie.

 
Valeriy Yastremskiy:

No, le azioni analoghe sono la somma, la sottrazione, la moltiplicazione, la divisione ed eventualmente le dipendenze logaritmiche più complesse, i rapporti di forza. E questi non sono calcoli, ma indicatori analogici in ogni cella. E i DAC e gli ADC sono un input output, non prendono parte ai calcoli, ma forniscono il digitale.

Nell'architettura di Neumann sia le procedure che i dati sono immagazzinati in memoria e non c'è un accesso parallelo alle procedure e ai dati; accesso ai dati, poi alla procedura e di nuovo ai dati, quindi limitazioni nell'elaborazione dei dati. E qui le procedure sono memorizzate in ogni cella da un piccolo dispositivo e c'è un accesso alla procedura in una sola volta, con accesso ai dati.

Ecco i dati che non capisco, è condizionale, ogni istruzione ha accesso diretto alla memoria e ai risultati del calcolo senza il trasportatore?

 
Aleksey Vyazmikin:

Ora hai capito bene!

Le foreste casuali sono casuali perché sono piene di spazzatura e le condizioni descritte non sono necessariamente soddisfatte, anche se ci possono essere situazioni simili, ed è possibile che un modello di successo sia ottenuto da guasti simili. Qui, però, ci sarà un processo più controllato.

I pesi di ogni spacco nel foglio saranno pesati, naturalmente, e forse daremo gli stessi coefficienti, possiamo prendere i coefficienti sulla stessa storia. È così che faccio ora, in generale, quando assemblo un modello dalle foglie.

Non capisco il passo finale, - quale dei 5 split scegliere?
 
elibrarius:
Non ho capito il passo finale - quale dei 5 split scegliere?

Le letture di tutti e 5 gli split devono essere prese in considerazione, il che aumenta la stabilità.

Supponiamo che al miglior spacco sia dato un peso di 0,6, e che agli altri quattro sia dato 0,1 ciascuno, e se la somma dà 0,8 o un altro punteggio, determinato dal campionamento, allora la risposta è vero "1" o l'altra classe prevista nel foglio.

Abbiamo anche bisogno di controllare il Recall, cioè quanti richiami hanno gli split su questo sottocampione.
 
Aleksey Vyazmikin:

Quello che non capisco dei dati è che è fittizio, ogni istruzione ha accesso diretto alla memoria e ai risultati del calcolo senza un trasportatore?

Non ci sono "dati", solo elettroni la cui corrente è controllata da transistor e così via. L'architettura NS stessa è stampata sulla scheda, non in forma digitale. È da molto tempo che fanno queste reti neurali analogiche sotto forma di coprocessori, per esempio negli iPhone.

Non c'è nulla di nuovo nell'articolo.
 
Maxim Dmitrievsky:

non ci sono "dati", solo elettroni la cui corrente è controllata da transistor e così via. L'architettura NS stessa è stampata sulla scheda, non in forma digitale. È da molto tempo che fanno queste reti neurali analogiche sotto forma di coprocessori, per esempio negli iPhone.

Non c'è nulla di nuovo nell'articolo.

E ho capito che stiamo parlando di calcoli dinamici e non statici, predeterminati.

 
Aleksey Vyazmikin:

E ho capito che si trattava di calcoli dinamici, non statici e predeterminati.

Per esempio, il segnale di una matrice della fotocamera dell'iPhone viene inviato direttamente all'NS analogico, bypassando la digitalizzazione. L'NS pre-elabora l'immagine per migliorare la qualità (filtrare il rumore, ecc.)

e poi questo viene convertito in foto digitali

 
Aleksey Vyazmikin:

La mia comprensione è che stiamo parlando di calcoli dinamici, non di calcoli statici e predeterminati.

Un'analogia approssimativa è quella delle valvole a saracinesca elettroniche e dei compressori. Certo, i dispositivi nelle celle sono statici, ma ce ne sono molti e c'è un accesso parallelo a loro) E i calcoli possono essere dinamici, se cambiamo il segnale di ingresso, otteniamo un'uscita dinamica.

 
Aleksey Vyazmikin:

Le letture di tutti e 5 gli split devono essere prese in considerazione, il che aumenta la stabilità.

Supponiamo di dare un peso di 0,6 alla migliore divisione, e 0,1 alle altre quattro, e se la somma dà 0,8 o qualche altro valore, determinato dal campionamento, allora assumiamo che la risposta sia vero "1" o qualche altra classe, che è prevista nel foglio di lavoro.

Dovete anche controllare il Recall, cioè quanti richiami hanno gli split su quel sottocampione.
La scissione più pulita sarà mescolata a quella meno pulita. Cioè peggioriamo il risultato sul vassoio, non importa in linea di principio. Ma non è sicuro che migliorerà il risultato del test, cioè la generalizzabilità. Qualcuno dovrebbe provare... Personalmente, non credo che la generalizzazione sia migliore del caso dell'impalcatura.

È molto più facile limitare la profondità dell'albero e non fare l'ultima spaccatura, fermandosi alla precedente. Ci ritroveremo con lo stesso foglio meno chiaro che se facessimo uno split extra. La tua opzione darebbe qualcosa in mezzo, sia che facciamo uno split sia che non lo facciamo. Per esempio, con il vostro metodo, farete la media di un foglio al 7° livello di profondità. Sarà leggermente più pulito del foglio del 6° livello di profondità. Penso che la generalizzazione non cambierà molto, ed è un sacco di lavoro per testare l'idea. Puoi anche fare la media di diversi alberi con livelli di profondità 6 e 7 - otterrai circa lo stesso risultato della tua metodologia.
 
Aleksey Vyazmikin:

Una specie di azione sulle onde in sostanza? I dati in entrata sono convertiti in un polinomio e poi il polinomio è convertito in un'onda e le onde sono in qualche modo "scontrate/fuse"?

Beh, sì.

Ci sono stati tentativi di costruire computer analogici prima, ma erano molto lenti o richiedevano molta energia.