L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 629

 
Yuriy Asaulenko:

Maxim, beh, non addestrare la rete nell'ottimizzatore MT. Il trainer NS e l'ottimizzatore sono algoritmi completamente diversi con criteri di ottimizzazione completamente diversi.

Se usate ancora quella struttura NS, che avete disegnato prima, è un po' semplice - debole per il mercato. Ho già scritto che ho avuto successo solo quando sono arrivato alla struttura 15-20-15-10-5-1. E questo è solo per un tipo di commercio. Ho anche fatto assolutamente tutto con i metodi descritti da Haikin, cioè niente di nuovo, nessun trucco.

Le strutture più semplici erano poco formate.

Avete provato a prendere non il numero di strati ma il numero di neuroni in uno strato? Per esempio 15-200-1 o 15-200-20-1?

Yuriy Asaulenko:

In effetti, i dati per la formazione non sono molti, ma molti. Su un piccolo campione NS non otterrà nulla di utile.

E quanti dati prende? Prendo 86000 corde per la formazione.

 
elibrario:

1) Avete provato a prendere non il numero di strati, ma il numero di neuroni in uno strato? Per esempio 15-200-1 o 15-200-20-1?

2) E quanti dati prende? Stavo prendendo 86000 linee per la formazione.

1. Non l'ho provato. 20 nel primo strato sono sufficienti. È cresciuto aumentando sia i neuroni per strato che gli strati.

2. Ho avuto circa 12000 righe in formazione con rimescolamento intermedio tra N epoche. Dopo alcune epoche, i dati di allenamento sono stati sostituiti da altri dati che non erano coinvolti nell'allenamento prima.

 
Aleksey Terentev:

Mi scuso per l'insulto, ma dovresti rileggere il tuo post. Sembra piuttosto ambiguo.
E in generale hai ragione, ma solo per quanto riguarda il primo strato della rete neurale. Se il feedback va al secondo strato e ai successivi o in generale agli strati di rete paralleli, la tua affermazione non sarà più valida.
In questo caso Maxim dovrebbe pensare ad approfondire la rete e portare il feedback agli strati nascosti.

E che dire di:

La stessa cosa. Le MLP non sono rilevanti per molto tempo, l'apprendimento profondo è stato di tendenza per molto tempo. E una rete è abbastanza capace di elaborare dati eterogenei, la cosa principale è l'architettura.

Sono d'accordo, ma come combinare la profondità con tutti quei trucchi che è venuto fuori :) nell'ottimizzatore sarà un po 'lungo per imparare ... ma molto, molto alta qualità, perché ci e il commercio accade in una volta

Penso che più di 30 pesi non sia un'opzione per l'ottimizzatore.

+ Molte persone dimenticano che c'è una nuvola, che è generalmente cool per lavorare con tutte queste cose, ma devi essere molto bravo a ottimizzare il codice.

 
Maxim Dmitrievsky:

Sono d'accordo, ma come combinare la profondità con tutti quei trucchi che è venuto fuori :) nell'ottimizzatore sarà un po 'lungo per imparare ... ma molto, molto alta qualità, perché ci e il commercio accade in una volta

Penso che più di 30 pesi non sia un'opzione per l'ottimizzatore.

+ Penso che molte persone dimenticano che c'è una nuvola, attraverso la quale tutte queste cose sono divertenti da lavorare, ma bisogna ottimizzare il codice molto bene.

Prova a duplicare il livello di input.

 
Aleksey Terentev:


La stessa cosa. Le MLP non sono più rilevanti, l'apprendimento profondo è in tendenza da molto tempo. E una rete è abbastanza capace di elaborare dati eterogenei, ciò che conta è l'architettura.
Se una MLP può risolvere un compito, che differenza fa se sono aggiornate o meno? Specialmente con le MLP non devi fare molti sforzi - c'è tutto per loro quasi ovunque.
 
Aleksey Terentev:

Prova a duplicare il livello di input.

tema, e mescolare i pesi :)
 
Yuriy Asaulenko:
Se le MLP possono risolvere un problema, che differenza fa se sono rilevanti o meno? Specialmente con i MLP non devi sforzarti - c'è tutto per loro praticamente ovunque.

Non sto cercando di piegarti a qualcosa. Lo studio approfondito inizia con le MLP.
Ma quando si tratta di rappresentare i dati all'interno di una rete, il loro movimento e le loro trasformazioni, le domande sull'attivazione, gli strati ricorrenti, la regolarizzazione, la combinazione di strati, ecc. Questo è un apprendimento profondo.

Inoltre c'è tutto e ovunque per l'apprendimento profondo. =)
 
Yuriy Asaulenko:
Se le MLP possono risolvere un problema, che differenza fa se sono rilevanti o meno? Specialmente con i MLP non devi sforzarti - c'è tutto per loro praticamente ovunque.
È solo che in profondità si può imparare molto più velocemente, a parità di condizioni... non 10 ore ma 5 minuti, per esempio :)
 
Aleksey Terentev:

Beh, io non ti inclino a nulla. L'apprendimento profondo inizia proprio con le MLP.
Ma quando si tratta di rappresentare i dati all'interno della rete, il loro movimento e le loro trasformazioni, le domande sull'attivazione, gli strati ricorrenti, la regolarizzazione, la combinazione degli strati, ecc. Questo è un apprendimento profondo.

Lo capisco, ma io sto parlando di qualcos'altro. Non c'è bisogno di matematica superiore per il problema dei due tubi, solo di aritmetica. Che l'aritmetica sia rilevante o meno è un'altra questione.

Cioè bisogna prima definire il problema e poi scegliere i metodi di soluzione.

Per quanto riguarda i grandi e complicati compiti di DM - DL, MLP c'è certamente una fase passata da tempo.

 
Maxim Dmitrievsky:
È solo che quello profondo può imparare molto più velocemente ancora, a parità di condizioni... non 10 ore ma 5 minuti, per esempio :)
Non posso dirlo con certezza, ma mi sembra che queste siano illusioni. Solo da considerazioni generali.