L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 629
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Maxim, beh, non addestrare la rete nell'ottimizzatore MT. Il trainer NS e l'ottimizzatore sono algoritmi completamente diversi con criteri di ottimizzazione completamente diversi.
Se usate ancora quella struttura NS, che avete disegnato prima, è un po' semplice - debole per il mercato. Ho già scritto che ho avuto successo solo quando sono arrivato alla struttura 15-20-15-10-5-1. E questo è solo per un tipo di commercio. Ho anche fatto assolutamente tutto con i metodi descritti da Haikin, cioè niente di nuovo, nessun trucco.
Le strutture più semplici erano poco formate.
Avete provato a prendere non il numero di strati ma il numero di neuroni in uno strato? Per esempio 15-200-1 o 15-200-20-1?
In effetti, i dati per la formazione non sono molti, ma molti. Su un piccolo campione NS non otterrà nulla di utile.
E quanti dati prende? Prendo 86000 corde per la formazione.
1) Avete provato a prendere non il numero di strati, ma il numero di neuroni in uno strato? Per esempio 15-200-1 o 15-200-20-1?
2) E quanti dati prende? Stavo prendendo 86000 linee per la formazione.
1. Non l'ho provato. 20 nel primo strato sono sufficienti. È cresciuto aumentando sia i neuroni per strato che gli strati.
2. Ho avuto circa 12000 righe in formazione con rimescolamento intermedio tra N epoche. Dopo alcune epoche, i dati di allenamento sono stati sostituiti da altri dati che non erano coinvolti nell'allenamento prima.
Mi scuso per l'insulto, ma dovresti rileggere il tuo post. Sembra piuttosto ambiguo.
La stessa cosa. Le MLP non sono rilevanti per molto tempo, l'apprendimento profondo è stato di tendenza per molto tempo. E una rete è abbastanza capace di elaborare dati eterogenei, la cosa principale è l'architettura.E in generale hai ragione, ma solo per quanto riguarda il primo strato della rete neurale. Se il feedback va al secondo strato e ai successivi o in generale agli strati di rete paralleli, la tua affermazione non sarà più valida.
In questo caso Maxim dovrebbe pensare ad approfondire la rete e portare il feedback agli strati nascosti.
E che dire di:
Sono d'accordo, ma come combinare la profondità con tutti quei trucchi che è venuto fuori :) nell'ottimizzatore sarà un po 'lungo per imparare ... ma molto, molto alta qualità, perché ci e il commercio accade in una volta
Penso che più di 30 pesi non sia un'opzione per l'ottimizzatore.
+ Molte persone dimenticano che c'è una nuvola, che è generalmente cool per lavorare con tutte queste cose, ma devi essere molto bravo a ottimizzare il codice.
Sono d'accordo, ma come combinare la profondità con tutti quei trucchi che è venuto fuori :) nell'ottimizzatore sarà un po 'lungo per imparare ... ma molto, molto alta qualità, perché ci e il commercio accade in una volta
Penso che più di 30 pesi non sia un'opzione per l'ottimizzatore.
+ Penso che molte persone dimenticano che c'è una nuvola, attraverso la quale tutte queste cose sono divertenti da lavorare, ma bisogna ottimizzare il codice molto bene.
Prova a duplicare il livello di input.
La stessa cosa. Le MLP non sono più rilevanti, l'apprendimento profondo è in tendenza da molto tempo. E una rete è abbastanza capace di elaborare dati eterogenei, ciò che conta è l'architettura.Prova a duplicare il livello di input.
Se le MLP possono risolvere un problema, che differenza fa se sono rilevanti o meno? Specialmente con i MLP non devi sforzarti - c'è tutto per loro praticamente ovunque.
Non sto cercando di piegarti a qualcosa. Lo studio approfondito inizia con le MLP.
Inoltre c'è tutto e ovunque per l'apprendimento profondo. =)Ma quando si tratta di rappresentare i dati all'interno di una rete, il loro movimento e le loro trasformazioni, le domande sull'attivazione, gli strati ricorrenti, la regolarizzazione, la combinazione di strati, ecc. Questo è un apprendimento profondo.
Se le MLP possono risolvere un problema, che differenza fa se sono rilevanti o meno? Specialmente con i MLP non devi sforzarti - c'è tutto per loro praticamente ovunque.
Beh, io non ti inclino a nulla. L'apprendimento profondo inizia proprio con le MLP.
Ma quando si tratta di rappresentare i dati all'interno della rete, il loro movimento e le loro trasformazioni, le domande sull'attivazione, gli strati ricorrenti, la regolarizzazione, la combinazione degli strati, ecc. Questo è un apprendimento profondo.
Lo capisco, ma io sto parlando di qualcos'altro. Non c'è bisogno di matematica superiore per il problema dei due tubi, solo di aritmetica. Che l'aritmetica sia rilevante o meno è un'altra questione.
Cioè bisogna prima definire il problema e poi scegliere i metodi di soluzione.
Per quanto riguarda i grandi e complicati compiti di DM - DL, MLP c'è certamente una fase passata da tempo.
È solo che quello profondo può imparare molto più velocemente ancora, a parità di condizioni... non 10 ore ma 5 minuti, per esempio :)