L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2269
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Ho scritto il mio gan, non c'è niente di complicato. Non è ricorsivo però, dovrò rifarlo.
Un esempio su Torch.
ecco un altro esempioQuando avrò abbastanza tempo, cercherò di capirlo.
Avrò tempo per cercare di capirlo.
Ho fatto un confronto tra diversi modelli generativi da libreria sopra, attraverso la mia lib. Si scopre che GMM funziona meglio per i dati tabulari (dataframe con incrementi). Poi vengono le copule, le seconde più efficienti. I modelli di rete neurale come il tabulare Gan e altri hanno funzionato peggio. Ma forse ho fatto qualcosa di sbagliato. C'è anche questa opzione.
Ho fatto un confronto tra diversi modelli generativi dalla libreria di cui sopra, attraverso la mia lib. Si scopre che GMM funziona meglio per i dati tabulari (dataframe con incrementi). Poi vengono le copule, le seconde più efficienti. I modelli di rete neurale come il tabulare Gan e altri hanno funzionato peggio. Ma forse ho fatto qualcosa di sbagliato. C'è anche questa opzione.
Le reti sembrano avere una scarsa tolleranza al rumore, forse è per questo che i risultati sono peggiori.
Volevo mescolare il rumore con i dati ad ogni epoca, ma non l'ho mai fatto.
Le reti non sembrano tollerare bene il rumore, il che può essere il motivo per cui i risultati sono peggiori.
Volevo aggiungere del rumore ai dati ad ogni epoca, ma non l'ho mai fatto.
Sembra che stiano facendo una media molto alta. L'output è costituito da campioni simili, con poche variazioni. Non importa come si modifica il vettore latente, si ottengono valori troppo vicini tra loro.
E' come se stessero facendo una media molto alta. L'output è costituito da campioni simili, con poche variazioni. Non importa come cambi il vettore latente, i valori sono troppo vicini.
Che ne dite di ridurre la profondità della storia?
Che ne dite di ridurre la profondità della storia?
Ho fatto diverse cose, l'uscita di entrambi autoencoder e gm dà valori fortemente mediati. Se l'autoencoder per definizione comprime, non è chiaro perché le GAN lo facciano. Anche l'abbandono non aiuta, a quanto pare.
L'uscita dell'autocodificatore e del gm dà valori altamente mediati. Se l'autocodificatore per definizione comprime, non è chiaro perché le GAN lo facciano. Anche l'abbandono non aiuta, a quanto pare.
La media e la sfocatura sono più o meno la stessa cosa, giusto? Ho trovato questo articolo .
La media e la sfocatura sono più o meno la stessa cosa, giusto? Ho trovato questo articolo .
Beh, sì, la compressione dei dati.
Lo capisco con i numeri, ma i dati tabellari funzionano peggio.
ed è per questo che c'è TabularGAN. Nel pacchetto di cui sopra.
Beh, sì, la compressione delle informazioni.
Lo capisco con le cifre, ma i dati tabellari sono peggioLeggete la diagonale, sembra che si tratti di una diversa distribuzione del rumore e di una metrica inappropriata.
Meglio controllare con dati di test in condizioni di serra.Interessante il tema dell'inversione della griglia.
Alimentare il rumore agli ingressi. Ottieni uno spettro all'uscita.
https://arxiv.org/pdf/1806.08734.pdf