L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 829

 
revers45:

E dove hai trovato CNTK, se non è un segreto, c'è una libreria DEAP di programmazione evolutiva e non c'è molta complessità e tonnellate di codice, anche se non ci sono esempi generati, ma sarebbe troppo?

Non è un segreto. Aprire qualsiasi codice sorgente in Python.

 
Grigoriy Chaunin:
Non ci sono reti neurali. È una programmazione genetica.

E qui? O sto guardando la cosa sbagliata?

 
Grigoriy Chaunin:
Per le reti neurali scelgo ancora CNTK. Le ragioni sono le seguenti. In Python voglio addestrare una rete e memorizzare la rete addestrata. In C++ la DLL per MT che usa una rete addestrata. Questo è dovuto alla comodità di collegare una rete formata e scelgo. Tensorflow in C++ per Windows è un'orribile danza del tamburello.

Naturalmente è una scelta dello sviluppatore. Per me, Keras è il posto perfetto per iniziare. È vero, io uso Keras per R, e non si balla. Finendo un articolo per mostrare questa variante.

Forse nel tuo blog potresti abbozzare brevemente uno schema a blocchi della tua implementazione della programmazione genetica?

Buona fortuna

 
Vladimir Perervenko:

E qui? O sto guardando la cosa sbagliata?

È stato molto tempo fa. Ho dato un link ad altri depositi. Questo repository non è per questo forum. Dove ho scritto di NS, ho scritto che avrei risposto a tutte le domande sul codice.
 
Grigoriy Chaunin:
È passato molto tempo. Ti ho dato un link a un altro deposito. Questo repository non è per questo forum. Dove ho scritto di NS, ho scritto che risponderò a tutte le domande sul codice.

La risposta che avete dato è chiara. Buona fortuna

 
Maxim Dmitrievsky:

Viene dalla teoria dei giochi, sembra. È così che il trader gioca il suo gioco e il mercato gioca il suo gioco.

Il segreto più affidabile è quando non si sa o non si capisce, è stato detto spesso qui che ZZ è l'obiettivo sbagliato perché si suppone che sbirci nel passato.


In realtà, i dati del passato sono usati solo per trovare i punti (top e trough), e per gli obiettivi stessi si calcolano i rendimenti o le classi in base ai dati del futuro (a destra dei top previsti).

Quindi, di fatto, non c'è nessuna sbirciata nei dati per l'allenamento.

Ma i "corifei" continuano a venderci questo falso con la scusa della conoscenza segreta ma non possono darci le prove promesse, probabilmente la stessa cosa con la metrica...

 
Ivan Negreshniy:
Il segreto più affidabile è quando non si sa o non si capisce, è stato detto spesso qui che ZZ è l'obiettivo sbagliato perché si suppone che sbirci nel passato.

E ancora più affidabile quando non lo sapevi e poi l'hai dimenticato :)

 
Ivan Negreshniy:
Il segreto più affidabile è quando non si sa o non si capisce, qui si è detto spesso che ZZ è l'obiettivo sbagliato perché presumibilmente sbircia nel passato.


Infatti, i dati del passato sono usati solo per trovare i punti (vertici e avvallamenti), e i rendimenti o le classi sono calcolati in base ai dati del futuro (a destra dei vertici previsti) per gli obiettivi stessi.

Cioè, in effetti, non c'è nessuna sbirciata nei dati di allenamento.

Ma non so se è vero, ma se hanno ragione continuano a venderci questo falso, e non sono in grado di mostrarci le prove promesse, forse la stessa cosa con le metriche...

Mi correggo, i ragazzi saggi l'hanno fatto, ammetto il mio errore, ZZ è cool targeting, RSI è cool features, scusate per aver brontolato invano.

 
Aliosha:

Mi correggo, i saggi l'hanno sottolineato, ammetto il mio errore, ZZ è cool targeting, RSI è cool chips, mi scuso per aver brontolato per niente.

rsi non è molto diverso da returnee )

 
Alyosha:

Mi correggo, i saggi l'hanno sottolineato, ammetto il mio errore, ZZ è cool targeting, RSI è cool chips, mi scuso per aver brontolato per niente.

Non è un brontolio, sono solo chiacchiere inutili.

Due giorni di attesa per i risultati della corsa, che conferma quello che hai detto.


PS.

Non c'è bisogno di cancellarmi come l'ultima volta.