L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1830
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
La cosa triste è che tu dici regolarità, regolarità, ma ti chiedi cosa guida esattamente il mercato e non lo dici... perché la tua comprensione di una regolarità finisce con la risposta di una rete sotto forma di probabilità.
Tutta la tua soluzione è costruire centinaia di reti su diversi dati e analizzare i loro risultati sotto forma di probabilità...
E se capissi il mercato e le sue leggi?
Allora con una regola di log si può descrivere quello che descrivi con centinaia di reti...
per esempio, ecco una regola con solo tre elementi, e commercia altrettanto bene come un centinaio delle vostre reti.
Quindi cosa succede se trovo 1000 di queste regole, e creo da esse una specie di Foresta Casuale, o un insieme di regole? La qualità migliorerà? Sì, posso commerciare?
Cosa succede se si cerca di creare un ensemble di 1000 neuroni con 100 neuroni ciascuno? Si ottengono 100k neuroni, in primo luogo non è possibile trovare un set di dati unico per 100k neuroni, in secondo luogo bisogna aspettare secoli per la risposta -....
In conclusione - il mio approccio è più pulito, più veloce e più scalabile + può essere spiegato, il tuo approccio è impossibile da sviluppare ((
Purtroppo
In conclusione - il mio approccio è più "pulito", più veloce e più scalabile, il tuo approccio è impossibile da sviluppare ((
Ad essere onesti, anche il tuo approccio non è molto chiaro, ma forse è solo per me....
Ecco un esempio vivente di come comprimere le informazioni, questo non è quello che faccio, ma mi sforzo per questo concetto
I dati sono le iridi di Fisher.
Stiamo allenando una foresta casuale per chiarezza, ma facciamo finta che sia un insieme delle vostre reti neurali.
Addestrato....
Abbiamo le regole predittive, ce ne sono circa 700.
Ora la magia è che c'è un algoritmo che può fare 7 di quelle 700 regole, con una perdita minima di qualità.
Quindi questa è tutta la nostra foresta casuale di 700 regole.
Non male? :)
La cosa triste è che tu dici regolarità, regolarità, ma ti chiedi cosa guida esattamente il mercato e non lo dici... perché la tua comprensione della regolarità finisce con la risposta della rete sotto forma di probabilità.
L'intera soluzione consiste nel costruire centinaia di reti su diversi dati e analizzare i loro risultati sotto forma di probabilità...
Sì, proprio così, per un vero risultato pratico.
e se capissi il mercato e le sue leggi?
Forse non è nemmeno possibile.
Allora una regola di registro può descrivere quello che stai descrivendo con centinaia di reti.
È tutta fantasia, volare tra le nuvole.
ha risposto sopra...
ha risposto sopra nel testo...
Tu scrivi :
Evgeny Dyuka:
2. In pratica, usando il mio metodo, si può ottenere una risposta accettabile solo nell'1% circa delle domande poste. In parole povere, se chiedete alla rete "dove sarà il prezzo tra 5 minuti in alto o in basso" ad ogni min-light, la rete vi darà la risposta solo 1 volta su 100.
Non pensi che la ragione sia che il 99% dei tuoi dati è spazzatura e l'1% è utile, non pensi che questo 1% possa essere descritto da 1-3 regole di registrazione?
Tu scrivi:
Evgeny Dyuka:
2. In pratica, usando il mio metodo, si può ottenere una risposta accettabilmente accurata solo nell'1% circa delle domande poste. In parole povere, se chiedete alla rete "dove sarà il prezzo tra 5 minuti in alto o in basso", otterrete la risposta solo 1 volta su 100.
Non vi sembra che la ragione sia che nei vostri dati ci sia il 99% di spazzatura e l'1% di informazioni utili? Non vi sembra che questo 1% possa essere descritto da 1-3 regole di registrazione?
Il 99% della spazzatura è una proprietà intrinseca dell'oggetto che stiamo studiando. È la sua natura.
Tutti vorremmo sperare che abbia un'armonia all'interno e regole semplici e comprensibili, che non abbiamo ancora trovato, ma che troveremo. Non ci sono regole del genere. Filosoficamente possono esistere, tutto ha una ragione, ma sono al di là delle nostre capacità attuali e future.
Anche l'1% non è descritto da regole semplici, la rete è addestrata su 500.000 esempi per raggiungerlo - queste non sono chiaramente regole semplici.
Ecco un esempio vivente di come comprimere le informazioni, questo non è quello che faccio, ma mi sforzo per il concetto
I dati sono le iridi di Fisher.
Addestrare una foresta casuale, per chiarezza, ma facciamo finta che sia un insieme delle tue reti neurali
Addestrato....
Abbiamo le regole predittive, ce ne sono circa 700.
Ora la magia è che c'è un algoritmo che può fare 7 di quelle 700 regole, con una perdita minima di qualità.
Quindi questa è tutta la nostra foresta casuale di 700 regole.
Non male? :)
Per descrivere 150 righe di dati (ce ne sono 150 nei dati di Iris) al massimo abbiamo bisogno di 150 regole (se tutte le righe sono uniche).
Da dove ne hai presi 700?
Per descrivere 150 righe di dati (i dati di Iris hanno 150 righe) servono al massimo 150 regole (se tutte le righe sono uniche).
Da dove ne hai presi 700?
Non so esattamente come funziona il pacchetto forrest, ma con 100 alberi genera 400-700 regole, probabilmente contando ogni ramo come una regola
Purtroppo non è vero.
Il 99% della spazzatura è una proprietà intrinseca dell'oggetto che stiamo studiando. È così che è costruito, è la sua natura.
Tutti vorremmo sperare che abbia un'armonia all'interno e regole semplici e chiare che non abbiamo ancora trovato, ma lo faremo. Non ci sono regole del genere. Filosoficamente possono esistere, tutto ha una ragione, ma sono al di là delle nostre capacità attuali e future.
Anche questo 1% non è descritto da regole semplici, la rete è stata addestrata su 500.000 esempi per arrivarci - queste non sono chiaramente regole semplici.
hmmm...
Quindi questa è la nostra intera foresta casuale di 700 regole
Non male? :)
Qual è il principio della riduzione delle foglie? Raggruppare per somiglianza e selezionare l'opzione migliore dal gruppo?
Non so esattamente come funziona il pacchetto forrest, ma quando è impostato a 100 alberi genera 400-700 regole, molto probabilmente ogni ramo conta come una regola
Non so...
Se costruisci un albero, ottieni le stesse 7 regole che pensi sia magico))
Ecco cosa mi ha dato 1 albero per gli iris (Accuratezza 96% o 6 errori su 150 esempi)
if(x[3]<1.800000){
if(x[3]<1.000000){v[0]=1.000000;v[1]=0.000000;v[2]=0.000000;s=50;}
else{
if(x[2]<4.700000){
if(x[2]<4.500000){v[0]=0.000000;v[1]=1.000000;v[2]=0.000000;s=29;}
else{v[0]=0.000000;v[1]=0.909091;v[2]=0.090909;s=11;}}
else{v[0]=0.000000;v[1]=0.714286;v[2]=0.285714;s=14;}}}
else{
if(x[0]<6.300000){v[0]=0.000000;v[1]=0.090909;v[2]=0.909091;s=11;}
else{v[0]=0.000000;v[1]=0.000000;v[2]=1.000000;s=35;}}