L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1274

 
Aleksey Vyazmikin:

Di nuovo, non capisco la domanda su "tu personalmente hai fatto qualcosa come risultato" - espandi questo, qual è stato il risultato, e cosa ho dovuto fare personalmente? Se stiamo parlando della mia applicazione di MoD, allora sì, sto lavorando su questo tema in diversi modi (creazione di modelli, selezione, applicazione) - ho scritto molto sui miei risultati qui.

Cioè stai già applicando quello che hai espresso qui (non ho letto tutto perché non è realistico 1200 pp). Se hai 100500 segnali, forse uno di loro è quello vero.

 
Farkhat Guzairov:

Quindi per la prossima partita, questo comportamento non standard sarà già battuto dal bot, è chiaro che al momento l'umano può superare l'IA attraverso un comportamento non standard, ma non appena l'IA "dice" "Perché sarebbe....", l'umano avrà un momento difficile.

Se questo trucco viene ripetuto costantemente come mezzo di combattimento, allora sì, farà qualcosa, ma altrimenti è solo un'anomalia ordinaria, alla quale il modello non dovrebbe rispondere adeguatamente.

 
Farkhat Guzairov:

Cioè cosa usate già da quello che è stato espresso qui (non ho letto tutto perché non è realistico 1200 pp). Puoi darmi un link dove questo è usato da te, hai 100500 segnali, probabilmente uno di loro è quello.

Io uso CatBoost e l'albero "magico" di Doc, ho la mia metodologia personale. Al momento solo i test si stanno svolgendo su un conto reale, che ha rivelato una serie di problemi con i predittori, di conseguenza dovrò imparare da zero, dall'albero - che è circa mezzo anno perso. Catbust cuoce i modelli abbastanza velocemente, tutto è già abbastanza automatizzato lì dalla creazione del modello, alla selezione, all'applicazione del modello in commercio. Catbust mi ha aiutato molto, specialmente con l'interprete di modelli in MQL. Se non vengono rilevati bug, userò i modelli con soldi veri entro la primavera - userò un lotto per ogni modello, ci saranno due conti - per comprare e vendere.

 
Aleksey Vyazmikin:

Sto usando CatBoost e l'albero 'magico' di Doc, ho la mia metodologia personale. Al momento solo i test si stanno svolgendo su un conto reale, che ha rivelato una serie di problemi con i predittori, di conseguenza dovrò imparare da zero, dall'albero - che è circa mezzo anno perso. Catbust cuoce i modelli abbastanza velocemente, tutto è già abbastanza automatizzato lì dalla creazione del modello, alla selezione, all'applicazione del modello in commercio. Catbust mi ha aiutato molto, specialmente con l'interprete di modelli in MQL. Se non vengono rilevati nuovi bug prima della primavera, ho intenzione di utilizzare i modelli con denaro reale - i modelli saranno utilizzati in batch, per ogni modello 1 lotto, ci saranno due conti - per l'acquisto e la vendita.

Qual è l'albero "magico" di Doc? Dove posso vedere i dettagli?
 
elibrario:
Qual è l'albero "magico" di Doc? Dove vedere i dettagli?

C'è uno script R con un algoritmo genetico per creare un albero, selezionare le generazioni in base al miglioramento dell'entropia. Poi c'è una specie di selezione finale. Prendo tutti gli alberi per la selezione finale e ne estraggo le foglie per ulteriori misurazioni separate in MT5. Lo script non è stato pubblicato pubblicamente, quindi non ci sono nemmeno descrizioni dettagliate. Apparentemente è come selezionare il miglior albero dalla foresta, ma c'è una limitazione di profondità per evitare overtraining, bene il processo richiede circa 2 giorni su tutti i nuclei sull'ultimo campione, dove non tutte le barre, ma solo i segnali di entrare, e se tutte le barre per 3 anni, quindi il calcolo richiede 1,5 mesi ci. Dopo il calcolo faccio la divisione dell'albero, cioè rimuovo la colonna con il predittore radice del miglior albero della popolazione e ricomincio tutto da capo, è apparso che anche su 40 tale procedura alcune foglie molto buone sono create, così sono arrivato alla conclusione, che la migliore disposizione matematica dell'albero non è sempre più efficace, e un'informazione interferisce con un'altra, che è apparsa più tardi usata nello stesso CatBoost, quando scelgono casualmente i predittori da tutti i campioni per costruire un albero.

 
Aleksey Vyazmikin:

A proposito, notate che l'uomo stava perdendo facendo errori nelle azioni (cliccando storto/dimenticando di attivare un'abilità), ma è stato in grado di vincere utilizzando una mossa tattica non standard - distrarre costantemente l'avversario atterrando nella parte posteriore della base dell'avversario, che lo ha costretto a schierare le sue truppe per attaccare la base dell'uomo, che ha dato il tempo all'uomo di sviluppare le sue unità ad un livello superiore, come risultato ha potuto infliggere danni significativi all'avversario e vincere la partita.

Questo è anche il modo in cui borchie inaspettate e falsi proboys distraggono il trader dall'obiettivo.

Notate che questo era dovuto a una conversione grezza in una finestra scorrevole, il programma si è confuso con le finestre, è un problema tecnico

prima che tali gocce fossero respinte con uno zeitgeist.

dovrebbe guardare le clip con attenzione

 
Aleksey Vyazmikin:

C'è uno script R con un algoritmo genetico per creare un albero, selezionare le generazioni in base al miglioramento dell'entropia. Poi c'è una specie di selezione finale. Prendo tutti gli alberi per la selezione finale e ne estraggo le foglie per ulteriori misurazioni separate in MT5. Lo script non è stato pubblicato pubblicamente, quindi non ci sono nemmeno descrizioni dettagliate. Apparentemente è come selezionare il miglior albero dalla foresta, ma c'è una limitazione di profondità per evitare overtraining, bene il processo richiede circa 2 giorni su tutti i nuclei sull'ultimo campione, dove non tutte le barre, ma solo i segnali di entrare, e se tutte le barre per 3 anni, quindi il calcolo richiede 1,5 mesi ci. Dopo il calcolo faccio lo splitting dell'albero, cioè rimuovo la colonna con il predittore radice dell'albero della migliore popolazione e ricomincio tutto da capo, è apparso che anche su 40 questa procedura a volte si creano foglie molto buone, quindi sono arrivato alla conclusione, che il miglior albero matematico non è sempre il più efficace, e un'informazione interferisce con un'altra, che è apparsa più tardi usata nello stesso CatBoost, quando i predittori sono scelti a caso da tutti i campioni per costruire un albero.

Per favore, allega il codice (o mandalo a ls), è interessante da vedere. Forse si troverà qualcosa di nuovo.

A proposito, Alglib usa un insieme casuale di predittori (50% del numero totale per impostazione predefinita) per scegliere il partizionamento in ogni nodo. Questo sembra essere un approccio standard dei creatori di Random Forest. Il risultato è una grande varietà di alberi.
Ma è difficile trovare i migliori, perché la differenza nell'errore finale non è più dell'1%. Cioè tutti gli alberi arrivano approssimativamente allo stesso risultato, ma in un albero per un predittore c'è stata una scissione prima, in un altro albero per lo stesso predittore dopo (perché prima era stato escluso dalla lista per la scissione).


In generale, ho problemi con la selezione dei pronostici. Sto pensando di controllare 100 predittori aggiungendone 1 e continuando a migliorare i risultati. Se si esclude il predittore di radici 40 volte, dopo calcoli complicati, può essere più facile usare la forza bruta completa? O hai mille predittori lì?

 
Aleksey Vyazmikin:

C'è uno script R con un algoritmo genetico per creare un albero, selezionare le generazioni in base al miglioramento dell'entropia. Poi c'è una specie di selezione finale. Prendo tutti gli alberi per la selezione finale e ne estraggo le foglie per ulteriori misurazioni separate in MT5. Lo script non è stato pubblicato pubblicamente, quindi non ci sono nemmeno descrizioni dettagliate. Apparentemente è come selezionare il miglior albero dalla foresta, ma c'è una limitazione di profondità per evitare overtraining, bene il processo richiede circa 2 giorni su tutti i nuclei sull'ultimo campione, dove non tutte le barre, ma solo i segnali di entrare, e se tutte le barre per 3 anni, poi il calcolo richiede 1,5 mesi ci. Dopo il calcolo faccio la divisione dell'albero, cioè rimuovo la colonna con il predittore radice del miglior albero della popolazione e ricomincio tutto da capo, si è scoperto che anche su 40 tali procedure vengono create foglie molto buone, così sono arrivato alla conclusione, che la migliore disposizione matematica dell'albero non è sempre la più efficace, e un'informazione interferisce con un'altra, che si è rivelata poi usata nello stesso CatBoost, quando si selezionano a caso i predittori da tutti i campioni per costruire un albero.

Si scopre che stai facendo una sciocchezza perché stai imitando l'algoritmo della foresta e del boosting invece di leggere la teoria del perché funziona, di nuovo.

 
Maxim Dmitrievsky:

Notate che questo era dovuto a una conversione grezza in una finestra scorrevole, il programma ha incasinato le finestre, è un problema tecnico.

prima che tali gocce fossero respinte su facile.

Guarda le clip con attenzione.

Purtroppo non si analizzano le informazioni che si ricevono, si spegne il commento e si guarda con i propri occhi.

Non c'erano situazioni simili prima, guardate attentamente il video.

 
Aleksey Vyazmikin:

Sfortunatamente, non stai analizzando le informazioni che ricevi, spegni il commento e guarda tu stesso.

Non c'erano situazioni simili prima, rivedere il video con attenzione.

l'algoritmo di alphastar è stato MODIFICATO appositamente per revashn dalla vista completa della mappa alla vista a fette, non hanno fatto bene

si può vedere che il bot è lento nel passare da una finestra all'altra, non riesce a capire dove sia il prisma e corre avanti e indietro

È un bug.

Non ho alcun rispetto per voi!