L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3019

 
Aleksey Vyazmikin #:

Ecco come ho scritto qual è la differenza tra avidità e genetica per il legno - forse non ho capito la domanda.

Non ho mai sentito parlare di estrazione di regole dalla rete neurale. Puoi darmi un link? Finora ho immaginato qualcosa di macchinoso.

Ma penso che le reti neurali qui saranno ovviamente più lente degli alberi in termini di velocità di emissione di nuove regole.

La tua idea di separare le "buone regole" da quelle cattive è completamente senza uscita, metodologicamente senza uscita.

Lei, per qualche motivo, pensa che le regole "buone" (gli alberi) siano davvero "buone".

E non si tratta solo della vaghezza del loro futuro, ma del fatto che non ci sono regole che possano essere prese secondo qualche criterio. Esistono regole che producono una VARIABILITÀ di "bontà" che cambia man mano che la finestra si sposta. ed è del tutto possibile che questa regola passi da "buona" a "cattiva" man mano che la finestra si sposta. Questa variabilità è definita da un valore che divide la probabilità di predizione in classi.

Di norma, negli algoritmi di MO, la divisione in classi avviene dividendo a metà la probabilità di predizione della classe, ma questo è completamente errato. Il valore della divisione in classi non è mai 0,5: questo valore varia e dipende dal particolare predittore.

Torniamo ora agli alberi "buoni".

Se avete selezionato alberi la cui "bontà" è vicina alla soglia, questo si sposta. Questo è il motivo per cui ho sostenuto sopra che gli alberi "buoni" che avete selezionato potrebbero facilmente diventare alberi cattivi.


È un vicolo cieco.

 
Igor Makanu #:

Yandex ha scritto qualcosa di simile https://academy.yandex.ru/handbook/ml/article/optimizaciya-v-ml

Un bel tutorial di Yandex, non scritto male. Un'altra sezione ha più a che fare con i miei pensieri. Descrive il tipo generale di funzione di perdita utilizzata nella costruzione degli alberi. L'idea è che ottimizzare il prezzo medio dell'errore e massimizzare il profitto sia equivalente a ottimizzare la somma dei prezzi dell'errore.

Tradotto in termini di profitto, è la differenza tra il profitto totale e il profitto medio di un'operazione. Poiché sto risolvendo il problema della classificazione binaria (entrare/non entrare), la massimizzazione del profitto medio in un'operazione porterà stupidamente a entrare in una o due operazioni e a scartare le altre.

Sto cercando di capire se questo è un confine insormontabile tra ottimizzazione e MO oppure no.

Решающие деревья
Решающие деревья
  • academy.yandex.ru
Обучение древесных моделей для классификации и регрессии. Эффективное построение решающих деревьев
 
Aleksey Nikolayev #:

Un bel tutorial di Yandex, non scritto male. I miei pensieri riguardano piuttosto un'altra sezione. Descrive il tipo generale di funzione di perdita utilizzata nella costruzione degli alberi. Il punto è che in questo caso ottimizzare il prezzo medio dell'errore e massimizzare il profitto è equivalente a ottimizzare la somma dei prezzi dell'errore.

Tradotto in termini di profitto, è la differenza tra il profitto totale e il profitto medio di un'operazione. Poiché sto risolvendo il problema della classificazione binaria (entrare/non entrare), la massimizzazione del profitto medio in un'operazione porterà stupidamente a entrare in una o due operazioni e a scartare le altre.

Sto cercando di capire se questo è un confine insormontabile tra ottimizzazione e MO oppure no.

Cosa vi impedisce di scrivere la vostra funzione di perdita?

 
Maxim Dmitrievsky #:
Questo è il mio riassunto dell'albero di Google, lo uso io stesso. I Dipminds di solito si avvicinano molto a come io stesso percepisco la realtà.


Grazie per i consigli!

 
Aleksey Vyazmikin #:

Grazie per i consigli!

È complicato là fuori, ho fatto una ricerca sull'argomento ieri sera. Gli stessi alberi estraggono regole da scale e livelli NS. Inoltre, estraggono regole dalle reti di super-precisione. Pubblicherò un articolo non appena avrò maggiori informazioni. L'albero nell'analisi esplorativa sembra in qualche modo troppo bello da questo punto di vista della ricerca di regole, probabilmente supera l'ottimizzazione genetica in termini di velocità, con un set di dati adeguatamente preparato.
Non l'ho provato personalmente, forse ci sono delle insidie.
 
mytarmailS #:
Dovresti essere tu a trattare i tuoi argomenti, non qualcun altro.....
Una volta che ti arriva alla testa, è un processo...

Pensateci.

Io risolvo problemi in MQL5, e noi stavamo parlando di R.

Un fatto è un fatto: si dice qualcosa senza pensare e poi si va nei cespugli.

 
mytarmailS #:

Cosa vi impedisce di scrivere il vostro DIVERSO?

Beh, non riesco ancora a capire come implementare la massimizzazione dei profitti nello stesso bousting, per esempio.

Naturalmente sto facendo qualcosa, ma mi piacerebbe sentire altre opinioni informative sull'argomento.

 
Aleksey Nikolayev #:

Beh, non riesco ancora a capire come implementare la massimizzazione dei profitti nello stesso bousting, per esempio.

Sto facendo qualcosa, ovviamente, ma mi piacerebbe sentire altre opinioni informative sull'argomento.

La precisione funziona bene con classi bilanciate. Ho provato tutte le metriche standard, quasi senza differenze nei risultati. La massimizzazione del profitto è implementata attraverso il markup con operazioni massimamente redditizie, non è vero?)
 
СанСаныч Фоменко #:

La vostra idea di separare le "buone regole" dalle cattive regole" è completamente senza uscita, metodologicamente senza uscita.

In qualche modo pensate che le regole "buone" (gli alberi) siano davvero "buone".

E non si tratta solo dell'indeterminatezza del loro futuro, ma del fatto che non ci sono regole che possano essere prese secondo qualche criterio. Esistono regole che producono una VARIABILITÀ di "bontà" che cambia man mano che la finestra si sposta. ed è del tutto possibile che questa regola passi da "buona" a "cattiva" man mano che la finestra si sposta. Questa variabilità è determinata da un valore che divide la probabilità di previsione in classi.

Di norma, negli algoritmi MO, la divisione in classi avviene dividendo a metà la probabilità di predizione della classe, ma questo è completamente errato. Il valore della divisione in classi non è mai 0,5: questo valore varia e dipende dal particolare predittore.

Torniamo ora ai vostri alberi "buoni".

Se avete selezionato alberi la cui "bontà" è vicina alla soglia, questo si sposta. Questo è il motivo per cui ho sostenuto sopra che gli alberi "buoni" selezionati possono facilmente diventare alberi cattivi.


È un vicolo cieco.

Lei stesso fa ipotesi su ciò che penso e le contraddice. Provi a fare domande all'inizio.

Vicolo cieco o no, ho mostrato risultati reali. Dimostra lo stesso con una foresta che il 50% delle foglie classifica con profitto 3 classi, due anni dopo l'addestramento. Per quanto mi ricordo, avete un concetto di riqualificazione regolare dei modelli, quasi una volta alla settimana.

Non c'è bisogno di spiegare la deriva - ho creato un thread separato sul forum, dove si sta tentando di risolvere il problema - se volete condividere le idee, partecipate.

Quindi il metodo è promettente, ma c'è qualcosa da migliorare e sviluppare.

 
Aleksey Nikolayev #:

Beh, non riesco ancora a capire come implementare la massimizzazione dei profitti nello stesso bousting, per esempio.

Naturalmente sto facendo qualcosa, ma mi piacerebbe sentire altre opinioni informative sull'argomento.

Vi ho mostrato come addestrare Forrest alla massimizzazione del profitto.

Si tratta di un semplice apprendimento senza gradiente attraverso una funzione di fitness, essenzialmente RL.

Ho buttato qui il codice, ma questo metodo non è molto efficace per compiti di grandi dimensioni.


Per compiti di grandi dimensioni dobbiamo convertire l'apprendimento senza gradiente in apprendimento con gradiente, cioè in un normale tuffo in RL.

Guardate la prima metà di questo video : vi spiega come addestrarlo.

C'è un esempio con i neuroni, ma non è importante se si tratta di un boost o di qualcos'altro.

Deep Learning на пальцах 13 - Reinforcement Learning
Deep Learning на пальцах 13 - Reinforcement Learning
  • 2019.05.15
  • www.youtube.com
Курс: http://dlcourse.ai