L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3019
![MQL5 - Linguaggio delle strategie di trading integrato nel client terminal MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Ecco come ho scritto qual è la differenza tra avidità e genetica per il legno - forse non ho capito la domanda.
Non ho mai sentito parlare di estrazione di regole dalla rete neurale. Puoi darmi un link? Finora ho immaginato qualcosa di macchinoso.
Ma penso che le reti neurali qui saranno ovviamente più lente degli alberi in termini di velocità di emissione di nuove regole.
La tua idea di separare le "buone regole" da quelle cattive è completamente senza uscita, metodologicamente senza uscita.
Lei, per qualche motivo, pensa che le regole "buone" (gli alberi) siano davvero "buone".
E non si tratta solo della vaghezza del loro futuro, ma del fatto che non ci sono regole che possano essere prese secondo qualche criterio. Esistono regole che producono una VARIABILITÀ di "bontà" che cambia man mano che la finestra si sposta. ed è del tutto possibile che questa regola passi da "buona" a "cattiva" man mano che la finestra si sposta. Questa variabilità è definita da un valore che divide la probabilità di predizione in classi.
Di norma, negli algoritmi di MO, la divisione in classi avviene dividendo a metà la probabilità di predizione della classe, ma questo è completamente errato. Il valore della divisione in classi non è mai 0,5: questo valore varia e dipende dal particolare predittore.
Torniamo ora agli alberi "buoni".
Se avete selezionato alberi la cui "bontà" è vicina alla soglia, questo si sposta. Questo è il motivo per cui ho sostenuto sopra che gli alberi "buoni" che avete selezionato potrebbero facilmente diventare alberi cattivi.
È un vicolo cieco.
Yandex ha scritto qualcosa di simile https://academy.yandex.ru/handbook/ml/article/optimizaciya-v-ml
Un bel tutorial di Yandex, non scritto male. Un'altra sezione ha più a che fare con i miei pensieri. Descrive il tipo generale di funzione di perdita utilizzata nella costruzione degli alberi. L'idea è che ottimizzare il prezzo medio dell'errore e massimizzare il profitto sia equivalente a ottimizzare la somma dei prezzi dell'errore.
Tradotto in termini di profitto, è la differenza tra il profitto totale e il profitto medio di un'operazione. Poiché sto risolvendo il problema della classificazione binaria (entrare/non entrare), la massimizzazione del profitto medio in un'operazione porterà stupidamente a entrare in una o due operazioni e a scartare le altre.
Sto cercando di capire se questo è un confine insormontabile tra ottimizzazione e MO oppure no.
Un bel tutorial di Yandex, non scritto male. I miei pensieri riguardano piuttosto un'altra sezione. Descrive il tipo generale di funzione di perdita utilizzata nella costruzione degli alberi. Il punto è che in questo caso ottimizzare il prezzo medio dell'errore e massimizzare il profitto è equivalente a ottimizzare la somma dei prezzi dell'errore.
Tradotto in termini di profitto, è la differenza tra il profitto totale e il profitto medio di un'operazione. Poiché sto risolvendo il problema della classificazione binaria (entrare/non entrare), la massimizzazione del profitto medio in un'operazione porterà stupidamente a entrare in una o due operazioni e a scartare le altre.
Sto cercando di capire se questo è un confine insormontabile tra ottimizzazione e MO oppure no.
Cosa vi impedisce di scrivere la vostra funzione di perdita?
Questo è il mio riassunto dell'albero di Google, lo uso io stesso. I Dipminds di solito si avvicinano molto a come io stesso percepisco la realtà.
Grazie per i consigli!
Grazie per i consigli!
Dovresti essere tu a trattare i tuoi argomenti, non qualcun altro.....
Io risolvo problemi in MQL5, e noi stavamo parlando di R.
Un fatto è un fatto: si dice qualcosa senza pensare e poi si va nei cespugli.
Cosa vi impedisce di scrivere il vostro DIVERSO?
Beh, non riesco ancora a capire come implementare la massimizzazione dei profitti nello stesso bousting, per esempio.
Naturalmente sto facendo qualcosa, ma mi piacerebbe sentire altre opinioni informative sull'argomento.
Beh, non riesco ancora a capire come implementare la massimizzazione dei profitti nello stesso bousting, per esempio.
Sto facendo qualcosa, ovviamente, ma mi piacerebbe sentire altre opinioni informative sull'argomento.
La vostra idea di separare le "buone regole" dalle cattive regole" è completamente senza uscita, metodologicamente senza uscita.
In qualche modo pensate che le regole "buone" (gli alberi) siano davvero "buone".
E non si tratta solo dell'indeterminatezza del loro futuro, ma del fatto che non ci sono regole che possano essere prese secondo qualche criterio. Esistono regole che producono una VARIABILITÀ di "bontà" che cambia man mano che la finestra si sposta. ed è del tutto possibile che questa regola passi da "buona" a "cattiva" man mano che la finestra si sposta. Questa variabilità è determinata da un valore che divide la probabilità di previsione in classi.
Di norma, negli algoritmi MO, la divisione in classi avviene dividendo a metà la probabilità di predizione della classe, ma questo è completamente errato. Il valore della divisione in classi non è mai 0,5: questo valore varia e dipende dal particolare predittore.
Torniamo ora ai vostri alberi "buoni".
Se avete selezionato alberi la cui "bontà" è vicina alla soglia, questo si sposta. Questo è il motivo per cui ho sostenuto sopra che gli alberi "buoni" selezionati possono facilmente diventare alberi cattivi.
È un vicolo cieco.
Lei stesso fa ipotesi su ciò che penso e le contraddice. Provi a fare domande all'inizio.
Vicolo cieco o no, ho mostrato risultati reali. Dimostra lo stesso con una foresta che il 50% delle foglie classifica con profitto 3 classi, due anni dopo l'addestramento. Per quanto mi ricordo, avete un concetto di riqualificazione regolare dei modelli, quasi una volta alla settimana.
Non c'è bisogno di spiegare la deriva - ho creato un thread separato sul forum, dove si sta tentando di risolvere il problema - se volete condividere le idee, partecipate.
Quindi il metodo è promettente, ma c'è qualcosa da migliorare e sviluppare.
Beh, non riesco ancora a capire come implementare la massimizzazione dei profitti nello stesso bousting, per esempio.
Naturalmente sto facendo qualcosa, ma mi piacerebbe sentire altre opinioni informative sull'argomento.
Vi ho mostrato come addestrare Forrest alla massimizzazione del profitto.
Si tratta di un semplice apprendimento senza gradiente attraverso una funzione di fitness, essenzialmente RL.
Ho buttato qui il codice, ma questo metodo non è molto efficace per compiti di grandi dimensioni.
Per compiti di grandi dimensioni dobbiamo convertire l'apprendimento senza gradiente in apprendimento con gradiente, cioè in un normale tuffo in RL.
Guardate la prima metà di questo video : vi spiega come addestrarlo.
C'è un esempio con i neuroni, ma non è importante se si tratta di un boost o di qualcos'altro.