L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1240
![MQL5 - Linguaggio delle strategie di trading integrato nel client terminal MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Non lo facciamo per i soldi ma per l'idea). I soldi si possono fare con mezzi molto più banali.
Sì, che senso ha questa idea? Beh, c'è il machine learning, ma i miracoli non accadono, è solo un indicatore più sofisticato e niente di più.
Voglio scambiare alcune azioni, futures, ma avrò bisogno di più soldi lì, significa che non è per me.
Non so come usare questi indicatori, potrebbero essere di diversi tipi di trading.
Sì, che senso ha questa idea. Beh, c'è il machine learning, ma non ci sono miracoli, è solo un indicatore più sofisticato e niente di più.
Beh, o il trading di azioni, o il trading di futures, ma ho bisogno di più soldi lì, quindi non fa per me.
Ho molti nervi e forze, mentre l'uscita è come la carne di una zanzara.
Devo tenere il mio culo al caldo e poi soffrire... o cercare un taxi in questo campo
Per farla ancora più breve, immaginate che il forex sia una montagna che dovete scalare. Ma è praticamente una montagna liscia senza nulla a cui aggrapparsi.
E i miglioramenti del MO dell'1-2% non faranno praticamente nulla, non ci sono predittori lì, solo rumore e tutto il resto, il resto è riqualificazione e niente più.
in breve in alglib errore di classificazione e logloss... Il logloss non ha alcun senso, l'errore di classificazione nella foresta scende a zero nel campione di allenamento>0,8 e oob 0,2.
Ecco perché ho preso un piccolo campione di allenamento per una sorta di errore, ma è ancora piccolo. Non so come fare il confronto con quelli di Python.
Ecco perché all'inizio non li ho usati e sono passato alle mesh. Ma le griglie hanno i loro problemi.
esilarante... Maximka è per questo che è fatto))) Non ho scritto nulla. In breve - il logloss è una pena. Cambialo in akuarisi, è facile da interpretare, è per questo che si usa.
Logloss mona poi si piega un po' e un paio di percentuali in più se si è fortunati per spremerlo. Mostrato Fa, c'è una bibbia in R...
Ne dimentico sempre la metà, poi mi sorprendo dopo un anno la stessa cosa. ricalcolare :) c'è qualche sciocchezza in alglib, non come nelle libs serie, e la foresta è fatta in casa.
esilarante... Maximka è per questo che è fatto))) Non ho scritto nulla. In breve - il logloss è una pena. È facile da interpretare, per questo si usa.
Logloss mona poi piegare un po 'e più per cento-paio se siete fortunati a spremere su accuarisi. Ho mostrato a Fa, c'è una bibbia in R... Cosa c'è nell'algib, non so cosa succede nelle tue impostazioni...
abbassare l'avidità del sonaglio...
Non credo che si possa applicare acuracu ai mercati, le classi sono sbilanciate dall'inizio.
Se avete akurasiu 100% tutto volerà alla classe di maggioranza è la metrica peggiore. È meglio guardare la matrice di confusione, si può vedere come le classi sono divise.
Più che altro un sovrallenamento... Treynes, d'altra parte, può memorizzare completamente i dati di input. R può essere ridotto, e non sembra esserci altro da modificare in Alglib. In xgboost, per esempio, è possibile limitare la profondità dell'albero.
Ecco perché all'inizio non li ho usati e sono passato alle mesh. Ma le griglie hanno i loro problemi.
c'è solo il numero di alberi e r sì, se r è maggiore di 0,6 c'è quasi sempre un errore di classificazione su un vassoio 0,0 :))) nel test ci possono essere variazioni, di solito intorno a 0,5
Non credo affatto che si possa applicare l'acuracu ai mercati, le classi lì sono inizialmente sbilanciate.
Se avete akurasiu 100% tutto volerà alla classe di maggioranza è la metrica peggiore. Preferirei vedere la matrice di confusione, mostra specificamente come sono divise le classi.
Nspesh prova anche diversi in python. Cat Boost, per esempio, non è una grande offerta anche fuori dalla scatola + mangia tutto in una riga + c'è un visualizzatore con un punto (mettilo quando il taglio non sta migliorando molto) e così via...
già impostato, domani lo proverò, insieme al solo GBM, forse anche LightGbm... un xgboost è una specie di dolore da impostare, ci vuole molto tempo per capire