L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1240

 
Maxim Dmitrievsky:

Non lo facciamo per i soldi ma per l'idea). I soldi si possono fare con mezzi molto più banali.

Sì, che senso ha questa idea? Beh, c'è il machine learning, ma i miracoli non accadono, è solo un indicatore più sofisticato e niente di più.

Voglio scambiare alcune azioni, futures, ma avrò bisogno di più soldi lì, significa che non è per me.

Non so come usare questi indicatori, potrebbero essere di diversi tipi di trading.

 
forexman77:

Sì, che senso ha questa idea. Beh, c'è il machine learning, ma non ci sono miracoli, è solo un indicatore più sofisticato e niente di più.

Beh, o il trading di azioni, o il trading di futures, ma ho bisogno di più soldi lì, quindi non fa per me.

Ho molti nervi e forze, mentre l'uscita è come la carne di una zanzara.

Devo tenere il mio culo al caldo e poi soffrire... o cercare un taxi in questo campo

 

Per farla ancora più breve, immaginate che il forex sia una montagna che dovete scalare. Ma è praticamente una montagna liscia senza nulla a cui aggrapparsi.

E i miglioramenti del MO dell'1-2% non faranno praticamente nulla, non ci sono predittori lì, solo rumore e tutto il resto, il resto è riqualificazione e niente più.

 
Maxim Dmitrievsky:

in breve in alglib errore di classificazione e logloss... Il logloss non ha alcun senso, l'errore di classificazione nella foresta scende a zero nel campione di allenamento>0,8 e oob 0,2.

Ecco perché ho preso un piccolo campione di allenamento per una sorta di errore, ma è ancora piccolo. Non so come fare il confronto con quelli di Python.

Più che altro per riqualificare... Gli alberi possono memorizzare completamente i dati di input. R può essere ridotto, e non sembra esserci altro da modificare in Algibe. In xgboost, per esempio, è possibile limitare la profondità dell'albero.
Ecco perché all'inizio non li ho usati e sono passato alle mesh. Ma le griglie hanno i loro problemi.
 
Vizard_:

esilarante... Maximka è per questo che è fatto))) Non ho scritto nulla. In breve - il logloss è una pena. Cambialo in akuarisi, è facile da interpretare, è per questo che si usa.

Logloss mona poi si piega un po' e un paio di percentuali in più se si è fortunati per spremerlo. Mostrato Fa, c'è una bibbia in R...

Ne dimentico sempre la metà, poi mi sorprendo dopo un anno la stessa cosa. ricalcolare :) c'è qualche sciocchezza in alglib, non come nelle libs serie, e la foresta è fatta in casa.

 
Vizard_:

esilarante... Maximka è per questo che è fatto))) Non ho scritto nulla. In breve - il logloss è una pena. È facile da interpretare, per questo si usa.

Logloss mona poi piegare un po 'e più per cento-paio se siete fortunati a spremere su accuarisi. Ho mostrato a Fa, c'è una bibbia in R... Cosa c'è nell'algib, non so cosa succede nelle tue impostazioni...

abbassare l'avidità del sonaglio...

Alglib-e ha solo r per la regolarizzazione
 

Non credo che si possa applicare acuracu ai mercati, le classi sono sbilanciate dall'inizio.

Se avete akurasiu 100% tutto volerà alla classe di maggioranza è la metrica peggiore. È meglio guardare la matrice di confusione, si può vedere come le classi sono divise.

 
elibrario:
Più che altro un sovrallenamento... Treynes, d'altra parte, può memorizzare completamente i dati di input. R può essere ridotto, e non sembra esserci altro da modificare in Alglib. In xgboost, per esempio, è possibile limitare la profondità dell'albero.
Ecco perché all'inizio non li ho usati e sono passato alle mesh. Ma le griglie hanno i loro problemi.

c'è solo il numero di alberi e r sì, se r è maggiore di 0,6 c'è quasi sempre un errore di classificazione su un vassoio 0,0 :))) nel test ci possono essere variazioni, di solito intorno a 0,5

 
forexman77:

Non credo affatto che si possa applicare l'acuracu ai mercati, le classi lì sono inizialmente sbilanciate.

Se avete akurasiu 100% tutto volerà alla classe di maggioranza è la metrica peggiore. Preferirei vedere la matrice di confusione, mostra specificamente come sono divise le classi.

Nemmeno io capisco bene l'accuratezza. La matrice di errore o l'errore di classificazione è più chiaro, e lo mostro sullo schermo.
 
Vizard_:

Nspesh prova anche diversi in python. Cat Boost, per esempio, non è una grande offerta anche fuori dalla scatola + mangia tutto in una riga + c'è un visualizzatore con un punto (mettilo quando il taglio non sta migliorando molto) e così via...

già impostato, domani lo proverò, insieme al solo GBM, forse anche LightGbm... un xgboost è una specie di dolore da impostare, ci vuole molto tempo per capire