L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1776

 
Aleksey Vyazmikin:

Queste, come dici tu, "possibilità" possono essere impilate, ed è per questo che sono tenute così.

Infatti... Si sommano questi loghi di diversi alberi. Poi si calcola la probabilità finale.
 
Aleksey Vyazmikin:

Sì, sui nuovi, ma ora si sono resi conto che l'obiettivo è sbagliato. Ho preso il vettore ZZ attuale con un offset, che è sbagliato.

Dovrò abbozzare una sceneggiatura per far uscire l'obiettivo.

Allora, qual è il risultato?

 
Maxim Dmitrievsky:

L'ho visto da qualche parte nei tutorial... Penso che sia più conveniente farlo durante il preapprendimento o qualcosa del genere.

Maxim, sembra che tu stia facendo il clustering ora.
Qui mostra che l'impalcatura è simile al clustering.

https://habr.com/ru/company/ods/blog/324402/

Sezione "Somiglianza della foresta casuale con l'algoritmo k-nearest neighbour".

Открытый курс машинного обучения. Тема 5. Композиции: бэггинг, случайный лес
Открытый курс машинного обучения. Тема 5. Композиции: бэггинг, случайный лес
  • habr.com
Пятую статью курса мы посвятим простым методам композиции: бэггингу и случайному лесу. Вы узнаете, как можно получить распределение среднего по генеральной совокупности, если у нас есть информация только о небольшой ее части; посмотрим, как с помощью композиции алгоритмов уменьшить дисперсию и таким образом улучшить точность модели; разберём...
 
elibrario:


C'è una domanda?

 
elibrario:

Maxim, sembra che tu stia facendo il clustering ora.
Qui mostra che l'impalcatura è simile al clustering.

https://habr.com/ru/company/ods/blog/324402/

Sezione "Somiglianza della foresta casuale con l'algoritmo k nearest neighbour".

Come sto facendo... ho iniziato e poi ho rinunciato). Anche la foresta può raggrupparsi, sì.

Per quanto riguarda il clustering così com'è - non è male nel separare gli incrementi in 3 gruppi, compresi i nuovi dati. Ha senso usare come caratteristiche categoriche, questo è quello che volevo fare
 
Maxim Dmitrievsky:


Qualche domanda?

 
FRATELLI VOCALI !!!!! Hanno vinto......

QUESTO È IL VINCITORE!!!!! Fratelli!!!! HORRAAAAAAAAAAAAAAAAAAA !!!!! Buone vacanze a tutti.

Perché non appena dimenticheremo questa guerra, ne inizierà subito un'altra. Ricordiamolo sempre!!!!!!!! VITTORIAAAAAAAAAAAAAAAAAAAA!!!!!!! Pew, pew (questo sono io che sparo con la mia pistola TT immaginaria e corro per la strada nella mia uniforme da ufficiale)

 
Vedi, siamo dalla stessa parte delle barricate! Buone feste a tutti!
 
mytarmailS:

Allora, qual è il risultato? Cosa ha ottenuto l'akurasi?

10 modelli CatBoost con profondità dell'albero 6, arresto dell'apprendimento a 100 nuovi alberi che non migliorano i risultati, seduti a incrementi di 100.

Accuracy=70.72461682377491
Accuracy=70.86133697920415
Accuracy=70.77066992876159
Accuracy=70.64690220910988
Accuracy=70.78506152406995
Accuracy=70.88004605310499
Accuracy=70.69871195221991
Accuracy=70.59509246599985
Accuracy=70.58501834928403
Accuracy=70.71454270705908

Campione di apprendimento 80% 2018 e 2019, campione 20% per controllare l'arresto dell'apprendimento. Campione indipendente gennaio-maggio 2020

Se si tortura il campione con diversi metodi di partizionamento e si costruiscono più modelli, penso che si possano ottenere 72.

Saldo della classificazione


 
Aleksey Vyazmikin:

10 modelli CatBoost con profondità dell'albero 6, arresto dell'apprendimento a 100 nuovi alberi che non migliorano i risultati, seduti a incrementi di 100.

Campione di formazione 80% 2018 e 2019, campione 20% per controllare gli arresti di formazione. Campione indipendente gennaio-maggio 2020

Se si tortura il campione con diversi metodi di partizionamento e si costruiscono più modelli, penso che si possano ottenere 72.

Saldo della classificazione


Bene... bello e plausibile. Vorrei anche vedere il bilancio del commercio stesso e un grafico con le entrate.

Suppongo che questo sia un insieme di 10 modelli? Qual è la differenza tra questi modelli?