L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 514

 
Яндекс выложил в открытый доступ новую библиотеку машинного обучения
Яндекс выложил в открытый доступ новую библиотеку машинного обучения
  • 2017.07.18
  • Оксана Мамчуева
  • www.searchengines.ru
Яндекс разработал новый метод машинного обучения CatBoost. Он позволяет эффективно обучать модели на разнородных данных — таких как местонахождение пользователя, история операций и тип устройства. Библиотека машинного обучения CatBoost выложена в открытый доступ, ее могут использовать все желающие. Для работы с CatBoost достаточно установить...
 

Il pacchetto R è lì, fantastico.


2)
install.packages('devtools')
devtools::install_github('catboost/catboost', subdir = 'catboost/R-package')

 

Perché R, non mi piace... linea di comando o dll :)

 

Ho fatto un predittore di regressione di rete neurale, mostra un istogramma del modello corrente di predizione del prezzo per n barre avanti (15 in questo caso), si allena per 5000 barre e si riallena ogni 500 barre. Sembra buono al primo sguardo, ma naturalmente non funziona così velocemente come vorrei perché in realtà voglio allenarne diversi :)


E così se guardate i minuti - varianza piuttosto piccola, naturalmente può essere alta sulle emissioni estreme, ma in media nell'intervallo di 100 punti (5 cifre).

Ho cerchiato i più gustosi con delle frecce

 
Maxim Dmitrievsky:

Non funziona così velocemente come vorrei,

Su ALGLIB?

 
elibrarius:

Su ALGLIB?


Naturalmente si può ottenere contorto con NS esterni o scaffolding, per esempio CatBoost su gpu, ma sono troppo pigro e non ho tempo per

tutto si riduce alla velocità, più alto si ottiene, più difficile è farlo funzionare nel tester

 

ALGLIB è un terribile freno all'apprendimento.

Servito 240-50-1 netto su ALGLIB - ha aspettato 2 giorni, non ha aspettato e l'ha chiuso.

Ho allenato la rete 70-5-1 in mezz'ora. E nnet da R è stato addestrato per meno di un minuto con gli stessi dati. Ora sto cercando di capirlo con R.

 
elibrario:

ALGLIB è un terribile freno all'apprendimento.

Servito 240-50-1 netto su ALGLIB - ha aspettato 2 giorni, non ha aspettato e l'ha chiuso.

Ho allenato la rete 70-5-1 in mezz'ora. E nnet da R è stato addestrato per meno di un minuto con gli stessi dati. Così ora sono seduto qui a trattare con R.


RF più o meno, 50 ingressi di 5000, 100 alberi, 25 sec in media (sul portatile). Ma per l'ottimizzazione è anche molto lungo. NS è davvero lento, ma è MLP normale, non ci si dovrebbe aspettare altro da esso.

Mi serve per imparare tutto in un secondo al massimo, dove trovarlo? )

 

Ancora una volta sono convinto che l'impalcatura non può estrapolare, non importa quante esclamazioni ci siano qui che non può:

sopra la linea rossa 150 prezzi di formazione (entrate e uscite). Dopo di che, il mercato ha iniziato a scendere, sono apparsi nuovi prezzi, che non erano nel campione di allenamento (non sono stati alimentati all'output). La foresta ha iniziato a produrre come previsione il prezzo più basso che conoscevano al momento della formazione, cioè 1,17320, che corrisponde alla linea orizzontale. Questo ha fatto sì che anche l'istogramma dei residui fosse distorto.

Le foreste NON sanno come estrapolare . Tutti i più intelligenti vengono lasciati al secondo anno per reimparare la matematica.


  • proprio come gli alberi decisionali, l'algoritmo è totalmente incapace di estrapolazione
http://alglib.sources.ru/dataanalysis/decisionforest.php
 

I prezzi senza conversione non vengono inseriti nel modello.

L'impalcatura per l'estrapolazione prende il valore noto più vicino. Il neurone o il righello in estrapolazione calcolerà qualcosa secondo le formule interne. Ma in realtà tutti questi modelli si fondono in questa situazione, quindi non c'è differenza.