Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 514

 
Яндекс выложил в открытый доступ новую библиотеку машинного обучения
Яндекс выложил в открытый доступ новую библиотеку машинного обучения
  • 2017.07.18
  • Оксана Мамчуева
  • www.searchengines.ru
Яндекс разработал новый метод машинного обучения CatBoost. Он позволяет эффективно обучать модели на разнородных данных — таких как местонахождение пользователя, история операций и тип устройства. Библиотека машинного обучения CatBoost выложена в открытый доступ, ее могут использовать все желающие. Для работы с CatBoost достаточно установить...
 

O pacote R está lá, óptimo.


2)
install.packages('devtools')
devtools::install_github('catboost/catboost', subdir = 'catboost/R-package')

 

Porquê R, eu não gosto... linha de comando ou dll :)

 

Eu fiz um preditor de regressão da rede neural, ele exibe um histograma do modelo de previsão de preço atual para n barras à frente (15 neste caso), trens para 5000 barras e treinamentos a cada 500 barras. Parece bom no primeiro olhar, mas é claro que não funciona tão rápido quanto eu gostaria, porque eu realmente quero treinar vários deles :)


E assim, se você olhar para os minutos - variação bastante pequena, é claro que pode ser alta nas emissões extremas, mas em média na faixa dos 100 pontos (5 dígitos).

Eu circulei os mais saborosos com setas.

 
Maxim Dmitrievsky:

Não funciona tão depressa como eu gostaria,

No ALGLIB?

 
elibrarius:

No ALGLIB?


yeah

é claro que você pode se torcer com NS externo ou andaimes, por exemplo CatBoost em gpu, mas eu sou muito preguiçoso e não tenho tempo para

tudo se resume a velocidade, quanto mais alto se chega, mais difícil é correr no testador.

 

ALGLIB é um péssimo travão para a aprendizagem.

Serviu 240-50-1 net no ALGLIB - esperou 2 dias, não esperou e fechou.

Treinei 70-5-1 de rede em meia hora. E nnet de R foi treinado por menos de um minuto com os mesmos dados. Agora estou a tentar perceber isso com o R.

 
elibrarius:

ALGLIB é um péssimo travão para a aprendizagem.

Serviu 240-50-1 net no ALGLIB - esperou 2 dias, não esperou e fechou.

Treinei 70-5-1 de rede em meia hora. E nnet de R foi treinado por menos de um minuto com os mesmos dados. Então agora estou aqui sentado a lidar com o R.


RF mais ou menos, 50 entradas de 5000, 100 árvores, 25 segundos em média (no laptop). Mas para otimização também é muito longo. NS é muito lento, mas é um MLP normal, não se deve esperar mais nada dele.

Preciso dele para aprender tudo num segundo, no máximo, onde o conseguir? )

 

Mais uma vez estou convencido de que os andaimes não podem extrapolar, não importa quantas exclamações haja aqui que não possam:

acima da linha vermelha 150 preços de formação (entradas e saídas). Depois disso, o mercado começou a cair, surgiram novos preços, que não estavam na amostra de treinamento (não foram alimentados com a produção). A Floresta começou a produzir como previsão o preço mais baixo que conheciam no momento do treinamento, ou seja, 1.17320, o que corresponde à linha horizontal. Isto fez com que o histograma residual também fosse enviesado.

As florestas NÃO sabem como EXTRAPLORAR. Todos os espertos ficam para o segundo ano para reaprender a matemática.


  • tal como as árvores de decisão, o algoritmo é totalmente incapaz de extrapolar
http://alglib.sources.ru/dataanalysis/decisionforest.php
 

Os preços sem qualquer conversão não são introduzidos no modelo.

O andaime para extrapolação toma o valor conhecido mais próximo. O neurônio ou régua em extrapolação irá calcular algo de acordo com as fórmulas internas. Mas na realidade todos estes modelos vão se fundir nesta situação, por isso não há diferença.