Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 494

 
Yuriy Asaulenko:

Leia Heikin Neural Networks e a teoria de Bishop em inglês - sem tradução, mas parece estar para breve.

É simples. O comércio aleatório para entrada, e os resultados para saída. O método Monte Carlo é chamado, e não é muito rápido por si só. E a sistematização é uma tarefa do Sistema Nacional.


Bem, há algum nome especial para a NS? Como uma rede neural de recozimento estocástico de tipo desconhecido, com ou sem um professor, e otimizando entradas em vez de saídas :))) Vou ler alguns livros,

Heikin "NS Curso Completo Segunda Edição" está disponível em russo.

 
Maxim Dmitrievsky:

Bem, há algum nome especial para a própria NS? Como uma rede neural de recozimento estocástico de aprendizagem pouco clara com ou sem um professor, e otimizando as entradas em vez das saídas :)))) Vou ler livros,

Haikin "NS Curso Completo Segunda Edição" está disponível em russo

Heikin é, Bishop não está disponível em russo.

NS é o MLP habitual, o treino é o BP habitual, apenas com reajustes manuais regulares ao longo do caminho. Se tais reajustes não forem feitos, ou apenas baralhando a amostra, aprende-se muito rapidamente, mas funciona bem apenas nas sequências de aprendizagem.

 
Yuriy Asaulenko:

Heikin está lá, Bishop não está disponível em russo.

O NS é o MLP habitual, o treino é o BP habitual, apenas com reajustes manuais regulares à medida que se vai avançando. Se você não fizer tais reajustes ou apenas embaralhar a amostra, ela aprende muito rápido, mas funciona bem (até mesmo perfeitamente) apenas na sequência de aprendizagem.


Por enquanto vou me contentar com o trabalho do Haykin. Sempre me limitando a artigos e descrições de modelos, os livros são supérfluos demais (então há espaço suficiente para vendas).

 
Maxim Dmitrievsky:

E o Haykin's é coisa antiga :) até agora vou fazer, sempre me limitei a artigos e descrições de modelos, os livros têm muitas coisas desnecessárias (para ter um volume para vender)

Bem, eu não diria isso. A teoria não envelhece. Mas há uma compreensão mais profunda do assunto. Artigos, claro, mas sem teoria geral não são muito bem compreendidos, e apenas percebidos superficial e acriticamente - muitos disparates que escrevem).
 
Alyosha:

Falsa declaração. As florestas e os reforços não são diferentes das NS na extrapolação.


  • O modelo só pode interpolar, mas não extrapolar (o mesmo se aplica à floresta e ao aumento das árvores). Ou seja, a árvore de decisão faz uma previsão constante para objetos no espaço de características fora do paralelepípedo cobrindo todos os objetos na amostra de treinamento. No nosso exemplo com bolas amarelas e azuis, isto significa que o modelo dá a mesma previsão para todas as bolas com coordenada > 19 ou < 0.

Todos os artigos com que me deparo dizem a mesma coisa

https://habrahabr.ru/company/ods/blog/322534/


  • como as árvores de decisão, o algoritmo é totalmente incapaz de extrapolar
 
Maxim Dmitrievsky:

  • O modelo só pode interpolar, mas não extrapolar (o mesmo se aplica à floresta e à arborização). Ou seja, a árvore de decisão faz uma previsão constante para objetos no espaço de características fora do paralelepípedo cobrindo todos os objetos na amostra de treinamento. No nosso exemplo com bolas amarelas e azuis, isto significa que o modelo dá a mesma previsão para todas as bolas com coordenada > 19 ou < 0.

Todos os artigos com que me deparo dizem a mesma coisa

https://habrahabr.ru/company/ods/blog/322534/


  • como as árvores de decisão, o algoritmo é totalmente incapaz de extrapolar

O lixo é escrito por pessoas incultas. Eles não ouviram falar de sobretreinamento, não têm idéia sobre datamining, não ouviram falar sobre preditores de ruído e não são bons em estimação de modelos. Eles são apenas uma espécie de snobs imaturos jogando jogos intelectuais.

 
SanSanych Fomenko:

O lixo é escrito por pessoas incultas. Eles não ouviram falar de reciclagem, não têm conceito de datamining, não ouviram falar de preditores de ruído e não são bons em estimar modelos. É o tipo de esnobes crescidos demais que jogam jogos mentais.


O que tem tudo isto a ver com extrapolação...

aqueles que escreveram RF na biblioteca de alglib também são pessoas sem instrução?

e os blogueiros também são coxo, aparentemente...

https://www.r-bloggers.com/extrapolation-is-tough-for-trees/

Extrapolation is tough for trees!
Extrapolation is tough for trees!
  • Peter's stats stuff - R
  • www.r-bloggers.com
This post is an offshoot of some simple experiments I made to help clarify my thinking about some machine learning methods. In this experiment I fit four kinds of model to a super-simple artificial dataset with two columns, x and y; and then try to predict new values of y based on values of x that are outside the original range of y. Here’s the...
 

Todos são uns falhados, excepto a FA.

só os AC's foram ensinados.

;))

 
Oleg avtomat:

Todos são uns falhados, excepto a FA.

só os AC's foram ensinados.

;))


É assim que as pessoas usam a RF sem compreender os princípios, e depois dizem que não funciona. Pelo último artigo é óbvio que a RF não pode extrapolar, por isso só deve funcionar com dados familiares.

 
Aliosha:

Infelizmente, mas eles estão errados e é normal não só para "ignorantes" e snobs, lembre-se Minsky e sua opinião autoritária sobre a "futilidade" de perseverantes multicamadas)))

Eu não falo de artigos sobre hubra, é o mesmo que lixo nos fóruns, 99,9% de publicidade e lixo 0,1% de pensamentos sensatos na forma implícita "entre as linhas".

o homem deu um exemplo em R, em que lugar ele cometeu um erro? infelizmente eu não uso R, mas posso até reproduzi-lo eu mesmo