Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 472

 
Maxim Dmitrievsky:


em outras palavras, nem tudo no mt5 foi testado ainda :)

Eu não entendo isso. ( Por que até experimentar algo que já está na MT?

Se houver um conceito TC, nós pegamos um conjunto de ferramentas. Se houver em MT e ele interage bem com o resto do sistema - nós o usamos. Interage mal - nós usamos o software externo.

Não é nada razzo enviar informações para trás e para a frente apenas para usar a funcionalidade MT existente.

 
Yuriy Asaulenko:

Eu não entendo isso. ( Por que até experimentar algo que já está na MT?

Se houver um conceito TC, nós pegamos um kit de ferramentas. Se houver em MT e ele interage bem com o resto do sistema - nós o usamos. Interage mal - nós usamos o software externo.

Não é bom enviar informações para trás e para a frente apenas para usar a funcionalidade de MT existente.

Portanto, nunca há um conceito pronto a usar desde o início, tudo é por capricho, quanto mais ferramentas, melhor.
 
Maxim Dmitrievsky:
Então nunca há um conceito pronto desde o início, tudo é por instinto, quanto mais toolkit melhor.

Começo com um conceito, resolvo-o em algum software (Excel, SciLab, MatLab, R - às vezes todos juntos). Lá eu o testei com meu testador (não notei nenhuma diferença significativa com software real). Depois transfiro uma parte dela para o terminal, e o resto para C++/C# e ligo bibliotecas externas.

Os meus primeiros sistemas (desde 2008) foram criados com VBA-Excel e cooperaram muito bem com o terminal. Sem problemas de desempenho, mesmo com a lentidão da VBA. Em geral 50 ms de atraso não é um bom momento mesmo para trabalhar dentro do TF de 1m.

 
É mais fácil se inscrever para um sinal inteligente, mas quem precisa dele? Em geral....!!!!
 
Maxim Dmitrievsky:

A propósito, lembre-se que no seu artigo sobre sequenciamento sugeriu contar vários sinais em fila, vire ali... sobreposição de sinais

Eu inventei uma solução interessante para implementar algo assim através de uma lógica difusa e incorporá-la no processo de aprendizagem ... talvez mais tarde eu postarei algo :)


Sim, sim, isso é só daquele artigo..... Talvez não tenha sido claramente explicado lá, mas ninguém cancelou o fato da separação.

Precisamos ver claramente a divisão em bom e mau, se o modelo está perdendo ou ganhando constantemente, já é um indicador, o principal é a estabilidade da divisão, não sua correção, mas a estabilidade da divisão.....

 

SanSanych.

Confira a interessante discussão sobre 'overfittinga'.

Boa sorte.

Understanding overfitting: an inaccurate meme in Machine Learning
  • www.kdnuggets.com
This post was inspired by a recent post by Andrew Gelman, who defined ‘overfitting’ as follows: Overfitting is when you have a complicated model that gives worse predictions, on average, than a simpler model. Preamble There is a lot of confusion among practitioners regarding the concept of overfitting. It seems like, a kind of an urban legend...
 
Vladimir Perervenko:

SanSanych.

Confira a interessante discussão sobre 'overfittinga'.

Boa sorte.


Tudo o que eu escrevo aqui e uso na minha prática é algum tipo de truque para de alguma forma reduzir o impacto do problema básico da cognição, que aqui é chamado de sobreajustamento, sobretreinamento.


O problema do sobreajuste de modelos NÃO é resolvido em princípio, não é resolvido teoricamente e isto já é conhecido há muito tempo. Um modelo é sempre alguma aproximação, algum embrutecimento da realidade, do mundo externo. Portanto, um modelo reflete SEMPRE um objeto com algum erro. Esta é a força e a fraqueza de qualquer modelo. Portanto, é impossível criar um modelo sem estudar minuciosamente o objeto que está sendo modelado.


Se fizermos uma citação.

O QUE estamos a modelar?

Se floresta aleatória, estamos a automatizar a procura de padrões.

Se GARCH, então nós modelamos as características estatísticas de uma cotação.

Haverá SEMPRE um erro ao fazê-lo. E eu sugeri aqui algum tipo de heurística que este erro NÃO deve mudar em pedaços sucessivos da série cronológica. Se o modelo dá literalmente um erro diferente no próximo pedaço, então ele está sobre-treinado (sobre-equipado) e, em princípio, não pode ser usado.

Para florestas aleatórias descobri que se você remover os preditores ruidosos como eu o entendo, o modelo treinado dá o mesmo erro por muito mais tempo do que com os preditores ruidosos. Mas não estou ciente de soluções que criariam um modelo para todos os tempos, e não preciso disso. Estou bem com a reciclagem do modelo na saída dos últimos dados. Mas o treino deve começar com a verificação dos preditores de ruído - o seu conjunto muda com o tempo. Ou seja, não só o modelo em si muda, mas também o conjunto de dados de entrada. Estava a fazer janelas ao longo de séries temporais, por isso dos meus 25 preditores há uma amostragem constante de 10-15 preditores e a composição deste grupo muda, ou seja, algo muda em ruído e depois volta. O erro é muito estável e varia de 23% a 27% = sempre menos de 30%. Se o erro for inferior a 20% nos meus preditores, eu não uso este modelo e espero.


PS.

Pelo que eu disse você pode ver a razão pela qual eu não estou interessado em outros modelos.

 
SanSanych Fomenko:

Tudo o que escrevo aqui e uso na minha prática é algum tipo de técnica para de alguma forma reduzir o impacto do problema básico da cognição, que aqui é chamado de over-fitting, over-learning.


A posição é clara.

Boa sorte.

 
Brain Computation Is Organized via Power-of-Two-Based Permutation Logic
Brain Computation Is Organized via Power-of-Two-Based Permutation Logic
  • www.frontiersin.org
Clearly, this is a daunting question. The human brain is estimated to have approximately 86 billion neurons (Herculano-Houzel, 2009), and each neuron has tens of thousands of synapses (Andersen, 1990), leading to over one hundred trillion synaptic connections. On top of this astronomical complexity, one needs to map each connection or neuron to...
 
Como teoria, é interessante. Mas praticamente como usá-lo? Há algum software disponível em algum lugar?