Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1045

 
Maxim Dmitrievsky:

Enquanto ninguém me empurrar, é muito difícil avançar nesta direcção, não estou a negociar neste momento, acabo o sistema quando estou com vontade... porque tenho de pensar lá, e não gosto de pensar

Concordo, eu tenho o mesmo problema. Eu estive pensando, há algo que você pode ver (quero dizer o monitor de conta) ou ouvir o que eu tenho enfrentado.
 
mytarmailS:

Sim, melhor passar um ano na teoria e implementação de diferentes transformações do que passar 5 min em python ou R para entender que essa porcaria não funciona, a lógica é a mais forte, escute, por que você não cria sua própria linguagem de programação? por que você precisa de mql, c++ ou o que quer que você esteja sentado...

O problema aqui não está na teoria, mas em como você a entende, mais a abordagem certa para apresentar tudo o que você aprendeu durante sua análise.

Há momentos em que uma pessoa faz um trabalho hercúleo de coleta e sistematização de dados, mas não os aplica corretamente.

 
Farkhat Guzairov:

Há momentos em que uma pessoa faz um trabalho hercúleo de coleta e sistematização de dados, mas não os aplica corretamente.

Concordo, isso acontece.

 
Vizard_:

Você prometeu me mostrar equi no céu no outono e filmar um vídeo de treinamento))))

Bem, quem sabia que eu ia ser desviado para uma rede pela GIANT!!!! intercontinental transatlântica Tive que passar todo o período probatório a aprender as cordas e a viajar para os treinos. Até fui a Kazan durante os campeonatos. Mas eu não desisti de negociar, embora o tenha feito principalmente aos sábados. E só recentemente cometi um erro por acidente e obtive outra melhoria de dados. A melhoria implica ainda mais separabilidade. Figura 2 acima. Isto levou ao fato de que o Optimizer Reshetov foi requalificado, o que, em princípio, não é apropriado para ele, pois é fundamentalmente apertado por incompletude, e aqui é apenas requalificado. A análise dos dados mostrou pontos duplos nas regiões de agrupamento, indicando que os vetores são idênticos, ou seja, são cópias um do outro com uma pequena diferença no número de caudas. Tais conjuntos de dados levam ao sobretreinamento quando um desses vetores entra em treinamento e o outro na amostra de teste. Neste caso, um dos vectores duplos deve ser removido! Mas se você olhar para o significado do input, você começa a se perguntar sobre o alto grau de alogicalidade do MO. Porque eu não vejo o objectivo de uma tal entrada, mas funciona SCUKO!


De alguma forma, decidi por mim mesmo: Se você se deparar com uma entrada de trabalho, você não precisa entendê-la, apenas usá-la e pronto..... Pergunte-me "Porque funciona?" e eu respondo "Não sei" e continuo a aceitar dinheiro não importa o quê :-)

 
Alexander_K:

O trabalho gosta de tolos :))))

Antes de mais nada, vai fazer-te entrar numa rotina e numa ordem. Então o negócio vai assentar.

 
Maxim Dmitrievsky:

Tentar diferentes modelos (preditores), por exemplo, construir muitos modelos e escolher o melhor, em diferentes dados de entrada transformados. É como escolher palavras-passe das contas. Quando não há um conhecimento a priori do assunto e dos padrões.

Feita à mão.

Aquele vídeo do Wapnick em inglês era sobre isto.

NOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOO Mas vamos manter as coisas simples, vamos assumir que construímos 10 modelos para o mesmo conjunto de dados, MAS com partições aleatórias em tendência e teste. Pergunta: como escolhemos o modelo que COULD melhor representa o conjunto de dados original??? Esta é uma questão fundamental e estou actualmente a construir uma teoria em torno dela. Até agora, tudo parece lógico na minha teoria, mas não está completo.

Para resolver esta questão, eu preciso determinar a Métrica de Generalizabilidade dos modelos resultantes. Li aqui alguns recursos e acontece que tais métricas já existem, mas todas elas sobrestimam valores. Como entendi, não existe uma metodologia unificada eficaz para determinar o nível de generalização. Este é um problema fundamental no campo do MO. A forma como o Reshetov o resolve é também uma métrica e, de momento, é a melhor solução, quando a especificidade e sensibilidade do modelo são calculadas, mas está tudo errado. Mas o que é isso..... é HUGE!!!!! :-)

 

Não pensei que ia sugerir isto, mas mesmo assim...

Eu criei um sistema (indicador) baseado em uma rede neural que constrói alguns níveis, ele funciona muito bem.

A filosofia do indicador é a de procurar por algum sobre-comprado/sobre-vendido real ou centímetro.

Dá cerca de 1-2 sinais por semana, se o sinal for identificado correctamente, funciona com uma probabilidade próxima dos 100%.


O problema é que não sou especialista em mql e o indicador está escrito em R (com uso de bibliotecas diferentes), não sou capaz de aprender mql.

Se há um desenvolvedor aqui que está pronto para integrar o código no mql e visualizá-lo no mt4, estou pronto para discutir e ajudar no futuro.

 
Mihail Marchukajtes:

NOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOO Mas vamos manter as coisas simples, vamos assumir que construímos 10 modelos para o mesmo conjunto de dados, MAS com partições aleatórias em tendência e teste. Pergunta: como escolhemos o modelo que COULD melhor representa o conjunto de dados original??? Esta é uma questão fundamental e estou actualmente a construir uma teoria em torno dela. Até agora, tudo parece lógico na minha teoria, mas não está completo.

Para resolver esta questão, eu preciso determinar a Métrica de Generalizabilidade dos modelos resultantes. Li aqui alguns recursos e acontece que tais métricas já existem, mas todas elas sobrestimam valores. Como entendi, não existe uma metodologia unificada eficaz para determinar o nível de generalização. Este é um problema fundamental no campo do MO. A forma como o Reshetov o resolve é também uma métrica e, de momento, é a melhor solução, quando a especificidade e sensibilidade do modelo são calculadas, mas está tudo errado. Mas o que é isso..... é HUGE!!!!! :-)

10 não é nada, a partir de 2000 modelos. O particionamento aleatório está presente como está, mas os conjuntos de dados também mudam. Um ultrabook em 1 núcleo conta em 15-20 minutos.

A propósito do jpedictor - eu estava a bisbilhotar a versão que me deste e no UPOR não vi lá uma máquina nuclear... queria puxá-la para fora, ver como funciona

por que razão, camaradas?

Não sei o que usar excepto erro de classificação ou logloss

 
mytarmailS:

Não pensei que ia sugerir isto, mas mesmo assim...

Eu criei um sistema (indicador) baseado em uma rede neural que constrói alguns níveis, ele funciona muito bem.

A filosofia do indicador é a de procurar por algum sobre-comprado/sobre-vendido real ou centímetro.

Dá cerca de 1-2 sinais por semana, se o sinal for identificado correctamente, funciona com uma probabilidade próxima dos 100%.


O problema é que não sou especialista em mql e o indicador está escrito em R (com uso de bibliotecas diferentes), não sou capaz de aprender mql.

Se houver um desenvolvedor disposto a integrar o código em mql e visualizá-lo em mt4, estou pronto para discutir e ajudar no futuro.

Não... Eu não tenho nenhum aqui :-(

 
Maxim Dmitrievsky:

O 10 não é nada de 2000 modelos. O particionamento aleatório está presente como está, mas os conjuntos de dados também mudam. Um ultrabook em 1 núcleo conta em 15-20 minutos.

A propósito do jpedictor - eu estava a bisbilhotar a versão que me deste e no UPOR não vi lá uma máquina nuclear... queria puxá-la para fora, ver como funciona

por que razão, camaradas?

não sei o que usar excepto erro de classificação ou logloss

está lá a 100%. Eu já comecei lentamente a refazê-lo para mim. Agora, instalar um modelo no MKUL é um caso de 5 segundos...