Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2751

 
Aleksey Nikolayev #:

Você já fez uma comparação do seu algoritmo com o KNN (ou alguma modificação dele)? Seria interessante saber se o ganho é significativo.

O KNN não é a mesma coisa.


Estou interessado na "capacidade de previsão", não na classificação, e mesmo sem um professor, que é inútil em nosso negócio.

 
Vladimir Perervenko #:

Esse é um grande passo à frente. Os indicadores e especialistas precisam ser reescritos?

Já que você está aqui, obrigado pelo ICA e ainda uma pergunta sobre feature_extraction(que você caracteriza como"reconhecimento de componentes exclusivos e significativos") -- eu estava navegando nesse tópico uma vez (descrição para Python) e depois o abandonei.... Fiquei com a impressão de que eles usam essa extração somente ao trabalhar com imagens e texto. Devemos nos preocupar com essa abordagem ao trabalhar com dados estruturados (como uma tabela de fatores)?... você pode escrever algumas palavras sobre a essência do algoritmo para entender sua utilidade? ou eu perdi alguma coisa? (e o que vi em Python não me inspirou a aplicar feature_extraction a fatores no mercado).

sobre preferências: ou você ainda decidiu ficar com o PCA regular (ou hierárquico, como você descreveu) ???

qual redução de dimensionalidade está usando agora?

e obrigado pelo artigo

Глубокие нейросети (Часть III). Выбор примеров и уменьшение размерности
Глубокие нейросети (Часть III). Выбор примеров и уменьшение размерности
  • www.mql5.com
Эта статья продолжает серию публикаций о глубоких нейросетях. Рассматривается выбор примеров (удаление шумовых), уменьшение размерности входных данных и разделение набора на train/val/test в процессе подготовки данных для обучения.
 

há dúvidas significativas de que as NNs possam funcionar com o aumento das informações. Logo acima, houve uma referência a algo correndo entre as paredes e comendo verde sem tocar no vermelho. À medida que o labirinto aumenta (aumento de informações), ele terá sua memória de vermelho/verde destruída. Assim, ele se move bem na formação anterior, mas não na nova. Desde que os padrões sejam repetidos, ele funciona mais ou menos. E ele funciona perfeitamente somente onde foi treinado.

A contra-tese do mesmo NN para as mesmas condições é que um aluno pode escrever um algoritmo mais eficiente. E outro aluno pode aprimorar esse algoritmo ou trazê-lo para as condições de other_curvature_space (ou otimizar/simplificar). O uso do NN nesse exemplo simplificado é um beco sem saída, pois seu resultado não pode ser melhorado de forma consciente e qualitativa. E esse é um problema geral com o NN (e também com o DL). Esses métodos podem ser usados para reconhecer vermelho/verde, redondo/quadrado de um conjunto de cores avermelhadas, esverdeadas, em um fundo roxo, em preto e branco oblongo. A solução de problemas especiais restritos, não a saída do patrimônio líquido para o infinito

 
СанСаныч Фоменко #:

O KNN não é a mesma coisa.


Estou interessado na "capacidade de previsão", não na classificação, e mesmo sem um professor, que é inútil em nosso negócio.

No entanto, o KNN oferece a maneira mais fácil de lidar com a não estacionariedade se for usado em uma janela deslizante. Ele usa o mesmo conjunto de preditores o tempo todo, o que torna possível compará-lo com um algoritmo que muda o conjunto de preditores e avaliar o benefício dessa complicação.

 
Alexey Burnakov " Estimativa e seleção de preditor" falharam.

Publicarei meu método, que resolve problemas semelhantes de forma robusta e sensível - apresentarei a teoria e publicarei o código em R.

Isso é feito para o enriquecimento mútuo da "compreensão" das tarefas de aprendizado de máquina.

O que eu publiquei não é suficiente para publicar o que você disse?

 
Aleksey Nikolayev #:

No entanto, o KNN oferece a maneira mais fácil de lidar com a não estacionariedade quando usado em uma janela deslizante. Ele usa o mesmo conjunto de preditores o tempo todo, o que torna possível compará-lo com um algoritmo que altera o conjunto de preditores e avaliar o benefício dessa complicação.

Não vejo sentido em fazer algo que não pode produzir o resultado desejado.

 

Quem aqui perguntou sobre a aplicação de NN e IA na negociação?

A plataforma (moderada) (moderada ) ( moderada) (moderada) (moderada) (moderada) (moderada) (moderada) (moderada) entende a descrição das condições/regras/partes-algoritmos de negociação em linguagem natural. É claro que em inglês

Na minha opinião, essa é a direção certa do movimento e da aplicação dos esforços de IA. Como em seu domínio Wolfram, mas Wolfram é principalmente uma enciclopédia

---

no momento, as pessoas que estão no mesmo campo e se comunicam há muito tempo não conseguem se entender. Sem um tradutor automático ou um acordo mutuamente assinado e vinculativo sobre a nomeação de entidades:-)

 
Aleksey Nikolayev #:

Você já fez uma comparação do seu algoritmo com o KNN (ou alguma modificação dele)? Seria interessante saber se o ganho é significativo.

SanSanych Fomenko #:

Não vejo sentido em fazer algo que, em princípio, não pode dar o resultado desejado.


Aleksey Nikolayev #:

No entanto, o KNN oferece a maneira mais fácil de lidar com a não estacionariedade se for usado em uma janela deslizante. Ele usa o mesmo conjunto de preditores o tempo todo, o que torna possível compará-lo com um algoritmo que altera o conjunto de preditores e avaliar o benefício dessa complicação.

Se o KNN for essencialmente K-means (nome estrangeiro para k-vizinhos mais próximos?), ele(K-means) usará a distância euclidiana ... "quando as variáveis não estão correlacionadas, a distância de Mahalanobis coincide com a distância euclidiana usual" ... na LDA . .. bem, se elas estiverem correlacionadas, então a distância de Mahalanobis é melhor, conforme observado ontem em termos gerais
 
СанСаныч Фоменко #:

Não posso concordar com isso.

O mercado está mudando, e os intervalos de tempo da mudança são diferentes e independentes uns dos outros.

Eu costumava escrever Expert Advisors que duravam de 3 a 6 meses. Eu os otimizava nos fins de semana. Depois, eles morriam e, por um curto período de tempo, o suficiente para drenar o depósito. Não havia tempo suficiente para otimizar. No final, a situação era ainda pior: depois de algum tempo, descobriu-se que havia um limite, a partir do qual era impossível selecionar parâmetros.

Há períodos mais longos de mudanças no mercado: 5 a 7 anos. Mas o resultado é o mesmo dos períodos mensais. O bot morre para sempre. Enviarei um bot específico do mercado em uma mensagem privada - não é possível fazer isso aqui.

Portanto, toda essa ideia de "fora da amostra" é uma besteira. Um bot ainda tem uma vida útil, não sabemos quanto tempo: 3 meses ou 7 anos. Quando o bot morre, nós o confundimos com outro drawdown e drenamos nosso depósito.

O ideal é que ele seja treinado novamente no próximo candle. Se trabalharmos com ticks, então com o próximo tick, com o H1 e com a chegada da próxima hora.

Obrigado, está bem claro, por que em cada barra))))) E por que, após os minutos, você passa para os ticks))))))

 
JeeyCi #:


Se o KNN é essencialmente o K-means (nome estrangeiro para k-nearest-neighbors?), ele(K-means) usa a distância euclidiana... "quando as variáveis não estão correlacionadas, a distância de Mahalanobis coincide com a distância euclidiana comum" .... na LDA . .. bem, se elas estiverem correlacionadas, então a distância de Mahalanobis é melhor, conforme observado ontem de forma geral

Nada o impede de usar qualquer outra distância em vez da distância euclidiana. Você não pode usar a distância de Mahalanobis, é claro, pois ela é a distância entre um ponto e uma amostra, não entre dois pontos.