Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3332
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Senhores! Vocês não estão misturando o tópico? Seria bom limpar 2-3 páginas do offtopic.
O artigo de Alexey foi publicado há uma hora, leia-o.
Acho que já discutimos sua quantificação em seu tempo por todos os lados. Só posso acrescentar ao que disse anteriormente que estou feliz por ele ter recebido pelo menos US$ 200.
Acho que já discutimos sua quantificação em seu tempo por todos os lados. Só posso acrescentar ao que disse anteriormente que estou feliz por ele ter recebido pelo menos US$ 200.
Obrigado, é bom ficar feliz com minha renda - isso é raro!
O artigo é introdutório - você está certo, tudo o que escrevi lá - eu acho, e muito claro.
A segunda parte é moderada, é um pouco mais interessante. No entanto, no momento, desisti de descrever meu próprio método e criei uma versão simplificada, que teve um pequeno efeito nos testes. Ela será descrita na segunda parte.
Entretanto, esse é o caso quando as novas ideias não ocupam mais do que 5% do texto.
Volte para ler e comentar, se desejar.
Não sei a qual Diógenes você se refere, mas no sentido de trollagem, somos todos crianças em comparação com Diógenes de Sinope ou Diógenes de Laertes.
Se você observar as datas do meu tópico, meu registro no recurso e o de hoje, tudo ficará mais claro. Dois anos após o registro, ainda havia esperança de um diálogo construtivo e útil no fórum e, seis anos e meio depois, quase não há mais esperança. Só por diversão.
Aqui está, obrigado, é bom ficar feliz com minha renda - uma ocorrência rara!
O artigo é introdutório - você está certo, tudo o que escrevi lá - acho que está claro o suficiente.
A segunda parte está sob moderação, é um pouco mais interessante. No entanto, no momento, desisti de descrever meu próprio método e criei uma versão simplificada, que produziu um pequeno efeito nos testes. Ela será descrita na segunda parte.
Entretanto, esse é o caso quando as novas ideias não ocupam mais do que 5% do texto.
Volte para ler e comentar, se desejar.
Por que aleatoriamente?
Percorra todos os pontos de uma classe e meça a distância até todos os pontos da outra classe, tomando a distância mínima.
Quando tudo for obtido, classifique e exclua até a distância necessária, um par de cada vez. Se o ponto excluído foi usado em outro par, encontre um novo ponto com uma nova distância mínima, classifique novamente e continue.
Talvez você consiga pensar em uma maneira melhor. Talvez sem classificação - apenas exclua até a distância necessária.
Acho que não estou entendendo direito:
Será que entendi corretamente o protótipo do algoritmo?
Estou retornando ao tópico com tanto atraso porque estou um pouco fascinado pela ideia de que as folhas nos modelos CatBoost e em outros conjuntos de árvores podem estar fortemente correlacionadas na ativação, o que distorce sua confiança durante o treinamento, levando a uma superestimação do valor da folha para o modelo como um todo.
Acho que sou um pouco lento na assimilação:
Será que entendi corretamente o protótipo do algoritmo?
Estou retornando ao tópico com tanto atraso porque estou um pouco fascinado pela ideia de que as folhas nos modelos CatBoost e em outros conjuntos de árvores podem estar fortemente correlacionadas na ativação, o que distorce sua confiança durante o treinamento, levando a uma superestimação do valor da folha para o modelo como um todo.
1) Você também pode usar uma matriz, mas não necessariamente, mas encontre imediatamente para cada ponto da classe 0 o ponto mais próximo da classe 1, ou seja, obtemos imediatamente o ponto 2.
3) não conte nada e não se refira a clusters, apenas remova os pares de pontos mais próximos. Com a distância menor que o limite, o limite nesse exemplo seria 0,6. Em outros problemas, provavelmente teremos de selecioná-lo.
Se um ponto excluído de 1 classe tiver sido emparelhado com outro ponto de 0 classe, ele ficará sem par e terá de encontrar um novo ponto mais próximo de 1 classe (novamente, faça um cálculo ou use uma matriz, como você sugeriu no ponto 1, se a memória for suficiente, acho que uma matriz de 1 milhão por 1 milhão não caberá em nenhuma memória, talvez até 100 mil).
4) não até que ele permaneça, mas até a distância limite. Se ela for muito grande, restarão apenas os pontos de 1 das classes, que inicialmente eram mais.
Mas, como escrevi antes, não acho que essa remoção de ruído seja uma boa ideia (consulte https://www.mql5.com/ru/forum/86386/page3324#comment_50171043). Não é que você não possa remover esse ruído ao fazer previsões. A própria árvore marcará as folhas ruidosas atribuindo a elas uma probabilidade de cerca de 50% e tomará, por exemplo, as folhas não ruidosas com uma probabilidade de uma das classes >80% (ou quantas você achar necessário).
Os clusters não têm nada a ver com isso. Trata-se apenas de remover os pontos mais próximos com classes diferentes que se contradizem, ou seja, ruído. Em seguida, você pode usar o agrupamento ou a árvore, o que quiser treinar.
.
1) Você também pode usar uma matriz, mas não necessariamente, mas encontre imediatamente em cada ponto da classe 0 o ponto mais próximo da classe 1, ou seja, obtemos imediatamente o ponto 2.
3) não conte nada e não se refira a clusters, apenas remova os pares de pontos mais próximos. Com a distância menor que o limite, o limite nesse exemplo seria 0,6. Em outros problemas, provavelmente teremos de selecioná-lo.
Se um ponto excluído de 1 classe tiver sido emparelhado com outro ponto de 0 classe, ele ficará sem par e terá de encontrar um novo ponto mais próximo de 1 classe (novamente, faça um cálculo ou use uma matriz, como você sugeriu no ponto 1, se a memória for suficiente, acho que uma matriz de 1 milhão por 1 milhão não caberá em nenhuma memória, talvez até 100 mil).
4) não até que ele permaneça, mas até a distância limite. Se ela for muito grande, restarão apenas os pontos de uma das classes, que inicialmente eram mais.
Mas, como escrevi antes, não acho que essa remoção de ruído seja uma boa ideia (consulte https://www.mql5.com/ru/forum/86386/page3324#comment_50171043). Não é que você não possa remover esse ruído ao fazer previsões. A própria árvore marcará as folhas ruidosas atribuindo a elas uma probabilidade de cerca de 50% e tomará, por exemplo, as folhas não ruidosas com uma probabilidade de uma das classes >80% (ou quantas você achar necessário).
Ainda não consigo entender isso. Bem, tudo isso acontece em um espaço, na métrica de um preditor, mas como levar em conta os outros?
Quanto ao que fazer na previsão, eu estava pensando em usar dois modelos: um que detecta o que foi descartado ou confirma que os dados estão na região de "aglomeração" e outro que já trabalha com o que resta.
Ainda não consigo entender isso. Bem, tudo acontece em um espaço - na métrica de um preditor, mas como levar em conta os outros?
Quanto ao que fazer na previsão, eu estava pensando em usar dois modelos: um detecta o que foi eliminado ou confirma que os dados estão na área de "aglomeração", e o outro já trabalha com o que resta.
https://www.mql5.com/ru/articles/9138
Ninguém está se importando há um ano
Escrevi uma dúzia ou vinte algoritmos como esse, alguns estão bem estabelecidos. O que está no artigo não é o melhor em termos de estabilidade dos resultados, a primeira panqueca.
Portanto, não há nada a ser discutido, porque ainda não há nada melhor.