Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 489
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Eu também estou a divertir-me. Experimentei em amostras aleatórias - os resultados são incríveis. Eu ainda não fiz o TC.
Maxim diz que é uma longa curva de aprendizagem. Eu tenho cerca de 23 horas. Mas mesmo que eu o faça uma vez a cada 3 meses - que lixo).
E durante 3 meses é exactamente o suficiente, já não é testado.
Eu ainda não tinha entrado em tais detalhes. Meu Expert Advisor não é complexo, eu o otimizei por 12 horas e depois o esqueci. Hoje eu tentei com as mesmas configurações.
Eu ainda não me meti nesse tipo de problemas. O Expert Advisor não é complicado, eu o otimizei por 12 horas e depois esqueci dele. Hoje, eu corri com essas configurações.
Sim, o meu avançado é um merdoso. Eu tenho 6% de maus negócios no forward (amostragem aleatória). Rede - 5 camadas, 50 neurónios.
Qual é a sua rede?
Hoje decidi verificar, a minha rede baseada no percetron. Otimizado para maio-junho de 2016, o EURUSD, com um spread de 15 pips.
A própria cauda.
De qualquer forma, ainda estou confuso com o resultado.
Eu já tenho muitas versões desses sistemas no backtest, todos eles são backtesting como estoques de centavos ) que é o nome do retracement
Sim, o avançado é péssimo. Eu tenho 6% de negócios falhados no meu atacante. Cinco camadas, 50 neurónios.
Qual é o seu?
Três camadas, 9 neurónios cada. A foto mostra uma seção muito longa de 2004 a 2016. Escolhi a longa história para verificar se o resultado é estável ao longo de todo o intervalo. Por outro lado, o drawdown no forward é o maior, mas por outro lado o robô começou a ganhar lucro na segunda metade do forward.
wolf-forward é necessário, não se pode optimizar assim, a frente será sempre má (ou aleatória) neste caso, já tenho um monte de versões de tais sistemas bilionários no backtest, que na frente funciona como uma moeda ) isto é chamado de overfitting
Vamos ver daqui a mais meio ano.
Vamos ver daqui a mais meio ano.
Tente verificar constantemente o erro NS quando novos dados chegam (na amostra de teste), se o erro aumentou em uma determinada %, então retrainhe NS automaticamente, e assim por diante durante todo o período de backtest... mas isso requer aprendizado rápido, mas você também não precisa de um grande conjunto de treinamento. Em resumo, para usar NS como um otimizador interno
Estou a tentar escrever um artigo baseado nesse esquema, talvez o termine em breve.
Tente verificar constantemente o erro NS quando novos dados chegam (na amostra de teste), se o erro aumentou em dado%, então retorne NS automaticamente, e assim por diante durante todo o período de backtest... mas isso requer aprendizado rápido, mas você também não precisa de um grande conjunto de treinamento. Em resumo, para usar NS como um otimizador interno
Estou a tentar escrever um artigo baseado num esquema destes, talvez em breve o termine.
Com todo o respeito.
Tente verificar constantemente o erro NS quando novos dados chegam (na amostra de teste), se o erro aumentou em dado%, então retorne NS automaticamente, e assim por diante durante todo o período de backtest... mas isso requer aprendizado rápido, mas você também não precisa de um grande conjunto de treinamento. Em resumo, para usar NS como um otimizador interno
Estou a tentar escrever um artigo baseado num esquema destes, talvez o termine em breve.
Por favor, escreva uma descrição do companheiro, para os bonecos. Eu comecei a ler, mas o que é Sugeno, Mamdani não merda nenhuma que eu não consegui entender).
Algo como no artigo sobre o classificador Bayesiano de nayva.https://www.mql5.com/ru/articles/3264
Haverá uma rápida optimização no artigo? Gostaria de dar uma vista de olhos.
Com todo o respeito.
Sim, através de bosques aleatórios, muito rápido.
Por favor, escreva uma descrição do aparelho dos chimpanzés, para os chimpanzés. Eu comecei a ler, mas não consigo entender nada sobre Sugeno, Mamdani).
Algo como no artigo sobre o classificador Bayesian nayve.https://www.mql5.com/ru/articles/3264
Portanto, há muita informação na internet :) há 7 etapas, são bastante longas para descrever, mas deram links. Mamdani e Sugeno diferem apenas em inferência lógica (não-linear e linear)
Só não vejo o interesse em copiar a mesma coisa.