Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Ok. Mas eu ainda gostaria de saber um pouco mais sobre a prática: o que alimentamos a entrada, que dimensão N deve ser definida, etc.? A menos, é claro, que não seja um segredo :) Eu sou um boneco neste negócio, mas pronto para entrar.
Eu expus o indicador acima. O ângulo de declive da regressão linear é alimentado pela entrada. Tente rodá-lo na Eura 1 hora
Obrigado, vou dar uma olhada :)
Eu gostaria de acrescentar uma conta Z a esta coisa e isso seria bom :)
Sim, é uma coisa engraçada. Obrigado novamente, klot, já tive o suficiente para o fim de semana :)
E em geral, qualquer NS pode ser facilmente programado diretamente na MQL4. Você também pode selecionar os pesos da NS usando o MT4 GA ou o seu próprio. O pessimismo é definido apenas pela falta de imaginação e fantasia. Basicamente, não há limites...
O pessimismo é definido pelas limitações do testador de estratégia, ou seja, se o intervalo de valores de entrada for grande ou o número desses mesmos valores exceder o limite, o otimizador se recusa a começar. Portanto, afinal de contas existem limites.
Hoje eu finalmente terminei de construir uma rede neural escrita inteiramente em MQL4 com arquitetura 3:3:1 (três neurônios na entrada, três entradas ocultas, uma saída). Todas as camadas são configuradas usando o testador GA. Mas o problema é que para 1 camada você precisa de pelo menos 12 parâmetros de entrada, pelo menos com valores de -1 a 1 em passos de 1 (como Rosenblatt). Mas o otimizador não consegue lidar com tantos. Tive que me contornar e simplificar a primeira camada.
Em contraste com a malha de outra pessoa, a malha feita por ela mesma é melhor, pois pode ser atualizada. Por exemplo, além de tornar a primeira camada não-standard, acrescentei a normalização dinâmica dos dados de entrada.
Os sinais nas entradas são bastante primitivos:
Apesar da primitividade mencionada acima, a grade se mostra muito treinável, ou seja, pesos e limites são facilmente escolhidos de modo que os resultados dos testes se revelam sem um único erro (sem fator de lucro). Mas depois de tal encaixe, o teste de avanço começa imediatamente a cair sobre a propagação. Tive que mexer na estratégia comercial, de modo a não permitir que a rede se ajustasse.
Valeu a pena o esforço, embora tenha feito meu cérebro virar de dentro para fora:
Estes são os resultados do teste. De 1 a 273 ofícios - otimização, mais um teste de avanço.
E aqui está o teste de avanço:
Aqui estão os resultados do teste de avanço:
O mais interessante é que mesmo a partir do gráfico podemos ver que a seção de otimização é pior do que a seção dianteira. Isto raramente acontece. Embora eu tenha selecionado este como o melhor de muitos outros, ou seja, outros atacantes têm resultados muito piores do que os de otimização, mas ainda assim eles têm os melhores.
O pessimismo é determinado pelas limitações do testador de estratégia, ou seja, se as faixas de valores de entrada forem grandes ou o número desses mesmos valores exceder o limite, o otimizador se recusa a começar. Portanto, afinal de contas existem limites.
Hoje eu finalmente terminei de construir uma rede neural escrita inteiramente em MQL4 com arquitetura 3:3:1 (três neurônios na entrada, três entradas ocultas, uma saída). Todas as camadas são configuradas usando o testador GA. Mas o problema é que para 1 camada você precisa de pelo menos 12 parâmetros de entrada, pelo menos com valores de -1 a 1 em passos de 1 (como Rosenblatt). Mas o otimizador não consegue lidar com tantos. Tive que me contornar e simplificar a primeira camada.
Em contraste com a malha de outra pessoa, a malha feita por ela mesma é melhor, pois pode ser atualizada. Por exemplo, além de tornar a primeira camada não-standard, acrescentei a normalização dinâmica dos dados de entrada.
Os sinais nas entradas são bastante primitivos:
Apesar da primitividade mencionada acima, a grade se mostra muito treinável, ou seja, pesos e limites são facilmente escolhidos de modo que os resultados dos testes se revelam sem um único erro (sem fator de lucro). Mas depois de tal encaixe, o teste de avanço começa imediatamente a cair sobre a propagação. Tive que mexer na estratégia comercial, de modo a não permitir que a rede se ajustasse.
Valeu a pena o esforço, embora tenha feito meu cérebro virar de dentro para fora:
Eu fiz uma grade normal de 256 entradas, uma camada oculta por cada 256 neurônios. E uma camada de saída de um neurônio. E eu treinei tudo perfeitamente no MT4
Havia uma opção com três camadas ocultas, mas elas eram desnecessárias