Como formar os valores de entrada para os NS corretamente. - página 10
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Não importa, desculpe se eu estiver errado.
Tentarei explicar com mais detalhes o que é essa verificação cruzada, se esse posto não estiver claro. Suponha que estamos treinando uma rede para um erro mínimo. Suponha que tentamos em 2007 e obtivemos resultado intermediário 0,5. Verificamos em 2008 e obtemos 0,8. Esta rede é memorizada e continuamos o treinamento. Depois obtivemos 0,4 para 2007 e verificamos com 0,7 para 2008. As redes antigas são descartadas, e nós memorizamos esta rede e a seguimos com treinamento. Depois obtivemos 0,3 para 2007 e 0,6 para 2008. A rede anterior é descartada e lembre-se desta rede e continue o treinamento. Para 2007 - 0,2, para 2008 - 0,8. Esta rede não é memorizada, a anterior é mantida. Será guardado na memória e treinado posteriormente. Se não tivermos conseguido obter abaixo de 0,6 em 2008, mantemos a rede com 0,6 em 2008 e 0,3 em 2007, e não aquela com 0,2 ou menos em 2007. Com efeito, o treinamento adicional da rede é um treinamento excessivo. Isto evita o excesso de treinamento, embora nem sempre o poupe.
E como você pode ver, os testes futuros não têm nada a ver com isso......)))))
...
E sobre o código -- a Neurosolutions ou Neuroshel 2 portará o código para a MQL4? Escreverei algumas funções, que acho que serão úteis para os habitantes daqui, e talvez para mim também. Mais uma razão para escrever uma centena de linhas de código - demorarei uma hora.
Não. Através da importação de dll/def ou da reescrita de "c".
Escreverei algumas funções, que acho que serão úteis para os habitantes daqui, e talvez para mim também. Mais uma razão para escrever cem linhas de código -- é uma hora de tempo.
Especialmente, se eles se dedicarem a "1. Preparação de dados de entrada. (deslocamento médio, decorrelação, equalização da covariância).", então muito legal, e se ... outra implementação de NS na MQL4, então ...
Eu, por exemplo, nunca fui capaz de descobrir como implementar belas palavras "significado de entradas", "correlação cruzada de entradas" em código (não tenho Ezhov à mão para inserir palavras mais belas). Isto é, fórmulas/algoritmos que eu conheço, mas para OHLC, ruído ou vice-versa filtros DC, e apenas "valores discretos" quando os minutos são engraçados e os dias estão atrasados. :)
Não. Através da importação de dll/def ou da reescrita de 'c'.
Especialmente se eles se dedicarem a "1. Preparação dos dados de entrada. (Deslocamentos médios, decorações, equalização de covariância).",
>> É isso mesmo.
Eu, por exemplo, nunca fui capaz de descobrir como implementar as belas palavras "significado de entradas", "correlação cruzada de entradas" em código (sem Ezhov em mãos para inserir palavras mais bonitas). Isto é, fórmulas/algoritmos que eu conheço, mas para OHLC, ruído ou vice-versa filtros DC, e apenas "valores discretos" quando os minutos são engraçados e os dias estão atrasados. :)
Qual é o problema? As fórmulas não se importam se elas lhes dão dados minuciosos ou semanais.
Vou tentar explicar com mais detalhes o que é essa verificação cruzada, se esse posto não estiver claro. Suponhamos que estamos treinando uma rede para um erro mínimo. Suponha que tentamos em 2007 e obtivemos resultado intermediário 0,5. Verificamos em 2008 e obtemos 0,8. Esta rede é memorizada e continuamos o treinamento. Depois obtivemos 0,4 para 2007 e verificamos com 0,7 para 2008. As redes antigas são descartadas, e nós memorizamos esta rede e a seguimos com treinamento. Depois obtivemos 0,3 para 2007 e 0,6 para 2008. A rede anterior é descartada e lembre-se desta rede e continue o treinamento. Para 2007 - 0,2, para 2008 - 0,8. Esta rede não é memorizada, a anterior é mantida. Será guardado na memória e treinado posteriormente. Se não tivermos conseguido obter abaixo de 0,6 em 2008, mantemos a rede com 0,6 em 2008 e 0,3 em 2007, e não aquela com 0,2 ou menos em 2007. Com efeito, o treinamento adicional da rede é um treinamento excessivo. Isto evita o excesso de treinamento, embora nem sempre o poupe.
E como você pode ver, os testes futuros não têm nada a ver com isso......)))))
Em outras palavras, o treinamento/optimização não termina quando o erro é mínimo na amostra de treinamento, mas antes que o erro comece a aumentar na amostra de teste.
Em outras palavras, o treinamento/optimização termina não quando o erro é mínimo na amostra de treinamento, mas antes que o erro comece a aumentar na amostra de teste.
Portanto, basicamente sim. Porque a teoria diz que a magnitude do erro na amostra de teste primeiro diminui quando o erro na amostra de treinamento diminui, e depois começa a aumentar, embora o erro na amostra de treinamento continue diminuindo. O truque é pegar este cocho. Este é o ponto de sobretreinamento (para redes) ou sobre-optimização (para TC).
Bem, sim. Porque a teoria é que o erro na amostra de teste primeiro diminui quando o erro na amostra de treinamento diminui, e depois começa a aumentar, mesmo que o erro na amostra de treinamento continue diminuindo. O truque é pegar este cocho. Este é o ponto de sobretreinamento (para redes) ou sobre-optimização (para TC).
Absolutamente certo. Há apenas uma pequena observação a fazer. Quando a curva está subindo, pode haver mínimos, mas eles devem ser superiores ao primeiro mínimo (em teoria). Embora às vezes possa ser menos (na prática), mas é raro.
E aqui está uma foto sobre o supertreinamento
Absolutamente certo. Há apenas uma pequena observação a fazer. Quando a curva está subindo, pode haver mínimos, mas eles devem ser superiores ao primeiro mínimo (em teoria). Embora às vezes possa ser menos (na prática), mas é raro.
Bem visto.
Em geral, a teoria neste tópico já disse muito (você pode defender uma tese em nosso fórum :).
E a mente está agora sedenta por experiências práticas e conhecimentos.
Se possível, deixe os profissionais compartilharem sua experiência na análise e preparação dos valores de entrada . Estes são exemplos concretos.
>> Obrigado.
Os valores de entrada também não são uma questão simples. O que fornecer para a entrada principal depende de muitos fatores -
1. Que tipo de rede neural é utilizada.
2. O que queremos obter da rede neural - preço ou direção de movimento ou pontos de inversão ou a próxima vela ou outra coisa.
Portanto, primeiro você tem que decidir sobre estas questões e depois decidir sobre os insumos.