Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Absolutamente. Porque não há um professor perfeito para a rede. Ou melhor, não podemos saber qual pode ser o professor perfeito para a rede.....))))
Absolutamente. Porque não há um professor perfeito para a rede. Ou melhor, não podemos saber qual pode ser o professor perfeito para a rede.....))))
Exatamente! Com um professor, só é possível ensinar uma grade sobre uma função que já conhecemos, tal como uma onda sinusoidal. Aqui podemos, sem hesitação, alimentar a rede com o seguinte
do ponto treinado como professor. Este truque não vai funcionar com o mercado.
Sim, e neste caso, quanto menor for o erro na amostra de treinamento, melhor para a rede. Isso não vai funcionar com o mercado.
Não é aconselhável construir uma rede estritamente em treinamento com um professor, é mais fácil descrever todos os padrões manualmente em código, haverá menos erros.
O verdadeiro objetivo da rede neural é ensinar sem um professor, ensinar o que o professor não sabe,
Você será capaz de identificar padrões que você pessoalmente não vê (e ninguém mais vê, o que é uma vantagem).
Louro para amigo: você sabe o que significa "eu não sei".
Namorada: "Eu não sei".
Loira: Bem, ninguém sabe.
Na verdade, é muito mais complicado do que isso. Ao treiná-lo até o erro mínimo na amostra em teste, é provável que você obtenha uma rede sobre-treinamento......
Não é provável, mas é verdade. Verdade. E a redução da rede elétrica para uma melhor generalização não ajuda. O erro mínimo no teste é uma falha no teste a frente.
De acordo. Apliquei a frase "o mais provável" no sentido de um treinamento excessivo sem ambigüidade .....)))) E a redução da energia da rede elétrica às vezes ajuda......
Não é provável, é verdade. >> Verdade. E reduzir a potência da rede para uma melhor generalização não ajuda. O erro mínimo no teste é uma falha no teste a frente.
Vocês, cidadãos, estão ficando sábios para alguma coisa. Ou você inventou algo novo, ou nós não nos entendemos.
Todos os livros didáticos dizem que o treinamento de uma rede com um professor é feito dividindo os dados em uma amostra de treinamento e uma amostra de teste. A rede é treinada minimizando o erro na amostra de treinamento, enquanto há um erro na amostra de teste (teste ou verificação fora da amostra). O aprendizado pára quando o erro na amostra de teste pára de diminuir (mostrado com uma linha pontilhada abaixo). E o erro na amostra de treinamento pode continuar a diminuir, como mostra esta figura
Você afirma que o treinamento da rede deve ser interrompido ainda mais cedo do que a linha pontilhada na foto. Onde exatamente? Então, por que treinar a rede? Por sua lógica, escolha quaisquer valores de pesos e vá em frente e utilize a rede para negociação. É então que você terá um "flush" seguro.
De acordo. Apliquei a frase "o mais provável" no sentido de um treinamento excessivo sem ambigüidade .....)))) E a redução da energia da rede elétrica às vezes ajuda......
Exatamente. É o que acontece, às vezes. Os Grails on MAs às vezes também dão lucro em uma posição futura. Não há (pelo menos eu não fumegantei) uma dependência clara do sistema de resultados prospectivos em relação ao poder (inchaço, neuronicidade, etc.) de uma grade treinada. Não estou dizendo que o tipo de grade não afeta nada - é apenas um dos critérios. Mas o tamanho do lucro fora da amostra de teste tem uma clara dependência (não linear) do grau de aprendizagem - numerosos experimentos com testes "ponta a ponta" o confirmam.
Você argumenta que o treinamento da rede deve ser interrompido ainda mais cedo do que a linha pontilhada na imagem. Onde exatamente? Então, por que treinar a rede? Por sua lógica, escolha quaisquer valores de pesos e vá em frente e utilize a rede para negociação. É aí que você terá o dreno certo.
Não, eu não tenho.
E é difícil argumentar com isso...
Vocês, cidadãos, estão ficando sábios para alguma coisa. Ou você inventou algo novo, ou nós não nos entendemos.
Está escrito em todos os livros didáticos que o treinamento de uma rede com um professor acontece dividindo os dados em uma amostra de treinamento e uma amostra de teste. A rede aprende minimizando o erro na amostra de treinamento enquanto observa o erro na amostra de teste (teste ou verificação fora da amostra). O aprendizado pára quando o erro na amostra de teste pára de diminuir (mostrado com uma linha pontilhada abaixo). Da mesma forma, o erro na amostra de treinamento pode continuar a diminuir, como mostrado nesta figura
Primeiro há um out-of-sample - para ajustar a grade. E então não há nenhum - o verdadeiro futuro está por vir, deve ser previsto. Qual é o critério para parar o treinamento - um certo erro ou o número de treinamentos realizados? Ou algo mais?