Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Até quando a treinamos? Até o mínimo erro? É preciso entender que será 100% sobretreinamento. Não ao mínimo erro? Então até o quê? Qual é o lucro? E por que exatamente a este erro? O lucro aumentará ou diminuirá se diminuirmos ligeiramente o erro? E se você aumentar o erro?
Como esta.....))))
Até o mínimo erro. Para evitar "supertreinamento" (palavra que não reflete o significado do fenômeno), o número de neurônios na rede deve ser o menor possível. Após o treinamento, existem procedimentos como analisar a influência de insumos individuais na rede e remover neurônios fracos, e um procedimento como reduzir o número de neurônios. Como se fosse para colocar figurativamente ... para que neste cérebro eletrônico não haja espaços vazios que não sejam afetados pelo treinamento.
Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно, делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?
Como não responder. A resposta.
joo escreveu >>
Digamos que você esteja interessado no TS dando o máximo de lucro possível e com a maior freqüência possível, isto é, tentando aumentar a porcentagem de negócios lucrativos e, é claro, o MO.
A partir de uma rede treinada neste princípio, você pode esperar que haja lucros também no OOS. Você precisa aplicar um erro quadrático médio que acentua a rede sobre os padrões que contribuem para estes objetivos. Ou seja, a rede se concentra em padrões específicos que levam a algum tipo de conseqüência.
No entanto, se você usar o erro raiz-medo quadrado, há uma "média" dos padrões, não uma ênfase.
Você precisa treinar até o mínimo erro médio de raiz. E o supertreinamento acontecerá se você usar o erro médio raiz (não para aproximação). Para aproximação, quanto menor o erro RMS, melhor.
É claro que ninguém provavelmente dará respostas específicas às suas perguntas, mesmo que quisesse. Eu só tentei mostrar que a escolha da função de adequação é quase uma tarefa mais importante que determinará as respostas às nossas perguntas do que a escolha dos valores de entrada para a grade. E como regra, limita-se a enumerações agonizantes e demoradas de dados de entrada......
E a Integer ficou um pouco à frente da curva enquanto eu escrevia. Eu concordo com ele.
Até o mínimo erro. Para evitar "supertreinamento" (palavra que não reflete o significado do fenômeno), o número de neurônios na rede deve ser o mais baixo possível. Após o treinamento, há procedimentos como analisar a influência de insumos individuais na rede e remover os fracos, e um procedimento como reduzir o número de neurônios. Como se fosse para colocar figurativamente ... para que neste cérebro eletrônico não haja espaços vazios que não sejam afetados pelo treinamento.
E o que você quer dizer com "requalificação"?
Eu concordo com você, assim como concordo com a Integer. Mas você mesmo escreveu -
E o que você entende pela palavra "requalificação"?
No contexto da aplicação e treinamento de redes neurais, eu não o entendo de forma alguma, não reflete o significado do fenômeno. Como eles escrevem sobre redes neurais, por exemplo, aqui (e não só) - http://www.exponenta.ru/soft/others/mvs/stud3/3.asp:
Muito poucos exemplos podem causar "supertreinamento" da rede, quando ela tem um bom desempenho em exemplos de treinamento, mas pouco em exemplos de teste sujeitos à mesma distribuição estatística.
Entendido como o treinamento da rede em menos exemplos do que ela pode acomodar. Fica denteado e confuso se a situação não se assemelha exatamente à experiência denteada. A palavra "entalhado" é da palavra "rote" - conhecer de cor, mas não compreender ou ser capaz de aplicar as informações.
Я с вами согласен, точно так же как и с Integer. Но вы сами написали -
))))Bem, ainda assim, eu quis dizer em números específicos improváveis. :)
No contexto da aplicação e treinamento de redes neurais, eu não o entendo de forma alguma, não reflete o significado do fenômeno. Como eles escrevem sobre redes neurais, por exemplo, aqui (e não só) - http://www.exponenta.ru/soft/others/mvs/stud3/3.asp:
Entendo isso como o treinamento de uma rede em menos exemplos do que ela pode acomodar. Fica denteado e confuso se a situação não parecer exatamente como uma experiência denteada. "roleta" vem da palavra "roleta" - conhecer de cor, mas não compreender ou poder aplicar as informações.
O termo "overlearning", em minha opinião, aplica-se mais à aplicação de redes neurais nos mercados financeiros. Sabemos que o mercado muda com o tempo, os padrões mudam, e o mercado futuro não será exatamente o mesmo que no passado. Assim, quando uma rede aprende, aprende muito bem o mercado e não é mais capaz de trabalhar adequadamente no futuro - no mercado que mudou. Isto é "over-learning". A redução do número de neurônios é, naturalmente, um método para evitar a "reciclagem". Mas não funciona sozinho.
Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно(для "академических целей"), делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?
Ну вот как-то так.....))))
A rede é treinada para um erro mínimo na amostra de teste, ajustando os pesos na amostra de treinamento.
A rede é treinada para um erro mínimo na amostra de teste, ajustando os pesos na amostra de treinamento.
É compreensível. Quanto menor o erro, maior o lucro? Ou qual é a correlação?
До минимальной ошибки. Чтобы "переобучения" (слово совершенно не отражающее смысл явления) не было, количество нейронов в сети должно быть минимально возможным. После обучения существует такие процедуры, как анализ влияния отдельных входов сети и удаление слабовлиящих, и такая процедура, как сокращение количества нейронов. Как бы так образно ... чтобы в этом электронном мозге не оставалась пустых мест не затронутых обучением.
O número de neurônios nem sempre desempenha um papel decisivo, embora a seleção do número de neurônios (que na maioria dos casos é mínimo sem perda de precisão) leve a uma redução no erro.
Influenciar as entradas e remover as desnecessárias pode muitas vezes ter um efeito maior do que selecionar os neurônios em uma camada.