Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2827
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
h ttps:// youtu.be/4yrp71kAZxU
Então, o que há de tão interessante nisso?
Ao treinar neurônios, como você tem certeza de que ele não está preso em algum lugar local?
Na neurônica, a divisão em lotes ajuda a evitar
Em outros algoritmos de otimização, também é útil executar ou dividir em lotes várias vezes, por exemplo
além de ajustar a etapa do gradiente e outros truques.
Ainda assim, você deve explorar a vizinhança do ótimo por meio da alteração dos hiperparâmetros para ver se o sistema é capaz de sobreviver.Na neurônica, a divisão em lotes ajuda a evitar
Em outros algoritmos de otimização, também é útil executar ou dividir em lotes várias vezes, como
além de ajustar a etapa do gradiente e outros truques.
Ainda assim, você precisa explorar a vizinhança do ótimo por meio da alteração dos hiperparâmetros para ver se o sistema é capaz de sobreviver.Tenho vergonha de perguntar: o que são lotes?
Não, quero dizer, como você pode ter certeza de que o neurônio não ficará preso em algum lugar? Ele é testado quanto à resistência a interferência?
Tenho vergonha de perguntar: o que são lotes?
Não, quero dizer, como você pode ter certeza de que o neurônio não ficará preso em algum lugar? Ele é testado quanto à resistência a ficar preso?
Ele é testado em novos dados, por meio de parada antecipada, por exemplo.
Quando o erro cai nos dados de treinamento e começa a crescer nos novos dados. Desde que não comece a crescer com os novos dados, isso significa que ainda não está travado.
os lotes são pacotes de dados para treinamento: não é necessário treinar todo o conjunto de dados de uma só vez, você pode dividir os dados em pacotes e treiná-los a cada iteração.
Como os ótimos em cada pacote variam, a média será algo menor que o ótimo para todos eles.
Em princípio, é um pouco difícil avaliar qual é o ideal. E se a amostra for deslocada, o que fazer? Como encontrar esse ótimo global em uma subamostra deslocada?
Bem, se a pergunta for, em princípio, sobre algoritmos de otimização, você tem razão em perguntar. Mas então você começa a deslocar as amostras, o que cria mais problemas do que essa pergunta.
se você passar um pouco da teoria para a prática :)
é testado em novos dados, por meio de uma parada antecipada, por exemplo.
quando o erro cai nos dados de treinamento e começa a crescer nos novos dados. Desde que o erro não comece a crescer com os novos dados, isso significa que ainda não estamos presos
os lotes são pacotes de dados para treinamento: não é necessário treinar todo o conjunto de dados de uma vez, você pode dividir os dados em pacotes e treiná-los a cada iteração.
Como os ótimos em cada pacote variam, a média será algo menor que o ótimo para todos eles.
Em princípio, é um pouco difícil avaliar qual é o ideal. E se a amostra for deslocada, o que fazer? Como encontrar esse ótimo global em uma subamostra deslocada?
Bem, se a pergunta for, em princípio, sobre algoritmos de otimização, você tem razão em perguntar. Mas então você começa a deslocar as amostras, o que cria mais problemas do que essa pergunta.
se você passar um pouco da teoria para a prática :)
ah, então eu entendi sua primeira resposta corretamente. não há como verificar a resistência ao congestionamento.
O que você diz "o erro cai nas amostras de treinamento e começa a crescer nas novas amostras" não é um teste de interferência, mas apenas um critério para interromper o treinamento.
minha pergunta é sobre os algoritmos de otimização que as pessoas aqui usam para treinar neurônios, não sobre o aumento da estabilidade dos neurônios em novos dados, que é o segundo estágio. bem, o primeiro estágio ainda não foi discutido aqui))))
Ah, então acertei sua primeira resposta. Não há como testar a resistência a interferência.
O que você diz sobre "o erro cai nos de treinamento e começa a crescer nos novos" não é um teste de interferência, mas apenas um critério para interromper o treinamento.
Minha pergunta é sobre os algoritmos de otimização que as pessoas aqui usam para treinar neurônios, e não sobre o aumento da estabilidade dos neurônios em novos dados, que é o segundo estágio. bem, o primeiro estágio ainda não foi discutido aqui))))
Bem, mais ou menos, sim, mas não discutido. Nos neurônios, o mais popular é o algoritmo de otimização Adam. Talvez você também possa testá-lo de alguma forma
Isso mesmo, não foi discutido de forma alguma.
Na prática, isso significa que o neurônio será pouco treinado, ou seja, o erro em novos dados começará a crescer mais cedo do que se fosse usado um AO mais resistente a interferência.