Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 595
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Quando se entra num edifício chamado "Estatísticas", diz"Lixo dentro, lixo fora" por cima da entrada.
Qualquer indicador é uma função do preço. As redes neurais têm uma não clemência. É capaz de derivar qualquer fórmula indicadora por si só, se a rede for suficientemente profunda. Se a rede não pode aprender sobre os dados de preços, não é por causa dos inputs, mas pelo fato de que é impossível receber dados de saída sobre os preços.
Qualquer indicador é uma função do preço. As redes neurais não têm clemência. É capaz de derivar qualquer fórmula indicadora por si só, se a rede for suficientemente profunda. Se a rede não pode aprender com os dados de preço, então não se trata de inputs, mas do fato de que, em princípio, não se pode obter dados de saída a partir do preço.
Tanto você como o SanSanych têm razão.
Por um lado, os NS construirão automaticamente o indicador necessário e a sua totalidade. Por outro lado, se os dados não estiverem limpos e houver muito ruído, nenhum NS será capaz de aprender alguma coisa. Então, também é sobre as entradas.
Qual é a importância de misturar a amostra no treinamento da NS? Quais são as justificativas matemáticas para isso?
A mistura é relevante para todos os modelos MOE ou apenas para alguns modelos específicos?
Qual é a importância de misturar a amostra no treinamento da NS? Quais são as justificativas matemáticas para isso?
A mistura é relevante para todos os modelos MoD ou apenas para alguns modelos específicos?
É necessário misturá-lo para que o algoritmo de aprendizagem não siga o mesmo caminho com cada ciclo. Podemos bater e falhar em sair do extremo local.
ou seja, você precisa se misturar e treinar algumas vezes e ver como os resultados se correlacionam?
ou seja, embaralhar algumas vezes, treinar algumas vezes e ver como os resultados se correlacionam?
Mexer depois de cada época de treino. Infelizmente, muitos algoritmos de aprendizagem não permitem quebras (ver Python - alguns pacotes (módulos)) e começam do zero todas as vezes.
A agitação também é boa para combinar com o recozimento. Mas, mais uma vez, é difícil fazer isto na máquina. Você sempre precisa olhar para os resultados intermediários, e então planejar outras etapas.
O embaralhamento deve ser feito após cada época de treinamento. Infelizmente, muitos algoritmos de aprendizagem não permitem quebras (ver Python - alguns pacotes (módulos)) e começam do zero todas as vezes.
A agitação também é boa para combinar com o recozimento. Mas, mais uma vez, é difícil fazer isto na máquina. Você sempre tem que observar os resultados intermediários e depois planejar seus próximos passos.
Uau... é isso... ou seja, só misturar antes do treino não faz sentido.
E você tem agora) Rattlesnake é CatBoost.
---------
Se alguma vez tiveres vontade de apanhar um bóson...
https://www.kaggle.com/c/higgs-boson
A mistura de arcos é feita por defeito antes de cada época. Tentei desligá-lo - não aprendi nada.
Então eu estava a pensar, se tudo está baralhado, como posso fazer com que os novos dados tenham um efeito mais forte na aprendizagem?
A mistura de arcos é feita por defeito antes de cada época. Tentei desligá-lo - não aprendi nada.
Então eu estava a pensar, se tudo está baralhado, como posso fazer com que os novos dados tenham um efeito mais forte na aprendizagem?