Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 630
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Eu não vou afirmar, mas parece-me que isto são ilusões. Só por razões gerais.
Porquê, Vladimir Perevenko tem informações nos seus artigos, eles são treinados muito rapidamente em centenas de entradas
Eu não li os artigos e não vou discutir. Eu só vi fotos).
O MLP, digamos, pode ser perfeitamente treinado em 10-15 minutos e vai funcionar perfeitamente. Sim, mas isso se os dados forem bem classificados, os conjuntos são separados.
Se pelo contrário - se, por exemplo, no mercado (ou nas suas amostras de treino) simplesmente não houver conjuntos separáveis, então ensine o que quiser para sempre - não haverá resultados.
Porquê, Vladimir Perevenko tem informações nos seus artigos, eles aprendem muito rápido em centenas de entradas
Tudo depende da arquitetura e da quantidade de dados.
As redes para reconhecimento de padrões aprendem durante uma semana na GPU. E há dezenas de camadas com tensores tridimensionais.
Tudo depende da arquitetura e da quantidade de dados.
As redes para reconhecimento de padrões levam uma semana para aprender em uma GPU. E há dezenas de camadas com tensores tridimensionais.
aí ele descreveu as mais simples - rede Boltzmann + MLP, por exemplo
https://www.mql5.com/ru/articles/1103#2_2_2
Eu não li os artigos e não vou discutir. Eu só vi fotos).
O MLP, digamos, pode ser perfeitamente treinado em 10-15 minutos e vai funcionar perfeitamente. Sim, mas isso se os dados forem bem classificados, os conjuntos são separados.
Se no mercado (ou em suas amostras de treinamento) simplesmente não há conjuntos separáveis, então você pode treinar o que quiser para sempre e não haverá resultados.
Vamos simplesmente conduzir uma experiência em nome do "conhecimento científico".
Vamos escolher dados, dimensões, arquitetura MLP, dados de saída.
E todos farão os seus próprios testes com as suas próprias ferramentas.
A quantidade de chamas será menor.
A propósito, podemos fazer tal tradição e testar cada nova arquitetura com o mundo inteiro. =)
Vamos apenas fazer uma experiência em nome do "conhecimento científico".
Vamos escolher os dados, as dimensões, a arquitetura MLP, a saída.
E todos farão os seus próprios testes com as suas próprias ferramentas.
A quantidade de chamas será menor.
A propósito, podemos fazer tal tradição e testar cada nova arquitetura com o mundo inteiro. =)
Estou a partilhar os primeiros resultados da minha NS. A arquitetura é a mesma descrita no deus, eu não mudei nada.
O planalto está bastante equilibrado, a NS já aprendeu bem com 1000 passes, os resultados não melhoraram muito mais.
Estive a estudar durante 15 minutos no mês passado. Gastei ~0,65$ para treinar. O meu número mensal de negócios é de ~300.
Os resultados dos 2 meses anteriores não são maus, mas também não são muito maus.
Vou tentar adicionar mais uma camada oculta e procurar por mais erros :) e depois vou tentar treinar por um período mais longo.
Maxim Dmitrievsky:
Porquê, Vladimir Perervenko tem informações nos seus artigos, eles aprendem muito rápido em centenas de entradas
Todos os artigos contêm conjuntos de dados e scripts que podem ser reproduzidos para obter dados reais sobre os tempos de aprendizagem, especificamente sobre o seu hardware. O tempo de treino DNN com duas camadas ocultas é de até 1 minuto.
Boa sorte.
Vamos apenas fazer uma experiência em nome do "conhecimento científico".
Vamos escolher os dados, as dimensões, a arquitetura MLP, a saída.
E todos farão os seus próprios testes com as suas próprias ferramentas.
A quantidade de chamas será menor.
A propósito, podemos fazer tal tradição e testar cada nova arquitetura com o mundo inteiro. =)
Estou a partilhar os primeiros resultados da minha NS. A arquitetura é a mesma descrita no deus, eu não mudei nada.
O planalto está bastante equilibrado, a NS já aprendeu bem com 1000 passes, os resultados não melhoraram muito mais.
Estive a estudar durante 15 minutos no mês passado. Gastei ~0,65$ para treinar. O meu número mensal de negócios é ~300.
Os resultados dos 2 meses anteriores não são maus, mas também não são muito maus.
Vou tentar adicionar mais uma camada oculta e procurar por mais erros :) e depois vou tentar treinar por um período mais longo.
Você tem três neurônios na entrada da segunda camada processados por sigmoid? Como ajustar os pesos na segunda camada cujo intervalo é escolhido de -1 a 1 em passos de 0,1, por exemplo.
Na minha rede, após o processamento da segunda camada, o número de negócios caiu e os meus resultados não melhoraram muito. Isto é diferente de encaixar um perceptron com 9 entradas e um neurônio de saída e depois pegar outro perceptron independente e encaixá-lo novamente com configurações salvas do primeiro, etc.