Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 630

 
Yuriy Asaulenko:
Eu não vou afirmar, mas parece-me que isto são ilusões. Só por razões gerais.
Porquê, Vladimir Perervenko tem alguma informação nos seus artigos, eles aprendem muito rápido em centenas de entradas
 
Maxim Dmitrievsky:
Porquê, Vladimir Perevenko tem informações nos seus artigos, eles são treinados muito rapidamente em centenas de entradas

Eu não li os artigos e não vou discutir. Eu só vi fotos).

O MLP, digamos, pode ser perfeitamente treinado em 10-15 minutos e vai funcionar perfeitamente. Sim, mas isso se os dados forem bem classificados, os conjuntos são separados.

Se pelo contrário - se, por exemplo, no mercado (ou nas suas amostras de treino) simplesmente não houver conjuntos separáveis, então ensine o que quiser para sempre - não haverá resultados.

 
Maxim Dmitrievsky:
Porquê, Vladimir Perevenko tem informações nos seus artigos, eles aprendem muito rápido em centenas de entradas

Tudo depende da arquitetura e da quantidade de dados.
As redes para reconhecimento de padrões aprendem durante uma semana na GPU. E há dezenas de camadas com tensores tridimensionais.

 
Aleksey Terentev:

Tudo depende da arquitetura e da quantidade de dados.
As redes para reconhecimento de padrões levam uma semana para aprender em uma GPU. E há dezenas de camadas com tensores tridimensionais.

aí ele descreveu as mais simples - rede Boltzmann + MLP, por exemplo

https://www.mql5.com/ru/articles/1103#2_2_2

Третье поколение нейросетей: "Глубокие нейросети"
Третье поколение нейросетей: "Глубокие нейросети"
  • 2014.11.27
  • Vladimir Perervenko
  • www.mql5.com
Нейросети второго поколения Глубокое обучение Практические эксперименты Программная реализация (индикатор и эксперт) Введение В статье будут рассмотрены основные понятия по теме "Глубокое обучение" (Deep Learning), "Глубокие нейросети" (Deep Network) без сложных математических выкладок, как говорят, "на пальцах". Будут проведены эксперименты с...
 
Yuriy Asaulenko:

Eu não li os artigos e não vou discutir. Eu só vi fotos).

O MLP, digamos, pode ser perfeitamente treinado em 10-15 minutos e vai funcionar perfeitamente. Sim, mas isso se os dados forem bem classificados, os conjuntos são separados.

Se no mercado (ou em suas amostras de treinamento) simplesmente não há conjuntos separáveis, então você pode treinar o que quiser para sempre e não haverá resultados.

Vamos simplesmente conduzir uma experiência em nome do "conhecimento científico".
Vamos escolher dados, dimensões, arquitetura MLP, dados de saída.
E todos farão os seus próprios testes com as suas próprias ferramentas.

A quantidade de chamas será menor.
A propósito, podemos fazer tal tradição e testar cada nova arquitetura com o mundo inteiro. =)

 
Aleksey Terentev:

Vamos apenas fazer uma experiência em nome do "conhecimento científico".
Vamos escolher os dados, as dimensões, a arquitetura MLP, a saída.
E todos farão os seus próprios testes com as suas próprias ferramentas.

A quantidade de chamas será menor.
A propósito, podemos fazer tal tradição e testar cada nova arquitetura com o mundo inteiro. =)

(Receio ter uma fraqueza). Não vejo sentido em resolver problemas abstractos. E a troca de opiniões não é de todo uma chama. Tirei muito desta chama. E foi numa direcção diferente). E sem o flamejar, mais valia ter andado a bisbilhotar por aí.
 

Estou a partilhar os primeiros resultados da minha NS. A arquitetura é a mesma descrita no deus, eu não mudei nada.

O planalto está bastante equilibrado, a NS já aprendeu bem com 1000 passes, os resultados não melhoraram muito mais.

Estive a estudar durante 15 minutos no mês passado. Gastei ~0,65$ para treinar. O meu número mensal de negócios é de ~300.

Os resultados dos 2 meses anteriores não são maus, mas também não são muito maus.

Vou tentar adicionar mais uma camada oculta e procurar por mais erros :) e depois vou tentar treinar por um período mais longo.

 

Maxim Dmitrievsky:
Porquê, Vladimir Perervenko tem informações nos seus artigos, eles aprendem muito rápido em centenas de entradas


Todos os artigos contêm conjuntos de dados e scripts que podem ser reproduzidos para obter dados reais sobre os tempos de aprendizagem, especificamente sobre o seu hardware. O tempo de treino DNN com duas camadas ocultas é de até 1 minuto.

Boa sorte.

 
Aleksey Terentev:

Vamos apenas fazer uma experiência em nome do "conhecimento científico".
Vamos escolher os dados, as dimensões, a arquitetura MLP, a saída.
E todos farão os seus próprios testes com as suas próprias ferramentas.

A quantidade de chamas será menor.
A propósito, podemos fazer tal tradição e testar cada nova arquitetura com o mundo inteiro. =)

Dê um exemplo. Comece com
 
Maxim Dmitrievsky:

Estou a partilhar os primeiros resultados da minha NS. A arquitetura é a mesma descrita no deus, eu não mudei nada.

O planalto está bastante equilibrado, a NS já aprendeu bem com 1000 passes, os resultados não melhoraram muito mais.

Estive a estudar durante 15 minutos no mês passado. Gastei ~0,65$ para treinar. O meu número mensal de negócios é ~300.

Os resultados dos 2 meses anteriores não são maus, mas também não são muito maus.

Vou tentar adicionar mais uma camada oculta e procurar por mais erros :) e depois vou tentar treinar por um período mais longo.

Você tem três neurônios na entrada da segunda camada processados por sigmoid? Como ajustar os pesos na segunda camada cujo intervalo é escolhido de -1 a 1 em passos de 0,1, por exemplo.

Na minha rede, após o processamento da segunda camada, o número de negócios caiu e os meus resultados não melhoraram muito. Isto é diferente de encaixar um perceptron com 9 entradas e um neurônio de saída e depois pegar outro perceptron independente e encaixá-lo novamente com configurações salvas do primeiro, etc.