Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 493

 
Maxim Dmitrievsky:

Você precisa de um wolf-forward, você não pode otimizar assim, forward será sempre ruim (ou aleatório) neste caso, dependendo de qual fase do mercado você entra, eu já tenho um monte de versões de tais sistemas no backtest, que no forward funcionam como uma moeda) isso é chamado de overfitting

Existe um algoritmo de selecção de parâmetros do sistema em rolling forward?
Tenho uma dúzia de optimizações com compensações mensais. Em cada mês os melhores parâmetros de entrada diferem dos parâmetros de outros meses. Qual deles devo escolher para o meu trabalho?
 
elibrarius:
Existe algum algoritmo para seleccionar os parâmetros do sistema ao avançar a válvula?
Recebi uma dúzia de otimizações com um offset por mês, em cada mês os melhores parâmetros de entrada são diferentes dos parâmetros de outros meses. E qual escolher?

Eu não me expressei corretamente, eu quis dizer "algo parecido", ou seja, um sistema auto-optimizador com algum critério de otimização, e o mesmo NS pode ser usado como um otimizador

 
elibrarius:
Existe algum algoritmo para seleccionar os parâmetros do sistema ao avançar a válvula?
Tenho uma dúzia de otimizações com um offset de um mês, cada mês os melhores parâmetros de entrada são diferentes dos parâmetros dos outros meses. E com qual escolher para trabalhar?
Por falar em otimização e treinamento. Levo 23 horas, sem incluir manipulações intermediárias. Depois de cada passe (são várias épocas) mudo a amostra de treino. Não, eu não o embaralho, eu mudo-o, ou seja, não mostro as mesmas fotografias. Não há amostras repetitivas no processo de aprendizagem.
 
Yuriy Asaulenko:
Por falar em optimização e aprendizagem. Demoro 23 horas, sem contar com as manipulações intermédias. Depois de cada passe (são várias épocas) mudo a amostra para o treino. Não, eu não o embaralho, eu mudo-o, ou seja, não mostro as mesmas fotografias. Não há amostras repetitivas no processo de aprendizagem.

E qual é exactamente o algoritmo de optimização? Procure um com algoritmo L-BFGS, ele será muitas vezes mais rápido

e o seu NS vai aprender, bem, 100 vezes mais rápido, por exemplo, não 23 horas mas 10 minutos (como todas as pessoas normais) :))) se você tiver uma simples descida de gradiente com um passo fixo


aqui está uma comparação:

http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html

Исследование алгоритмов обучения искусственной нейронной сети для задач классификации - PDF
Исследование алгоритмов обучения искусственной нейронной сети для задач классификации - PDF
  • docplayer.ru
САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ Математико-Механический факультет Кафедра Системного Программирования Корыстов Максим Андреевич Исследование алгоритмов обучения искусственной нейронной сети для задач классификации Курсовая работа Научный руководитель: Невоструев К. Н. Санкт-Петербург 2014 г. Введение 1.1 Мотивация В последнее...
 
Maxim Dmitrievsky:

E qual é exactamente o algoritmo de optimização? Procure um com algoritmo L-BFGS, ele será muitas vezes mais rápido

e o seu NS vai aprender, bem, 100 vezes mais rápido, por exemplo, não 23 horas mas 10 minutos (como todas as pessoas normais) :))) se você tiver uma simples descida de gradiente com um passo fixo

aqui está uma comparação:

http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html

Obrigado, eu vou ler.

Mais como aprender, não como optimizar. Não é simples. Eu já escrevi - BP padrão com recozimento simulado à mão.

Talvez alguns algoritmos sejam melhores, mas eu só uso o que está disponível no ambiente de desenvolvimento. Outros, externos, são problemáticos.

Em geral, a velocidade não é crítica, se eu treinar uma vez a cada 3 meses - 23 horas é até ufu. Mas, num teste de 3 meses, não se viu degradação. Provavelmente funciona por um tempo mais longo.

 
Yuriy Asaulenko:

Mais como aprender, não como optimizar. Não é simples. Eu já escrevi - BP padrão com recozimento manual simulado.

Talvez alguns algoritmos sejam melhores, mas eu só uso o que está disponível no ambiente de desenvolvimento. Outros, externos, são problemáticos.


seja o que for, a formação é a optimização da função alvo

Certo, eles escreveram sobre recozimento, eu não estou familiarizado com isso, eu vou ler.

 
Maxim Dmitrievsky:

seja o que for, a formação é a optimização da função alvo

Eu não tenho nenhuma função alvo no treinamento, ou seja, não há classificação inicial na seqüência de treinamento). É como aprender a multiplicar a mesa com um professor que nem sequer a conhece suficientemente bem. A própria NS está à procura de um lugar para onde não sabe onde. Portanto, é pouco provável que a aprendizagem mais rápida funcione.
 
Maxim Dmitrievsky:

seja o que for, a formação é a optimização da função alvo

Certo, eles escreveram sobre recozimento, eu não estou familiarizado com isso, eu vou ler.

Sim, o recozimento é simulado manualmente através da alteração dos parâmetros de treino após N épocas. Além da seqüência de treinamento é completamente substituída (não misturada, mas substituída).
 
Yuriy Asaulenko:
Sim, o recozimento é simulado manualmente através da alteração dos parâmetros de aprendizagem após N épocas. Além disso, a sequência de aprendizagem é completamente substituída (não misturada, mas substituída).

É legal, onde posso ler mais sobre esse tipo de NS? ou seja, é como sem um professor, mas você ainda alimenta a saída com algo?

 
Maxim Dmitrievsky:

Não sei bem onde se pode ler mais sobre este tipo de NS? ou seja, é como se se conseguisse sem um professor, mas mesmo assim se alimenta a saída com algo?

Eu posso ler a teoria de Haykin Neural Networks e Bishop em inglês - não há tradução, mas parece estar pronta.

É simples. Você insere negócios aleatórios, e produz o resultado. O método Monte Carlo é chamado, e não é muito rápido por si só. E a sua sistematização é uma questão de análise sistemática.