Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 629

 
Yuriy Asaulenko:

Maxim, bem, não treine a rede no otimizador de MT. O treinador NS e o optimizador são algoritmos completamente diferentes com critérios de optimização completamente diferentes.

Se você ainda usa aquela estrutura NS, que você desenhou antes, ela é um pouco simples - fraca para o mercado. Já escrevi que só tive sucesso quando cheguei à estrutura 15-20-15-10-5-1. E isto é apenas para um tipo de negócios. Eu também fiz absolutamente tudo usando métodos descritos pelo Haikin, ou seja, nada de novo, sem truques.

Estruturas mais simples foram mal treinadas.

Já tentou tirar não o número de camadas mas o número de neurónios de uma camada? Por exemplo, 15-200-1 ou 15-200-20-1?

Yuriy Asaulenko:

Na verdade, os dados necessários para o treinamento não são muito, mas muito. Em uma amostra pequena NS não terá nada de útil.

E quantos dados você leva? Eu levo 86000 cordas para treinar.

 
elibrarius:

1) Você já tentou não pegar o número de camadas, mas o número de neurônios em uma camada? Por exemplo, 15-200-1 ou 15-200-20-1?

2) E quantos dados você toma? Eu estava a levar 86000 linhas para treinar.

1. Ainda não tentei. 20 na primeira camada é o suficiente. Foi aumentando tanto os neurónios por camada como as camadas.

2. Eu tinha cerca de 12000 filas em treinamento com embaralhamento intermediário entre N épocas. Após algumas épocas, os dados do treinamento foram substituídos por outros dados que antes não estavam envolvidos no treinamento.

 
Aleksey Terentev:

Peço desculpa pelo insulto, mas devias reler o teu posto. Parece bastante ambíguo.
E em geral você está certo, mas apenas em relação à primeira camada da rede neural. Se o feedback for para a segunda e seguintes camadas ou, em geral, para camadas de rede paralelas, sua declaração se tornará inválida.
Nesse caso, Maxim deve pensar em aprofundar a rede e trazer feedback para camadas ocultas.

E então?

A mesma coisa. Os MLPs não são relevantes por muito tempo, o aprendizado profundo tem sido uma tendência por muito tempo. E uma rede é bastante capaz de processar dados heterogêneos, o principal é a arquitetura.

Concordo, mas como combinar a profundidade com todos aqueles truques que surgiram :) no otimizador será um pouco longo para aprender ... mas muito, muito alta qualidade, porque lá e o comércio acontece de uma só vez

Eu acho que mais de 30 pesos não é uma opção para o otimizador.

+ Muitas pessoas esquecem que há uma nuvem, que geralmente é legal para trabalhar com todas essas coisas, mas você tem que ser muito bom na otimização do código.

 
Maxim Dmitrievsky:

Concordo, mas como combinar a profundidade com todos aqueles truques que surgiram :) no otimizador será um pouco longo para aprender ... mas muito, muito alta qualidade, porque lá e o comércio acontece de uma só vez

Eu acho que mais de 30 pesos não é uma opção para o otimizador.

+ acho que muita gente esquece que há uma nuvem, através da qual todas essas coisas são divertidas de se trabalhar, mas você tem que otimizar o código muito bem.

Tente duplicar a camada de entrada.

 
Aleksey Terentev:


A mesma coisa. Os MLPs não são mais relevantes, o aprendizado profundo tem sido uma tendência por muito tempo. E uma rede é bastante capaz de processar dados heterogêneos, o que importa é a arquitetura.
Se um MLP pode resolver uma tarefa, que diferença faz se eles estão atualizados ou não? Especialmente com MLPs você não tem que fazer muito esforço - há tudo para eles em quase todos os lugares.
 
Aleksey Terentev:

Tente duplicar a camada de entrada.

tema, e misturar os pesos :)
 
Yuriy Asaulenko:
Se os MLPs podem resolver um problema, que diferença faz se eles são relevantes ou não? Especialmente com MLPs você não precisa se esforçar - há de tudo para eles praticamente em todo lugar.

Não estou a tentar dobrar-te a nada. O estudo aprofundado começa com os MLPs.
Mas quando se trata de representação de dados dentro de uma rede, seus movimentos e transformações, questões sobre ativação, camadas recorrentes, regularização, combinação de camadas, etc., são naturalmente levantadas. Isso é que é ser perspicaz.

Além disso, há de tudo e de todos os lugares para uma aprendizagem profunda. =)
 
Yuriy Asaulenko:
Se os MLPs podem resolver um problema, que diferença faz se eles são relevantes ou não? Especialmente com MLPs você não tem que se esforçar - há tudo para eles praticamente em todo lugar.
É que em profundidade pode-se aprender muito mais rápido, sendo todas as outras coisas iguais... não 10 horas mas 5 minutos, por exemplo :)
 
Aleksey Terentev:

Bem, não te inclino para nada. O aprendizado profundo começa apenas com os MLPs.
Mas quando se trata de representação de dados dentro da rede, seus movimentos e transformações, questões sobre ativação, camadas recorrentes, regularização, combinação de camadas, etc., são naturalmente levantadas. Isto é muito perspicaz.

Compreendo isso, mas estou a falar de outra coisa. Não é preciso matemática superior para o problema dos dois tubos, só aritmética. Se a aritmética é relevante ou não, é outra questão.

Ou seja, primeiro é preciso definir o problema e depois escolher os métodos de solução.

Quanto aos grandes e complexos DM - DL, MLP há certamente uma longa etapa passada.

 
Maxim Dmitrievsky:
É que o profundo pode aprender muito mais rápido ainda, sendo todas as outras coisas iguais... não 10 horas mas 5 minutos, por exemplo :)
Não posso dizer com certeza, mas parece-me que são ilusões. Apenas a partir de considerações gerais.