Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 629
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Maxim, bem, não treine a rede no otimizador de MT. O treinador NS e o optimizador são algoritmos completamente diferentes com critérios de optimização completamente diferentes.
Se você ainda usa aquela estrutura NS, que você desenhou antes, ela é um pouco simples - fraca para o mercado. Já escrevi que só tive sucesso quando cheguei à estrutura 15-20-15-10-5-1. E isto é apenas para um tipo de negócios. Eu também fiz absolutamente tudo usando métodos descritos pelo Haikin, ou seja, nada de novo, sem truques.
Estruturas mais simples foram mal treinadas.
Já tentou tirar não o número de camadas mas o número de neurónios de uma camada? Por exemplo, 15-200-1 ou 15-200-20-1?
Na verdade, os dados necessários para o treinamento não são muito, mas muito. Em uma amostra pequena NS não terá nada de útil.
E quantos dados você leva? Eu levo 86000 cordas para treinar.
1) Você já tentou não pegar o número de camadas, mas o número de neurônios em uma camada? Por exemplo, 15-200-1 ou 15-200-20-1?
2) E quantos dados você toma? Eu estava a levar 86000 linhas para treinar.
1. Ainda não tentei. 20 na primeira camada é o suficiente. Foi aumentando tanto os neurónios por camada como as camadas.
2. Eu tinha cerca de 12000 filas em treinamento com embaralhamento intermediário entre N épocas. Após algumas épocas, os dados do treinamento foram substituídos por outros dados que antes não estavam envolvidos no treinamento.
Peço desculpa pelo insulto, mas devias reler o teu posto. Parece bastante ambíguo.
A mesma coisa. Os MLPs não são relevantes por muito tempo, o aprendizado profundo tem sido uma tendência por muito tempo. E uma rede é bastante capaz de processar dados heterogêneos, o principal é a arquitetura.E em geral você está certo, mas apenas em relação à primeira camada da rede neural. Se o feedback for para a segunda e seguintes camadas ou, em geral, para camadas de rede paralelas, sua declaração se tornará inválida.
Nesse caso, Maxim deve pensar em aprofundar a rede e trazer feedback para camadas ocultas.
E então?
Concordo, mas como combinar a profundidade com todos aqueles truques que surgiram :) no otimizador será um pouco longo para aprender ... mas muito, muito alta qualidade, porque lá e o comércio acontece de uma só vez
Eu acho que mais de 30 pesos não é uma opção para o otimizador.
+ Muitas pessoas esquecem que há uma nuvem, que geralmente é legal para trabalhar com todas essas coisas, mas você tem que ser muito bom na otimização do código.
Concordo, mas como combinar a profundidade com todos aqueles truques que surgiram :) no otimizador será um pouco longo para aprender ... mas muito, muito alta qualidade, porque lá e o comércio acontece de uma só vez
Eu acho que mais de 30 pesos não é uma opção para o otimizador.
+ acho que muita gente esquece que há uma nuvem, através da qual todas essas coisas são divertidas de se trabalhar, mas você tem que otimizar o código muito bem.
Tente duplicar a camada de entrada.
A mesma coisa. Os MLPs não são mais relevantes, o aprendizado profundo tem sido uma tendência por muito tempo. E uma rede é bastante capaz de processar dados heterogêneos, o que importa é a arquitetura.Tente duplicar a camada de entrada.
Se os MLPs podem resolver um problema, que diferença faz se eles são relevantes ou não? Especialmente com MLPs você não precisa se esforçar - há de tudo para eles praticamente em todo lugar.
Não estou a tentar dobrar-te a nada. O estudo aprofundado começa com os MLPs.
Além disso, há de tudo e de todos os lugares para uma aprendizagem profunda. =)Mas quando se trata de representação de dados dentro de uma rede, seus movimentos e transformações, questões sobre ativação, camadas recorrentes, regularização, combinação de camadas, etc., são naturalmente levantadas. Isso é que é ser perspicaz.
Se os MLPs podem resolver um problema, que diferença faz se eles são relevantes ou não? Especialmente com MLPs você não tem que se esforçar - há tudo para eles praticamente em todo lugar.
Bem, não te inclino para nada. O aprendizado profundo começa apenas com os MLPs.
Mas quando se trata de representação de dados dentro da rede, seus movimentos e transformações, questões sobre ativação, camadas recorrentes, regularização, combinação de camadas, etc., são naturalmente levantadas. Isto é muito perspicaz.
Compreendo isso, mas estou a falar de outra coisa. Não é preciso matemática superior para o problema dos dois tubos, só aritmética. Se a aritmética é relevante ou não, é outra questão.
Ou seja, primeiro é preciso definir o problema e depois escolher os métodos de solução.
Quanto aos grandes e complexos DM - DL, MLP há certamente uma longa etapa passada.
É que o profundo pode aprender muito mais rápido ainda, sendo todas as outras coisas iguais... não 10 horas mas 5 minutos, por exemplo :)