Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2828
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Sim, darei uma olhada no adam quando quiser, farei alguns testes.
Os artigos são excelentes, mas não estou qualificado para contestar nada :)
obrigado))))
então vejo a necessidade de incluir algoritmos tradicionalmente usados com neurônios na revisão também.
Na prática, isso significa que o neurônio será pouco treinado.
Bem, isso é um pouco secundário.
Existem diferentes tipos de AO, otimização local e otimização global...
local é gradientes, o mesmo Adam, etc... global é genética, etc...
as redes são treinadas com AO local porque é rápido, "há muitos pesos".
e simplesmente não é eficaz treinar AO global...
E o principal é que se você treinar um neurônio normal, que tem cerca de um bilhão de pesos, com AO global, em primeiro lugar, terá que esperar muito tempo e, em segundo lugar, não poderá garantir de forma alguma que encontrou um mínimo global....
Portanto, toda essa conversa é uma profanação de água pura, uma crença SUPER ingênua de que aqueles que criaram a aprendizagem profunda não conhecem os algoritmos de otimização global e suas propriedades, é tão óbvio que nem tem graça....
Você aprenderá a distinguir os algoritmos de otimização global dos algoritmos de otimização local, e há a otimização discreta, a otimização contínua, a otimização multicritério, etc. ....
E cada um deles tem suas próprias tarefas: empilhar tudo em uma pilha e testar algo é profanação.
Bem, isso é um pouco secundário.
Existem diferentes tipos de AO, otimização local e otimização global...
local é gradientes, o mesmo adam, etc. global é genética, etc...
as redes são treinadas localmente porque é rápido, "há muitas escalas".
e simplesmente não é eficiente treinar AOs globais...
E o principal é que se você treinar um neurônio normal, que tem cerca de um bilhão de pesos, com AO global, em primeiro lugar, terá que esperar muito tempo e, em segundo lugar, não poderá garantir de forma alguma que encontrou o mínimo global....
Portanto, toda essa conversa é uma profanação da água pura, uma crença SUPER ingênua de que aqueles que criaram a aprendizagem profunda não conhecem os algoritmos de otimização global e suas propriedades, e isso é tão óbvio que não tem nem graça....
É horrível.
Não há divisão de algoritmos em "locais" e "globais". Se um algoritmo ficar preso em um dos extremos locais, isso é uma falha, não um recurso.
Há comparações altamente especializadas de AOs tradicionais para neurônios, você pode pesquisá-las. os algoritmos geralmente são usados para tarefas específicas, mas todos os algoritmos, sem exceção, podem ser comparados em termos de qualidade de convergência.
Obrigado)))
então vejo a necessidade de incluir os algoritmos tradicionalmente usados com neurônios na revisão também.
Isso é terrível.
Não há divisão de algoritmos em "locais" e "globais". Se um algoritmo ficar preso em um dos extremos locais, isso é uma falha, não um recurso.
São usados algoritmos de descida de gradiente, que são gerais, não para neurônios, e que têm uma barba enorme. Pesquise no Google e não faça perguntas infantis, depois de aprender como o gradiente descendente supera diferentes tipos de armadilhas de extremos locais. Isso é algo que as pessoas vêm fazendo especificamente há anos.
Li uma vez que, se o erro não mudar muito por alguns ciclos, ou seja, se ele girar em torno de um extremo, para verificar se ele é local, é feito um salto forte nos parâmetros para sair desse extremo. Se for local, ele não retornará a ele nos próximos saltos; se for global, ele retornará. Você pode repetir várias vezes. Em geral, você precisa explorar o espaço de forma mais ampla.
Isso é terrível.
Não há divisão de algoritmos em "locais" e "globais". Se um algoritmo ficar preso em um dos extremos locais, isso é uma falha, não um recurso.
Há comparações altamente especializadas de AOs tradicionais para neurônios, você pode procurá-las. Os algoritmos geralmente são usados para tarefas específicas, mas todos os algoritmos, sem exceção, podem ser comparados em termos de qualidade de convergência.
Bem, são todos os 5 )))))))))
Você estudou na mesma universidade que Maximka?