Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2828

 
Sim, vou dar uma olhada no Adam quando quiser e fazer alguns testes.
 
Andrey Dik #:
Sim, darei uma olhada no adam quando quiser, farei alguns testes.
Os artigos são ótimos, mas não tenho qualificação suficiente para argumentar nada :)
 
Maxim Dmitrievsky #:
Os artigos são excelentes, mas não estou qualificado para contestar nada :)

obrigado))))

então vejo a necessidade de incluir algoritmos tradicionalmente usados com neurônios na revisão também.

 
Andrey Dik #:

Na prática, isso significa que o neurônio será pouco treinado.

Bem, isso é um pouco secundário.

Existem diferentes tipos de AO, otimização local e otimização global...

local é gradientes, o mesmo Adam, etc... global é genética, etc...

as redes são treinadas com AO local porque é rápido, "há muitos pesos".

e simplesmente não é eficaz treinar AO global...


E o principal é que se você treinar um neurônio normal, que tem cerca de um bilhão de pesos, com AO global, em primeiro lugar, terá que esperar muito tempo e, em segundo lugar, não poderá garantir de forma alguma que encontrou um mínimo global....

Portanto, toda essa conversa é uma profanação de água pura, uma crença SUPER ingênua de que aqueles que criaram a aprendizagem profunda não conhecem os algoritmos de otimização global e suas propriedades, é tão óbvio que nem tem graça....


Você aprenderá a distinguir os algoritmos de otimização global dos algoritmos de otimização local, e há a otimização discreta, a otimização contínua, a otimização multicritério, etc. ....

E cada um deles tem suas próprias tarefas: empilhar tudo em uma pilha e testar algo é profanação.

 
mytarmailS #:

Bem, isso é um pouco secundário.

Existem diferentes tipos de AO, otimização local e otimização global...

local é gradientes, o mesmo adam, etc. global é genética, etc...

as redes são treinadas localmente porque é rápido, "há muitas escalas".

e simplesmente não é eficiente treinar AOs globais...


E o principal é que se você treinar um neurônio normal, que tem cerca de um bilhão de pesos, com AO global, em primeiro lugar, terá que esperar muito tempo e, em segundo lugar, não poderá garantir de forma alguma que encontrou o mínimo global....

Portanto, toda essa conversa é uma profanação da água pura, uma crença SUPER ingênua de que aqueles que criaram a aprendizagem profunda não conhecem os algoritmos de otimização global e suas propriedades, e isso é tão óbvio que não tem nem graça....

É horrível.

Não há divisão de algoritmos em "locais" e "globais". Se um algoritmo ficar preso em um dos extremos locais, isso é uma falha, não um recurso.

Há comparações altamente especializadas de AOs tradicionais para neurônios, você pode pesquisá-las. os algoritmos geralmente são usados para tarefas específicas, mas todos os algoritmos, sem exceção, podem ser comparados em termos de qualidade de convergência.

 
Andrey Dik #:

Obrigado)))

então vejo a necessidade de incluir os algoritmos tradicionalmente usados com neurônios na revisão também.

Li uma vez que, se o erro não mudar muito por vários ciclos, ou seja, se estiver em torno de um extremo, para verificar se é local, é feito um salto forte nos parâmetros para sair desse extremo. Se for local, ele não retornará a ele nos próximos saltos; se for global, ele retornará. Você pode repetir várias vezes. Em geral, é necessário explorar o espaço de forma mais ampla.
 
Andrey Dik #:

Isso é terrível.

Não há divisão de algoritmos em "locais" e "globais". Se um algoritmo ficar preso em um dos extremos locais, isso é uma falha, não um recurso.

São usados algoritmos de descida de gradiente, que são gerais, não para neurônios, e que têm uma barba enorme. Pesquise no Google e não faça perguntas infantis, depois de aprender como o gradiente descendente supera diferentes tipos de armadilhas de extremos locais. Isso é algo que as pessoas vêm fazendo especificamente há anos.

 
elibrarius #:
Li uma vez que, se o erro não mudar muito por alguns ciclos, ou seja, se ele girar em torno de um extremo, para verificar se ele é local, é feito um salto forte nos parâmetros para sair desse extremo. Se for local, ele não retornará a ele nos próximos saltos; se for global, ele retornará. Você pode repetir várias vezes. Em geral, você precisa explorar o espaço de forma mais ampla.
Sim, é isso mesmo. Essa é uma maneira de tentar não ficar preso. A propósito, eu estava olhando para o voo de Levi outro dia, é deste tópico.
 
Aqui está uma comparação interessante, por exemplo, Adão versus genética ou colônia de formigas, por exemplo. Um operador pode ter um dilema: o que usar, o otimizador MT5 ou o NS. Mesmo que ele escolha algo, ele vai querer usar o algoritmo mais eficiente
 
Andrey Dik #:

Isso é terrível.

Não há divisão de algoritmos em "locais" e "globais". Se um algoritmo ficar preso em um dos extremos locais, isso é uma falha, não um recurso.

Há comparações altamente especializadas de AOs tradicionais para neurônios, você pode procurá-las. Os algoritmos geralmente são usados para tarefas específicas, mas todos os algoritmos, sem exceção, podem ser comparados em termos de qualidade de convergência.

Bem, são todos os 5 )))))))))

Você estudou na mesma universidade que Maximka?