Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2829
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Usamos algoritmos de gradiente descendente, que, em geral, não são para neurônios, e que têm uma barba enorme. Pesquisamos no Google e não fazemos perguntas infantis, pois aprendemos como o gradiente descendente supera diferentes tipos de armadilhas de extremos locais. Isso é algo que as pessoas vêm fazendo especificamente há anos.
Você foi solicitado a testar o aprendizado/otimização em algumas funções representativas, o que é uma boa prática
Se você acha que as redes neurais fazem isso perfeitamente, provavelmente está enganado
Foi sugerido que você testasse o aprendizado/otimização em algumas funções representativas, o que é uma boa prática
Se você acha que as redes neurais fazem isso perfeitamente, provavelmente está enganado
Sim... francamente, fico surpreso que nem todos tenham percebido adequadamente as verdades simples - tudo deve ser testado, e a crença em dogmas expressos por alguém significa estagnação e degradação.
e o gradient descent e o bekprop são métodos tão antigos e miseráveis que é estranho que ainda possam ser levados a sério por algumas pessoas.
a propósito, a genética não é o algoritmo mais robusto atualmente. ela deve ser incluída na tabela para... bem, só para deixar claro que sempre há espaço para melhorias.
Sim... francamente, estou surpreso que nem todos tenham percebido verdades adequadamente simples - tudo deve ser verificado, e a crença em dogmas expressos por alguém significa estagnação e degradação.
e o gradient descent e o bekprop são métodos tão antigos e ruins que é estranho que ainda possam ser levados a sério por alguém.
A percepção é específica, no nível do culto ao kargo e da crença no R divino, trazendo as dádivas da civilização.
Por um lado, o aprendizado é um caso especial de otimização, mas, por outro lado, há algumas peculiaridades.
1) A otimização em MO geralmente implica inerentemente a otimização em um espaço de função de dimensão infinita. Isso ocorre de forma explícita(gradient bousting, por exemplo), mas também pode ser implícito. Isso leva a uma flexibilidade incrível de modelos, mas a clareza e a simplicidade encontradas na otimização de dimensão finita são perdidas. Por exemplo, qualquer extremo em um subespaço de dimensão finita pode muito bem ser um ponto de sela em um subespaço de maior dimensionalidade (que pode ser tão alto quanto você quiser).
2) É usado um conjunto finito de funções de perda bem comportadas. Isso evita os problemas decorrentes do primeiro ponto. Mas se quisermos personalizar a função de perda, isso será impossível ou muito difícil.
Por um lado, o aprendizado...
Isso é terrível.
O horror é que uma pessoa chega a artigos sobre otimização e não conhece o assunto nem 20%, por isso não reconhece o conhecimento comum e fica surpresa com ele....
O horror é que pessoas com ainda menos qualificação despejam pus em suas cabeças, considerando-o como conhecimento de gurus, e o resultado é um bando de aleijados intelectuais...
E todos os tipos de não gurus concordam alegremente, porque já são aleijados e despejam pus em si mesmos, chamando seus egos de artigos....
esse é o verdadeiro horror!!!
O horror é que uma pessoa chega a artigos sobre otimização e não conhece o assunto nem 20%, portanto, não reconhece o conhecimento comum e fica surpresa com ele....
O horror é que pessoas com ainda menos qualificação despejem pus em suas cabeças, considerem isso conhecimento de gurus, e o resultado seja um bando de aleijados intelectuais....