Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 592
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Sim, só passei por todo o tipo de artigos para ver o que é interessante sobre o assunto :) Bem, a principal vantagem sobre o MLP, como eu entendo, é a velocidade e as configurações mínimas (aqui elas não estão de jeito nenhum) e que essas grades quase não são retrabalhadas
Bem e a Força F Gaussiana é usada em vez da Força Estilo. Para cada entrada, é criada uma densidade de vértices, depois os resultados na saída são somados linearmente
a propósito, PNN e GRNN estão disponíveis em formato mql, mas eu ainda não os experimentei e ainda não os comparei com o MLP
https://www.mql5.com/ru/code/1323
Bem, finalmente cuspiu nestes truques de MKL. Existe um software profissional, testado por milhares de utilizadores, e utiliza-o. Imho.
Eu concordo.
Se eu fosse Maxim, eu colocaria todas as suas interessantes descobertas no papel, e para drenagem de grãos específicos eu usaria Visim ou algo parecido.
Eu apoio-te.
Se eu fosse Maksim, eu escreveria todas as suas interessantes descobertas como artigos, e usaria Wissim ou algo parecido para drenagem de grãos específicos.
Desista finalmente destes truques de MKL. Tenha um software profissional, testado por milhares de usuários, e use-o. Imho.
Eu faço o meu próprio, puramente para TC :) haverá até elementos de memória (atrasos), como recorrência (um pouco) :) é simples, quero dizer, tornar qualquer arquitetura de grade, mais difícil de fazer um solucionador como backprops, mas você pode no otimizador se os pesos não são muito
este é apenas um exemplo, você pode olhar para o código para ver como os backprops são implementados e o NS
Eu faço o meu próprio, puramente para TC :) haverá até elementos de memória (atrasos), como recorrência (um pouco) :) é simples, quero dizer, tornar qualquer arquitetura de grade, mais difícil de fazer um solucionador como backprops, mas você pode no otimizador se os pesos não são muito
este é apenas um exemplo, você pode olhar para o código para ver como os back-ups são implementados e o NS
Bem, imho, não há necessidade de ser um radioamador - o tempo é diferente. Nem você nem eu o faremos profissionalmente.
Estou a reparar os sistemas de comunicação por satélite com um amigo. E eles são quase os únicos na Federação Russa. Bem, nunca se pode fazer (quero dizer fabricar) tais coisas... O tempo dos radioamadores já era.
Bem, imho, não há necessidade de ser um radioamador - é uma época diferente. Já não é como tu ou como eu o posso fazer profissionalmente.
O meu amigo e eu estamos a reparar os sistemas de comunicação por satélite. E eles são quase os únicos na Federação Russa. Bem, você nunca vai fazer (quero dizer fabricar) tais coisas... O tempo dos radioamadores já era.
agora tudo é feito por robôs :) devemos fazer robôs que fazem robôs que fazem coisas
Eu entendo, eu só tenho algumas idéias, é meio criativo ... nenhuma tarefa específica de como fazê-lo direito
todos estão fazendo robôs agora :) nós precisamos fazer robôs para fazer robôs que fazem coisas
Já percebi, há apenas algumas ideias, é um pouco criativo.
Não estou a falar de criatividade. Mas use software profissional nele, não artesanato. Mas eu não insisto. É com o afftor).
Eu postei acima um link para o PNN em Python. Provavelmente não o conseguiu).
Redes de propagação focalizadas com atrasos de tempo
No reconhecimento estrutural de pattem, é comum o uso de redes neurais estáticas. Por outro lado, o reconhecimento de pattem temporal requer o processamento de imagens que mudam ao longo do tempo e a geração de uma resposta num determinado momento que depende não só da corrente, mas também de vários valores anteriores.
Há algum desses? :) Exatamente o tipo de tais arquiteturas funcionarão no Forex, em teoria... mas você tem que experimentar. Fácil de fazer, basta adicionar ao MLP um par de neurónios "interessantes", ou combinar 2 modelos.
Basta pegar PNN em vez de MLP, e aparafusar o resto em cima e nos lados.