Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 585
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
É difícil avaliar as negociações desta forma, porque também há uma duração de negociação e níveis de stop-loss têm que ser adicionados a tudo o resto, e o sistema se retrai periodicamente... então, é um espantalho :)
Sim, eu já o vejo há muito tempo. Não é muito mau em si mesmo, mas a nebulosidade não é muito adequada para a construção do TS.
você pode vender sinais:))) acesso via api, se o modelo for legal
Sentado. lendo um pdf da monografia do MoD. Citação:
Acontece que também não há necessidade de se contorcer, NS parece ser a melhor opção.
Sentado. lendo um pdf da monografia do MoD. Citação:
Acontece que também não há necessidade de se contorcer, NS parece ser a melhor opção.
E eu li Haykin e observei em paralelo
o filme é atmosférico... o que vai ganhar no final? vida proteica ou vida artificial, ou vai ser criada alguma coisa entre eles? :)
a propósito, algumas fontes dizem que o NN probabilístico está em voga hoje em dia. Meu amigo sussurrou... mas ele sabe muito sobre eles, ele participa dos concursos do Google.
E eu tenho lido Heikin e observado
o filme é atmosférico... o que vai ganhar no final? vida proteica ou vida artificial, ou vai ser criada alguma coisa entre eles? :)
A propósito, algumas fontes dizem que o NN probabilístico está em voga hoje em dia. Meu amigo diz que sim ... mas ele sabe muito sobre eles, ele participa dos concursos do Google.
Ontem encontrei o NN convolucional - normalmente usado para o reconhecimento de imagens. Naturalmente, existem todas as utilidades - formação, etc. Feito para uso em Python.
Também é recorrente, etc., mas ainda não é muito interessante.
Uma vez que a rede convolucional não está totalmente enredada, podemos aumentar muito o número de neurónios sem perda de desempenho. Mas tenho que entender os detalhes, ainda não entrei em detalhes.
Descrição popular -https://geektimes.ru/post/74326/Ontem encontrei um NS de convolução - normalmente usado para reconhecimento de imagem. Naturalmente, existem todas as utilidades - formação, etc. Feito para uso em Python.
Também é recorrente, etc., mas ainda não é muito interessante.
Uma vez que a rede convolucional não está totalmente enredada, podemos aumentar muito o número de neurónios sem perda de desempenho. Mas eu ainda tenho que entrar em detalhes - ainda não entrei nisso.
Descrição popular -https://geektimes.ru/post/74326/Bem, isto é profundo, eles são usados principalmente para imagens e visão computadorizada. Você precisa de muitos exemplos e camadas para fazer funcionar. A própria arquitetura copia o sistema visual
Tente python PNN, eles fazem mais sentido para a previsão de séries temporais.
https://habrahabr.ru/post/276355/
Bem, é o sertão, eles são usados principalmente para imagens e visão computadorizada. É preciso muitos exemplos e camadas para que funcione. A própria arquitetura copia o sistema visual
Procure por equivalentes PNN python. Parecem-me fazer mais sentido na previsão de séries temporais.
https://habrahabr.ru/post/276355/
Mais uma vez, não estou a prever nada. Eu só tenho uma classificação.
Há muito tempo que ando à procura de uma rede incompleta. MLP é tudo bom, mas lá todos os inputs vão para cada neurônio de uma vez. Ah, isso é exatamente o que precisamos, para que apenas 5-6 inputs deslocados vão para um neurônio, e este é o NS convolutivo.
Não há nada de complicado aqui, e você só precisa de 100-150 neurônios, então a estrutura é simples e rápida como o MLP com 60 neurônios, devido a menos entradas de neurônios.
Mais uma vez, eu não estou a prever nada. Eu só tenho uma classificação.
Há muito tempo que ando à procura de uma rede incompleta. MLP é tudo bom, mas todos os inputs vão para cada neurônio de uma vez. Ah, isso é exatamente o que precisamos, para que apenas 5-6 inputs deslocados vão para um neurônio, e este é o NS convolutivo.
Não há nada complicado aqui, e só precisamos de 100-150 neurônios, então a estrutura é simples, e a velocidade será como o MLP com 60 neurônios, às custas de um número menor de entradas de neurônios.
Bem, há um classificador, e o que o impede de procurar um incompleto. É mesmo como eu gosto, por exemplo:
este livro estará cheio de screenshots :)
Mais uma vez, eu não estou a prever nada. Eu só tenho uma classificação.
Há muito tempo que ando à procura de uma rede incompleta. MLP é tudo bom, mas todos os inputs vão para cada neurônio de uma vez. Ah, isso é exatamente o que precisamos, para que apenas 5-6 inputs deslocados vão para um neurônio, e este é o NS convolutivo.
Não há nada de complicado aqui, e precisamos apenas de 100-150 neurônios, então a estrutura é simples, e a velocidade será semelhante ao MLP com 60 neurônios, devido a um número menor de entradas de neurônios.
A ideia de usar camadas convolutivas tem vindo a ferver há muito tempo. Acho que eles podem dar bons resultados.
Mas não deites fora o perseptron de várias camadas. As redes convergentes não aprendem nada sozinhas, elas apenas fornecem uma imagem compacta das informações de entrada.
Há um classificador, então o que o impede de procurar um incompleto.