Conselheiros em redes neurais, compartilhando experiências. - página 3

 
Maxim Dmitrievsky:

Ninguém me colocou à altura, eu só achei interessante).

Ninguém está argumentando que é interessante!

Mas você não pode saltar alguns passos no aprendizado de uma especialidade - isso não vai adiantar nada...

Uma rede neural, por si só, não dará a "saída certa" - não é uma varinha mágica. Você precisa da idéia certa de uma estratégia comercial, que dará um resultado decente mesmo sem uma rede neural...

 
Serqey Nikitin:

Ninguém está argumentando que isso é interessante!

Mas você não pode saltar alguns passos no ensino de uma especialidade - isso não vai adiantar nada...

Uma rede neural por si só não lhe dará a "saída certa" - não é uma varinha mágica. Você precisa da idéia certa de uma estratégia comercial, que dará um resultado decente mesmo sem uma rede neural...

Não estou discutindo sobre a idéia, é claro que é necessária. Mas uma rede neural também ajudará a testar rapidamente uma idéia, ou pelo menos a encontrar maneiras de seguir em frente. Eu, por exemplo, já vejo que 11 entradas de osciladores padrão, que todos mostram +- a mesma coisa, não dá nada. Exatamente da mesma forma que pode negociar com uma única entrada.

Você está certo sobre pular, não é minha especialidade, não sou nem matemático nem programador. Felizmente, basta entender figurativamente o que é uma rede neural e o que ela faz, pois soluções prontas, como esta classe, já estão disponíveis. E então você apenas experimenta, usando seu entendimento do mercado para testar algumas idéias.

 
Алексей:

Vou procurar meu tópico da rede neural agora.... Foi no quadrante, e foi há muito tempo.

http://forum.mql4.com/ru/38550

O insumo foi a diferença de preço com algum atraso (ordem de algumas horas). A saída é uma previsão para várias horas mais ou menos de binários.

Todas as redes foram obtidas pela força bruta da arquitetura.

O principal problema era a colagem de múltiplos testes de avanço. Isto deve ser automatizado de uma boa maneira.

Por tudo isso entendi que o mais importante são as entradas corretas, devemos pensar nisso... É bastante difícil encontrar algum tipo de dependência oculta com uma rede neural, você precisa ter uma idéia de alguma dependência inicialmente e depois processá-la com uma grade.
 
Maxim Dmitrievsky:
Por tudo isso entendi que o mais importante são as entradas certas, devo pensar nisso... É bastante difícil encontrar algum tipo de dependência oculta com uma rede neural, você precisa ter uma idéia de algum tipo de dependência inicialmente e depois processá-la com uma grade.

Sobre os insumos, sim. Mas a questão é que você não pode realmente fazer um conjunto de "boas" entradas num piscar de olhos. Como encontrá-los? Devemos fazer muitas entradas e depois fazer um procedimento de seleção de um vetor informativo de entradas. E devemos treinar a rede sobre ela. E se você encontrar entradas informativas (90% do caso), então a rede não é de forma alguma necessária porque o modelo pode ser baseado em um algoritmo de formação de regras de algum tipo e não em uma caixa preta.

Sobre a dependência. A rede não dará nenhuma visão sobre a forma de dependência. Em primeiro lugar, não é destinado a este propósito. E mais uma vez voltamos ao ponto anterior: é necessário encontrar características informativas e utilizá-las para construir regras estatisticamente relevantes.

Se você quiser decifrar, posso lhe dizer mais). Realmente estou de serviço agora e não posso gastar muito tempo para explicações, mas é bom, que hoje seja sexta-feira. ))

 
Алексей:

Sobre os insumos, sim. Mas a questão é que você não pode realmente fazer um conjunto de "boas" entradas num piscar de olhos. Como encontrá-los? Devemos fazer muitas entradas e depois fazer um procedimento de seleção de um vetor informativo de entradas. E devemos treinar a rede sobre ela. E se você encontrar entradas informativas (90% do caso), então a rede não é de forma alguma necessária porque o modelo pode ser baseado em um algoritmo de formação de regras de algum tipo e não em uma caixa preta.

Sobre a dependência. A rede não dará nenhuma visão sobre a forma de dependência. Em primeiro lugar, não é destinado a este propósito. E mais uma vez voltamos ao ponto anterior: é necessário encontrar características informativas e utilizá-las para construir regras estatisticamente relevantes.

Se você quiser decifrar, posso lhe dizer mais). Realmente estou de serviço agora e não posso gastar muito tempo para explicações, mas é bom, que hoje seja sexta-feira. ))

Na verdade, minha idéia original era: treinar redes em diferentes períodos de tempo, depois filtrar os sinais dos pequenos pelos grandes, ou seja, obter vantagem estatística, levando em conta que as redes produzirão alguma porcentagem de entradas erradas, digamos, 50 a 50. As próprias redes neurais implicam no processamento de uma grande quantidade de dados, essa é sua vantagem, de modo que você pode ir não a partir de qualquer padrão qualitativo específico, mas para manchar um grande número de sinais sobre a placa. E não importa o que está acontecendo dentro dela, o importante é que a rede neural tentará ordenar tudo. Mas você não poderá fazê-lo sem OpenCl, levaria muito tempo. Provavelmente, precisamos de redes de terceira geração, como descrito no artigo.

No entanto, é claro, seus comentários são interessantes. Vou tentar mexer com o indicador sugerido anteriormente. Emparelhado com ziguezague (2 saídas), ele dá algo incompreensível. Reduzirei o número de entradas e o deixarei apenas na saída.

 
Maxim Dmitrievsky:
Não ouvi falar de ninguém que ganhe dinheiro estável com os muwings).
"É verdade que hoje em dia dificilmente se pode ganhar dinheiro com os muwings. Mas, como um filtro de sinal, os abafadores são bastante adequados.
 
Serqey Nikitin:

Você está ciente de que todos os padrões de atraso em relação aos indicadores de linha, caso em que uma rede neural é inútil.

Hmm... Na minha opinião, os padrões são a entrada mais rápida. Qualquer oscilador é mais lento. E ainda mais para os muwings.
 
Maxim Dmitrievsky:

Em geral, tive esta idéia desde o início: treinar redes em diferentes TFs, depois filtrar sinais de TFs pequenos por grandes, ou seja, para obter vantagem estatística sobre isto, levando em conta que as redes produzirão alguma porcentagem de entradas erradas, digamos, 50 a 50. As próprias redes neurais implicam no processamento de uma grande quantidade de dados, que é sua vantagem, de modo que você pode ir não a partir de qualquer padrão qualitativo específico, mas para manchar um grande número de sinais através da placa. E não importa o que está acontecendo dentro dela, o importante é que a rede neural tentará ordenar tudo. Mas você não poderá fazê-lo sem OpenCl, levaria muito tempo. Provavelmente, precisamos de redes de terceira geração, como descrito no artigo.

No entanto, é claro, seus comentários são interessantes. Vou tentar mexer com o indicador sugerido anteriormente. Emparelhado com ziguezague (2 saídas), ele dá algo incompreensível. Reduzirei o número de entradas e o deixarei apenas na saída.

Leia sobre a seleção de sinais ou características informativas. Alimentar a rede com informações obscuras não é a melhor abordagem.

Aqui está um exemplo:

No trabalho, desenvolvi um classificador binário modelo para 10 variáveis discretas por entrada. Eu os selecionei de uma forma inteligente entre 76 características. A previsão é chamada de majoritária - se a fração de um é fortemente superada, então um. A qualidade do classificador acabou não sendo pior do que uma floresta aleatória de 150 árvores usando todas as minhas características vetoriais de 76 variáveis! Além disso, o modelo simples constrói regras legíveis pelo homem, enquanto a floresta é uma caixa escura.

A propósito, um perceptron regular de várias camadas pode ser usado para selecionar características, analisando pesos em uma rede treinada. Você provavelmente sabe que a rede aprende pior em entradas correlacionadas, em pares de entradas-saídas que se contradizem. Portanto, para peneirar maus insumos é necessário peneirar através deles.

 
Алексей:
Leia sobre a seleção de sinais ou características informativas. Não é uma boa abordagem para alimentar a rede com muitas incógnitas.

Aqui está um exemplo:

Eu desenvolvi um modelo de classificador binário em funcionamento com 10 variáveis discretas como entrada. Eu os selecionei de uma forma inteligente entre 76 características. A previsão é chamada de majoritária - se a fração de um é fortemente superada, então um. A qualidade do classificador acabou não sendo pior do que uma floresta aleatória de 150 árvores usando todas as minhas características vetoriais de 76 variáveis! Além disso, o modelo simples constrói regras legíveis pelo homem, enquanto a floresta é uma caixa escura.

A propósito, um perceptron regular de várias camadas pode ser usado para selecionar características, analisando pesos em uma rede treinada. Você provavelmente sabe que a rede aprende pior em entradas correlacionadas, em pares de entradas-saídas que se contradizem. Assim, a fim de eliminar os maus insumos, é preciso peneirar através deles.

Sim, isso parece ser chamado a maldição da dimensionalidade :) De fato, no meu caso, um monte de osciladores idênticos na entrada, tudo isso precisa ser removido e um deles deixado.

Outra pergunta - ao normalizar dados para entradas, é melhor normalizar todos os vetores simultaneamente, em um ciclo, considerando valores máximos e mínimos de todo o conjunto, ou normalizar para cada entrada separadamente, considerando valores máximos e mínimos de cada vetor em particular?

 
Serqey Nikitin:

Ninguém está argumentando que isso é interessante!

Mas você não pode saltar alguns passos no aprendizado de uma especialidade - isso não vai adiantar nada...

Uma rede neural, por si só, não dará a "saída certa" - não é uma varinha de condão.

Você precisa da idéia certa de uma estratégia comercial, que dará um resultado decente mesmo sem a rede neural...

Ele o fará. Um mágico. Você tem que saber como preparar seus dados de entrada.

Então você não precisa de uma rede neural.