Redes neurais híbridas. - página 4

 
joo >> :

para dentrafar

MQL4

à IlyaA

Sim, eu sei. E também cerca de 200-300 livros de diferentes autores. Mas eu pensei em dominar NN e GA por conta própria mais rápido do que ler esta biblioteca. E assim se tornou. Mais rápido.

Por dominar, quero dizer aplicação prática, não familiaridade com a terminologia.


então Haykin p. 330, capítulo 4.19 Tenho um bom domínio sobre esta coisa. Você pegará o jeito num piscar de olhos.
 
joo >> :

Gostaria também de aconselhá-lo sobre isto. Comece uma população adicional na qual você coloca os melhores indivíduos de cada época (eu a chamo de "Epoch Gene Pool" ou GE). Ao acasalar, pegue indivíduos da população atual e da GE. Isto reduz drasticamente o número de partidas de ff. Este método não deve ser confundido com a seleção de elite.


Vamos até o fundo da travessia. Eu escolho o meu por probabilidade, o que reflete o quanto este perceptron fez melhor do que os outros. Assim, o melhor tem 80% de chance de participar em cada par, e o pior tem 20% de chance. É assim que eles vivem. O que se entende por seu método de população suplementar.
 
IlyaA >> :
>> Muito obrigado. >> Muito detalhado. Basicamente sim, se você já tiver executado o algoritmo várias vezes com parâmetros diferentes, então use os resultados. Então 200... Muito bem, vamos manter assim. Em seguida, o próximo ponto. Devemos procurar o rentável "falso" (combinação de castiçais e indicadores) procurando-o não com nossos olhos, mas com o perceptron. Deixe-o construir grupos linearmente separáveis para nós. Critérios de busca Lucro => máximo. Parando à vontade. Em seguida, análise dos pesos e identificação da "finta". Depois um indicador normal e um sistema comercial. Muito complicado, mas isso é à primeira vista. A balança é muito interessante (pelo menos para mim). Pergunta :) Eu tenho que fazer o histórico por 5 anos em castiçais + indicadores (opcional) através de cada indivíduo, e agora há 200 em cada população. Este é um consumo de recursos ENORME, além de não sabermos quando vamos parar. Vamos tentar reformular o problema ou de outra forma preservar a propriedade mais importante deste projeto - a detecção de um "fink" por uma máquina.

5 anos em que TF? Se M1, sim, muito tempo. Se W1, então muito rápido.

Não há necessidade de fazer um mal-entendido da rede e tentar ensinar à rede todos os momentos históricos (fenômenos lucrativos). A maioria deles nunca mais vai acontecer, bem pelo menos 99%.

Eu considero 1000-3000 barras de história como ótimas. Reciclagem quando o erro durante a operação se eleva acima do nível especificado. Embora sobre o número de exemplos (barras), existem opiniões diferentes, talvez agora haja pessoas que se opõem a esta questão.

 
joo >> :

5 anos em que TF? Se M1, sim, muito tempo. Se W1, então muito rápido.

Não há necessidade de fazer um mal-entendido da rede e tentar ensinar à rede todos os momentos históricos (fenômenos lucrativos). A maioria deles nunca mais vai acontecer, bem pelo menos 99%.

Considero 1000-3000 barras de história como sendo o ideal. Reciclagem quando um erro durante a operação se eleva acima de um nível especificado. Embora o número de exemplos (barras), existem opiniões diferentes, talvez agora haja pessoas que se opõem a esta questão.


Bem, eu acho que vou começar. Por que eu sugiro muitos bares? Porque (auto-pergunta, auto-resposta) como foi corretamente observado, a maior parte dos esgotos são descartáveis e a rede pode "entalhá-los". E vai acabar como de costume, no intervalo que está sendo testado o chocolate, em todos os outros - ração para sustento. Minha sugestão é que o melhor filtro para momentos descartáveis é integrá-los. A rede terá mais chances de isolar o delator repetitivo. Qual é a sua idéia?
 
gumgum >> :

Ontem eu escrevi uma grade 10-15-10-1

>> continue...


Você já verificou o perceptron quanto a aprendizagem excessiva (overlearning, cogging)?
 
IlyaA >> :


Depois Haykin p. 330, capítulo 4,19 Eu possuo bem esta coisa. Você pegará o jeito num piscar de olhos.

Não tenho tempo para ler ainda, talvez eu leia. Obrigado.

IlyaA escreveu(a) >>.

Vamos desvendar a essência das travessias. Eu escolho o meu por probabilidade, o que reflete o quanto este perceptron fez melhor do que os outros. Assim, o melhor tem 80% de chance de participar em cada par, e o pior tem 20% de chance. É assim que eles vivem. O que se entende por seu método de população suplementar.

Sim. Os descendentes desses pais são introduzidos na nova população. Os indivíduos restantes morrem ignominiosamente sem jamais experimentar o amor. :)

Aqui está o senão! Não sabemos se havia algum espécime decente entre os mortos. E se eles parecessem aberrações, poderiam ter produzido uma nova e forte geração.

Aborde a questão GA como se você estivesse tentando criar um cisne de moscas Drosophila.

O algoritmo é este:

1 Criar uma população de indivíduos aleatórios (a maioria deles feios).

2 Determinamos a adaptabilidade.

Três, nós replicamos a população no pool genético

4 Cruzar indivíduos da população e do pool genético (selecionando de lá e de lá).

5 Colocar novos indivíduos na nova população

6 Determinar a aptidão de cada indivíduo

7 Pegar os melhores indivíduos da população antiga e da nova população e colocá-los no pool genético se forem melhores do que os que estão no pool genético (substituir)

8 Substituiu a população antiga por indivíduos da nova população.

9 repita com a p4

e assim por diante, até que o melhor do pool genético deixe de aparecer.

 
Merda, enquanto eu estou escrevendo o correio, você está escrevendo três!, assente-se um pouco :)
 
joo >> :

Não tenho tempo para ler ainda, talvez eu leia. Obrigado.

Sim. Os descendentes desses pais são introduzidos na nova população. Os demais morrem ignominiosamente sem jamais experimentar o amor. :)

Esta é a parte complicada! Não sabemos, pode haver indivíduos dignos entre aqueles que morreram? E se eles parecerem feios, podem ter dado à luz uma nova e forte geração.

Aborde a questão GA como se você estivesse tentando criar um cisne a partir de moscas drosophila.

O algoritmo é este:

1 Criar uma população de indivíduos aleatórios (a maioria deles feios).

2 Determinamos a adaptabilidade.

Três, nós replicamos a população no pool genético

4 Cruzar indivíduos da população e do pool genético (selecionando de lá e de lá).

5 Colocar novos indivíduos na nova população

6 Determinar a aptidão de cada indivíduo

7 Pegar os melhores indivíduos da população antiga e da nova população e colocá-los no pool genético se forem melhores do que os que estão no pool genético (substituir)

8 Substituiu a população antiga por indivíduos da nova população.

9 repita com a p4.

e assim por diante até que não surja nada melhor do que o melhor do pool genético.




Ok. Eu vou esperar e ver :) Isto é muito semelhante à busca de raios. Eu comparei o desempenho do algoritmo de localização de raios com o cruzamento probabilístico. Os resultados foram melhores (menos populações) com cruzamento probabilístico. No entanto, se você usá-lo, há uma alta probabilidade de que funcione bem. Você precisa fazer uma experiência. Como você vê as coisas. Digamos que no XOR?
 
IlyaA >> :


Bem, eu acho que vou começar. Por que estou sugerindo um monte de barras? Porque (auto perguntado, auto respondido), como foi corretamente observado, a maioria dos feneks são descartáveis e a rede pode "apodrecê-los". E vai acabar como de costume, no intervalo que está sendo testado o chocolate, em todos os outros - ração para sustento. Minha sugestão é que o melhor filtro para momentos descartáveis é integrá-los. A rede terá mais chances de isolar o delator repetitivo. Qual é a sua idéia?

Pense em NN como se você estivesse pensando no seu cérebro. Como você irá "integrar" isto? Imagine que você sabe sobre pintura. Talvez você realmente esteja.

Bem, você conhece as técnicas características de mestres famosos (ficção lucrativa). Agora cole o trabalho de todos os famosos mestres em photoshop em uma camada. Você conhece algum dos truques do artista conhecido? Eu duvido. Assim como a NN.

 
joo >> :

Pense em NN como se você estivesse pensando no seu cérebro. Como você irá "integrar" isto? Imagine que você sabe sobre pintura. Talvez você realmente o faça.

Portanto, você conhece as técnicas características dos famosos mestres (chips lucrativos). Agora cole o trabalho de todos os famosos mestres em photoshop em uma camada. Você encontrará uma única característica de autor famoso que você conhece? Eu duvido. Assim como a NN.


O que é integrar o ruído? (Novamente, perguntei e respondi :) Você tem uma variável aleatória m(t) que é uniformemente distribuída em intervalos [-1; 1]. Correspondentemente, a expectativa = 0. Isso é ótimo. Também temos um sinal s(t) de configuração complexa. A amplitude do sinal e do ruído têm valores comparáveis. O problema é extrair s(t) de s(t) + m(t) desde que s(t) + m(t) possam ser repetidos um número ilimitado de vezes. A interferência será nova a cada vez, a curva de sinal será muito diferente da curva anterior. O método é surpreendentemente simples: encontre o valor médio do sinal s(t) + m(t) acima de 1000 repetições. Neste caso, a interferência que tinha 0 expectativa matemática foi integrada e removida. Quanto mais vezes conseguirmos calcular a média do sinal s(t) + m(t), menos interferência permanecerá. Aqui está novamente a minha idéia em mais detalhes.

Para limitar a rede de descobrir todas as características de cada vez (chamemos-lhe efeito de abstração), vamos reduzir o número de neurônios, obtendo assim uma vantagem na capacidade de generalização da rede e impossibilidade de perceptron aprender uma grande quantidade de material. Visaremos a rede para encontrar apenas uma, mas a coisa mais lucrativa nos dados. O que você acha?