Redes neurais híbridas. - página 7

 
joo >> :

Na verdade, eu a inventei quando estava na 3ª ou 4ª série. Quando você extrai raízes? Aqui, eu estava fazendo raízes quadradas, raízes em cubos... Mas em um papel de caderno com quadrados.

Testado. Os resultados são realmente impressionantes.


Voz (gabar-se).
 
IlyaA >> :

A tarefa que descrevi não lhe tocou? É um pouco por todo lado. De jeito nenhum. A maioria dos equipamentos eletrônicos de rádio é construída com base neste princípio.

Nós não extrapolamos ou calculamos a média, nós isolamos. A integração de ruídos funciona aqui.

O objetivo do aprendizado não é isolar peneirando algumas das características especiais que ocorrem e depois lembrando-as. E não é nem mesmo que não possamos peneirar as características.

Eu delineei o princípio da aprendizagem em um dos fios:

A aprendizagem é o processo de adquirir a capacidade de generalizar, classificar, abstrair, poder tirar conclusões.

Por que meios é outra questão.

IlyaA escreveu(a) >>.

Como as pessoas aprendem? :) Eles lêem um tópico, depois outro. Cada tópico é estudado individualmente. Em seguida, eles generalizam. E desta forma, sua grelha vai torcer a imagem e não generalizar nada. Ela se tornará altamente especializada.

Leia acima.

IlyaA escreveu(a) >>.

Não leia muitos livros. O que você sugere? Assistir TV e bater com a cabeça contra a parede?

O significado é mais profundo do que parece, ou melhor, parece que não há nenhum significado nestas palavras. O objetivo é pensar, raciocinar, tirar conclusões, não memorizar.

IlyaA escreveu(a) >>.

Soe (gabar-se).

Eu não preciso disso. Havia uma pergunta, havia uma resposta.

 
IlyaA >> :


Oh sim, a rede em seus primeiros estágios é totalmente interligada, bem, ou como redes convolucionais, mas existem muitas camadas). E toda essa felicidade é multiplicada por 10 e começa a acasalar. Cada um deles tem que ser processado, ou seja, temos 10x. E se você tem uma idéia para ensinar um truque lucrativo, então eu tenho que calcular todo o intervalo de tempo para cada geração e executá-lo através de cada progênie. Esta operação foi muito intensiva em recursos, portanto, vou voltar à minha pergunta original.

Por que não usar a RProp? No caso da genética, isso proporciona uma velocidade significativa nos cálculos.

 
joo >> :

O objetivo do aprendizado não é isolar, peneirando algumas das características especiais que ocorrem e depois lembrando-as. Não é nem mesmo que não possamos peneirar as características.

Eu delineei o princípio da aprendizagem em um dos fios:

O aprendizado é o processo de adquirir a capacidade de generalizar, classificar, abstrair, tirar conclusões.

Por que meios - essa é outra questão.


Para mim, começamos a filosofar e proponho terminar a discussão sobre este assunto com uma nota de "colar-nos às nossas armas".
 
rip >> :

Por que não usar a RProp? No caso da genética, dá uma aceleração significativa dos cálculos.


Concordo que é mais rápido, assim como a descida por gradiente. A diferença não é grande coisa. O objetivo do uso da genética é que a probabilidade de encontrar um extremo GLOBAL se aproxima 1. Nenhum gradiente mostrará isto (me corrija se eu estiver errado). Além disso, a superfície de um hiperplano otimizado é repleta de um número infinito de extremos locais com amplitudes significativas. Mas cada vez mais neurônios adicionam mais óleo ao fogo - o hiperplano se torna ainda mais intrincado. Sob tais condições, os gradientes convergem, mas como escrevi acima, a probabilidade de encontrar um extremo global é de 50-80%.
 
IlyaA писал(а) >>

Concordo que é mais rápido, assim como a descida de declive. A diferença não é grande coisa. O objetivo do uso da genética é que a probabilidade de encontrar um extremo GLOBAL é próxima de 1. Nenhum gradiente mostrará isto (me corrija se eu estiver errado). Além disso, a superfície de um hiperplano otimizado é repleta de um número infinito de extremos locais com amplitudes significativas. Mas cada vez mais neurônios adicionam mais óleo ao fogo - o hiperplano se torna ainda mais intrincado. Sob tais condições, os gradientes convergem, mas como escrevi acima, a probabilidade de encontrar um extremo global é de 50-80%.

Você tem resultados concretos de negociação com este sistema? >> Vale a pena o esforço?

 
IlyaA >> :


Concordo que é mais rápido, assim como a descida por gradiente. A diferença não é grande coisa. O objetivo do uso da genética é que a probabilidade de encontrar um extremo GLOBAL é próxima de 1. Nenhum gradiente mostrará isto (me corrija se eu estiver errado). Além disso, a superfície de um hiperplano otimizado é repleta de um número infinito de extremos locais com amplitudes significativas. Mas cada vez mais neurônios adicionam mais óleo ao fogo - o hiperplano se torna ainda mais intrincado. Sob tais condições, os gradientes convergem, mas como escrevi acima, a probabilidade de encontrar um extremo global é de 50-80%.

Concordo que o gradiente não proporciona 100% de convergência do algoritmo de aprendizado.

Eu só uso GAs para obter uma nova topologia de rede. Em média, a RProp mostra atingir um mínimo local em 100-200 épocas.

Depois disso, os indivíduos mais bem sucedidos são encontrados e uma nova população é formada. Mutação. RProp.

 
rip >> :

Concordo, o gradiente não proporciona 100% de convergência do algoritmo de aprendizado.

Eu só uso GAs para obter uma nova topologia de rede. Em média, a RProp mostra atingir um mínimo local em 100-200 épocas.

Depois disso, os indivíduos de maior desempenho são encontrados e uma nova população é formada. Mutação. RProp.


A combinação significa. Meus senhores, deixem-me felicitar a todos! Acabamos de justificar o nome do ramo. É uma idéia! Eis o que me veio à mente. As mutações na genética mudam 20-40% das escalas em pequenos incrementos. Há uma alta probabilidade de que os descendentes retornem ao habitat de seus pais?
 
FION >> :

Você tem resultados concretos de negociação com este sistema? >> Vale a pena o esforço?


Não há resultados concretos. Somente idéias e previsões. Todos os perceptrons que fiz não sobreviveram até a fase de indicador. Eu os rejeitei. ( A melhor idéia no momento supera a intensidade de recursos do algoritmo. Mas Vera continua viva (Nadya e Lyuba também :).
 

Pergunta.

Quem implementou as Redes Takagi-Sugeno-Kanga Fuzzy?