Como você trabalha com redes neurais? - página 8

 
VladislavVG:

O que você quer dizer com "otimização"? Se está apenas passando pelas opções, isso não é realmente o que é. É a MT que o confunde.

Agora sobre GA: é um método de busca, no caso da rede de treinamento estamos procurando o mínimo de algum funcional. Muitas vezes são cometidos erros. No processo de treinamento da rede, tanto ORO como GA, e gradientes e recozimento (existe tal método - semelhante ao GA) tentam encontrar um extremo. Qual método será mais eficaz depende do critério funcional e de qualidade (ou seja, critério segundo o qual as melhores variantes são selecionadas). GA é o mais universal de todos os métodos. Nenhum deles garante encontrar o extremo global.

Com o uso da GA é possível, por exemplo, selecionar simultaneamente a arquitetura da rede, ou seja, incluí-la (arquitetura) em parâmetros otimizados e estabelecer critérios de qualidade (função de adequação em termos de GA). Há mais possibilidades. E se necessário, você também pode usar ORO junto com GA.

Boa sorte.


Você mesmo já respondeu que a GA não é uma rede neural. Pode também ser um método de gradiente tão facilmente como um NS. Há um carro e um motorista. E há uma série de maneiras de ensinar um motorista a dirigir um carro, mas cada uma dessas maneiras não é um carro.

Isto também é o que a Swetten afirma. Eu realmente não entendo sobre o que vocês estão discutindo?

 
Farnsworth:

Você mesmo respondeu que a GA não é uma rede neural. O método do gradiente pode muito bem ser um NS fácil. Há um carro e um motorista. E há muitas maneiras de ensinar ao motorista como dirigir um carro, mas cada uma dessas maneiras não é um carro.

Isto também é o que a Swetten afirma. Eu realmente não entendo o que vocês estão argumentando?

Portanto, eu não afirmei que a GA é NS. Mostrei como NS e GA poderiam ser conectadas em resposta à frase de Svetlana,

Напомню изначальное утверждение: НС и ГА -- совершенно разные вещи, между собой никак не связанные.

Que não existe tal conexão.


Boa sorte.
 
VladislavVG:

Portanto, eu não afirmei que a GA é NS. Mostrei como NS e GA poderiam ser relacionadas em resposta à frase de Svetlana de que não existe tal coisa.

1. Você não leu o fio com cuidado e não entendeu a que a frase se referia;

2. O mais engraçado é que eles realmente não têm nada a ver com isso. Se você adicionar GA, é uma coisa; se você adicionar ORO, é outra coisa; se você adicionar algo mais, é outra coisa.

3. GA é apenas um mecanismo de otimização. É um mecanismo universal, devo ressaltar. É universal, incluindo o de otimização NS.

Quanto aos pontos 2 e 3, concluo que a NS e a GA nada têm a ver uma com a outra.

 

NS - método de transformação (qualquer que seja: aproximação, classificação, filtragem, transformação lógica)

GA - método de otimização.

Um não é o outro e não podem se substituir um ao outro. E basta.

Em muitos artigos e livros sobre NS, falando sobre redes neurais artificiais, eles implicam que são treinados pelo ORO, enganando os leitores. Não só isso, encontrei declarações de que "tais redes não funcionam porque...." enquanto que se uma rede é treinada com algum outro algoritmo de otimização, ela já é uma rede completamente diferente atribuindo qualidades completamente diferentes a tais "outras" redes - um mijo de ovelha. Uma rede é uma rede, ela não mudará suas propriedades se nós a treinarmos por qualquer método de otimização. Pode mudar a qualidade do treinamento, isso é tudo.