¿Cómo se trabaja con las redes neuronales? - página 8

 
VladislavVG:

¿Qué quiere decir con "optimización"? Si sólo se trata de revisar las opciones, no es realmente lo que es. Es la MT la que te confunde.

Ahora sobre GA: es un método de búsqueda, en el caso de la red de entrenamiento estamos buscando el mínimo de algunos funcionales. A menudo se cometen errores. En el proceso de entrenamiento de la red, tanto ORO como GA, y los gradientes y el recocido (hay un método de este tipo - similar a GA) tratan de encontrar un extremo. Qué método será más eficaz depende del criterio funcional y de calidad (es decir, el criterio según el cual se seleccionan las mejores variantes). El AG es el más universal de todos los métodos. Ninguno de ellos garantiza la búsqueda del extremo global.

Con el uso de GA es posible, por ejemplo, seleccionar simultáneamente la arquitectura de la red, es decir, incluirla (arquitectura) en los parámetros optimizados y establecer el criterio de calidad (función de aptitud en términos de GA). Hay más posibilidades. Y si es necesario, puede utilizar ORO junto con GA también.

Buena suerte.


Ya te has contestado a ti mismo que el AG no es una red neuronal. Podría ser un método de gradiente como fácilmente un NS. Hay un coche y un conductor. Y hay un montón de formas de enseñar a un conductor a conducir un coche, pero cada una de esas formas no es un coche.

Esto es también lo que afirma Swetten. No entiendo muy bien qué es lo que estáis discutiendo.

 
Farnsworth:

Tú mismo has respondido que el AG no es una red neuronal. El método del gradiente también podría ser un NS fácil. Hay un coche y un conductor. Y hay muchas formas de enseñar al conductor a conducir un coche, pero cada una de esas formas no es un coche.

Esto es también lo que afirma Swetten. No entiendo muy bien qué es lo que estás argumentando.

Así que no he afirmado que GA sea NS. En respuesta a la frase de Svetlana, mostré cómo podían conectarse NS y GA,

Напомню изначальное утверждение: НС и ГА -- совершенно разные вещи, между собой никак не связанные.

Que no existe tal conexión.


Buena suerte.
 
VladislavVG:

Así que no he afirmado que GA sea NS. Mostré cómo NS y GA podrían estar relacionados en respuesta a la frase de Svetlana de que no existe tal cosa.

1. No has leído bien el hilo y no has entendido a qué se refería la frase;

2. Lo más gracioso es que realmente no tienen nada que ver. Si se añade GA, es una cosa; si se añade ORO, es otra cosa; si se añade algo más, es otra cosa.

3. El AG es sólo un mecanismo de optimización. Es un mecanismo universal, debo señalar. Se trata de una universal, incluida la de la optimización de la NS.

En cuanto a los puntos 2 y 3, concluyo que el NS y el GA no tienen nada que ver.

 

NS - método de transformación (cualquiera: aproximación, clasificación, filtrado, transformación lógica)

Método de optimización GA.

Uno no es el otro y no pueden sustituirse. Y basta.

En muchos artículos y libros sobre NS, al hablar de las redes neuronales artificiales, dan a entender que son entrenadas por ORO, engañando a los lectores. Y no sólo eso, me he encontrado con afirmaciones de que "esas redes no funcionan porque...." mientras que si una red se entrena con algún otro algoritmo de optimización, ya es una red completamente diferente atribuyendo cualidades completamente diferentes a esas "otras" redes: un pis pas. Una red es una red, no cambiará sus propiedades si la entrenamos por cualquier método de optimización. Puede cambiar la calidad de la formación, eso es todo.