Una red neuronal probabilística

 

Una red neuronal probabilística. Cómo funciona (no lo entiendo). Cómo ajustar los pesos, etc. Todo es una descripción espacial. ¿Puedes decir el aparato matemático.

 
gumgum >>:

1)Вероятностная нейронная сеть. Как функционирует(не пойму).

2)Как настроить веса и т.д. Везде поверхостное описание. Можете рассказать мат. аппорат.

1) Las Redes Neuronales Probabilísticas (PNN) son lo mismo que el Perspectrón Multicapa (MLP).


2) El aprendizaje es el mismo.


3) En general, esta multiplicidad de redes no hace más que confundir. De hecho, las redes se dividen en:

a) por el número de capas ocultas

b) en función de la topología de enlaces, estrella, red (y otras que se me ocurran)

c) por tipo de función de activación en las neuronas

d) Con o sin retroalimentación, con o sin enlaces híbridos

e) a), b), c) y d) pueden estar en una red.


no te preocupes demasiado por las definiciones.

 
Hay una búsqueda en la esquina superior derecha. Úsalo.
 
Entonces tenemos muestras n de A y k de B. Cada muestra tiene z número de parámetros. Aparece un elemento desconocido y hay que asignarlo a A o a B. ¿Cómo lo hacemos? ¿Tomar la distancia euclidiana?
 
gumgum >>:
Вот у нас есть образцы n из A и k из B. каждый обр. обладает z кол-вом параметров. Появляется неизвестный элемент и нам надо его отнести к А или B. Ну и как? Евклидово расстояние брать?

en 2 palabras:

en un punto dado (vector reconocible) se suma la actividad de las funciones radiales (potencial), primero se suma sobre la clase A, luego sobre la clase B, la conclusión sobre a qué clase pertenece el vector reconocible se hace comparando las sumas (gana el que sea mayor).

2 joo:

La red probabilística y el MLP son muy diferentes. De todos modos, el principio que los sustenta es diferente.

Otra cosa es que tampoco recomiendo enfrascarse en diferentes parrillas, todo lo que se necesita se exprime de un MLP normal.

 

Tiene una tarea de clasificación.

Para entrenar la red utilizamos ejemplos cuya respuesta es 1 o -1 (pertenecientes a A o B)

Utilizaremos la sigmoidea como función de activación de las neuronas


Tiene la forma:

Digamos que el espacio A contiene todas las respuestas 1, y el espacio B contiene todas las respuestas -1. Ten en cuenta que estos espacios no están necesariamente separados por una línea recta (podría ser una curva).

Todas las respuestas que no encajen exactamente en A o B debido a los atributos disponibles (léase - datos de entrada) se ordenarán en una cuadrícula en el espacio -1...1

con esta probabilidad:


PS Lo sabías, ¿verdad?




 
joo >>:

У Вас задача классификации.

Для обучения сети используются примеры, ответ на который либо 1, либо -1 (принадлежность к А или В)

В качестве активационной функции нейронов используем сигмоиду


Имеет вид:

Скажем, к пространству А относятся все ответы 1, а к пространству В все ответы -1. Причем, эти пространства необязательно разделены четкой прямой линией (может быть и кривая)

Все ответы точно не попадающие ни в А ни в Б по имеющимся признакам (читаем - входные данные) будут расположены сеткой в пространстве -1...1

с вероятностью такой:


PS Вы же это знали, не так ли?





Creo que no se trata sólo de la función de activación
 
StatBars >>:

2 joo:

Вероятностная сеть и МЛП очень сильно различаются. Во всяком случае принцип у них заложен разный.

Другое дело что я тоже не рекомендую заморачивать на разных сетках, всё что нужно выжимается из обычного МЛП.

La pregunta se refería al compañero. Las diferencias son por profesor. PNN tiene respuestas de -1 y 1, todo lo que está en medio es probabilidad de pertenencia a la clase, mientras que MLP (MNN) tiene respuestas de -1 y 1 en todo el intervalo. La diferencia está sólo en el profesor (datos de control para el aprendizaje), y las redes son las mismas.

 
joo >>:

Вопрос был про мат аппарат. Различия у них по учителю. У PNN ответы -1 и 1, все что между ними - вероятность принадлежности к классу, а у MLP (MNN) ответы на всем промежутке -1 и 1. Разница только в учителе (контрольные данные для обучения), а сети одни и те же.

No es sólo el profesor. El principio es diferente. El MLP dibuja líneas (hiperplanos) y el probabilístico dibuja círculos (hiperbolas).

Pongamos un ejemplo sencillo:

Un perceptrón lineal sólo dibuja una línea y ya está, su línea es infinita.

Y el valor de los potenciales de ambas clases será prácticamente nulo. ¿Hay alguna diferencia?

 

Ejemplo.

Hay que organizar una clasificación, masculina o femenina.

Hay tales signos, el número de signos corresponde al número de neuronas en la capa de entrada

1. Presencia/ausencia de características sexuales primarias.

2. Presencia/ausencia de caracteres sexuales secundarios

3. Longitud del cabello

4. anchura de las caderas

5. Anchura de los hombros.

6. Presencia de pelo en las extremidades.

7. Presencia de maquillaje.

Codificación de las características en el rango -1...1.

Presentar las redes al enseñar el 100% de las características propias del sexo. Respuestas -1 y 1.

Las combinaciones de rasgos darán respuestas no "difusas", por ejemplo, (-0,8) corresponderá a un 80% de probabilidad de ser mujer.