Una rete neurale probabilistica

 

Una rete neurale probabilistica. Come funziona (non capisco). Come regolare i pesi, ecc. Ovunque è una descrizione spaziale. Puoi dire l'apparato matematico.

 
gumgum >>:

1)Вероятностная нейронная сеть. Как функционирует(не пойму).

2)Как настроить веса и т.д. Везде поверхостное описание. Можете рассказать мат. аппорат.

1) Le Reti Neurali Probabilistiche (PNN) sono la stessa cosa del Multilayer Perspectron (MLP).


2) L'apprendimento è lo stesso.


3) In generale, questa molteplicità di reti è solo fonte di confusione. Infatti, le reti si dividono in:

a) per il numero di strati nascosti

b) secondo la topologia dei collegamenti, stella, reticolo (e altri che mi vengono in mente)

c) per tipo di funzione di attivazione nei neuroni

d) Con o senza feedback, con o senza collegamenti ibridi

e) a), b), c) e d) possono essere in una rete.


non preoccuparti troppo delle definizioni.

 
C'è una ricerca in alto a destra. Usalo.
 
Abbiamo dei campioni n da A e k da B. Ogni campione ha un numero z di parametri. Appare un elemento sconosciuto e dobbiamo assegnarlo ad A o a B. Come facciamo? Prendere la distanza euclidea?
 
gumgum >>:
Вот у нас есть образцы n из A и k из B. каждый обр. обладает z кол-вом параметров. Появляется неизвестный элемент и нам надо его отнести к А или B. Ну и как? Евклидово расстояние брать?

in 2 parole:

in un punto dato (vettore riconoscibile) l'attività delle funzioni radiali (potenziale) è sommata, prima sommata sulla classe A, poi sulla classe B, la conclusione su quale classe appartiene il vettore riconoscibile è fatta confrontando le somme (chi è il più grande vince).

2 joo:

La rete probabilistica e MLP sono molto diverse. In ogni caso, il principio alla base è diverso.

Un'altra cosa è che anch'io non consiglio di impantanarsi con diverse griglie, tutto quello che serve è spremuto da una normale MLP.

 

Avete un compito di classificazione.

Per addestrare la rete usiamo esempi la cui risposta è 1 o -1 (appartenenti ad A o B)

Useremo la sigmoide come funzione di attivazione dei neuroni


Ha la forma:

Diciamo che lo spazio A contiene tutte le risposte 1, e lo spazio B contiene tutte le risposte -1. Si noti che questi spazi non sono necessariamente separati da una linea retta (una curva potrebbe esserlo).

Tutte le risposte che non rientrano esattamente in A o B a causa degli attributi disponibili (leggi - dati di input) saranno disposte in una griglia nello spazio -1...1

con questa probabilità:


PS Lo sapevi, vero?




 
joo >>:

У Вас задача классификации.

Для обучения сети используются примеры, ответ на который либо 1, либо -1 (принадлежность к А или В)

В качестве активационной функции нейронов используем сигмоиду


Имеет вид:

Скажем, к пространству А относятся все ответы 1, а к пространству В все ответы -1. Причем, эти пространства необязательно разделены четкой прямой линией (может быть и кривая)

Все ответы точно не попадающие ни в А ни в Б по имеющимся признакам (читаем - входные данные) будут расположены сеткой в пространстве -1...1

с вероятностью такой:


PS Вы же это знали, не так ли?





Penso che non si tratti solo della funzione di attivazione
 
StatBars >>:

2 joo:

Вероятностная сеть и МЛП очень сильно различаются. Во всяком случае принцип у них заложен разный.

Другое дело что я тоже не рекомендую заморачивать на разных сетках, всё что нужно выжимается из обычного МЛП.

La domanda riguardava il compagno. Le differenze sono in base all'insegnante. PNN ha risposte -1 e 1, tutto ciò che sta in mezzo è probabilità di appartenenza alla classe, mentre MLP (MNN) ha risposte -1 e 1 su tutto l'intervallo. La differenza è solo nell'insegnante (dati di controllo per l'apprendimento), e le reti sono le stesse.

 
joo >>:

Вопрос был про мат аппарат. Различия у них по учителю. У PNN ответы -1 и 1, все что между ними - вероятность принадлежности к классу, а у MLP (MNN) ответы на всем промежутке -1 и 1. Разница только в учителе (контрольные данные для обучения), а сети одни и те же.

Non è solo l'insegnante. Il principio è diverso. MLP disegna linee (iperpiani) e la probabilistica disegna cerchi (iperballe).

Prendete un semplice esempio:

Un perceptron lineare disegna solo una linea e basta, la sua linea è infinita.

E il valore dei potenziali di entrambe le classi sarà praticamente zero. C'è una differenza?

 

Esempio.

È necessario organizzare una classificazione, maschile o femminile.

Ci sono tali segni, il numero di segni corrisponde al numero di neuroni nello strato di input

1. Presenza/assenza di caratteristiche sessuali primarie.

2. Presenza/assenza di caratteristiche sessuali secondarie

3. Lunghezza dei capelli

4. larghezza dell'anca

5. Larghezza delle spalle.

6. Presenza di peli sulle estremità.

7. Presenza di trucco.

Codificare le caratteristiche nell'intervallo -1...1.

Presentare le reti quando si insegna il 100% delle caratteristiche appartenenti al sesso. Risposte -1 e 1.

Le combinazioni di tratti daranno risposte non "fuzzy", ad esempio (-0,8) corrisponderà all'80% di probabilità di essere femmina.