Ein probabilistisches neuronales Netz

 

Ein probabilistisches neuronales Netz. Wie funktioniert es (ich verstehe es nicht). Wie man Gewichte einstellt usw. Überall ist eine räumliche Beschreibung. Können Sie den mathematischen Apparat erkennen.

 
gumgum >>:

1)Вероятностная нейронная сеть. Как функционирует(не пойму).

2)Как настроить веса и т.д. Везде поверхостное описание. Можете рассказать мат. аппорат.

1) Probabilistische Neuronale Netze (PNN) sind dasselbe wie Mehrschicht-Perspektren (MLP).


2) Lernen ist dasselbe.


3) Im Allgemeinen ist diese Vielzahl von Netzen nur verwirrend. Die Netze sind nämlich unterteilt in:

a) durch die Anzahl der verborgenen Schichten

b) nach der Topologie der Verbindungen, des Sterns, des Gitters (und andere, die mir einfallen)

c) nach Art der Aktivierungsfunktion der Neuronen

d) Mit oder ohne Rückkopplungen, mit oder ohne Hybridverbindungen

e) a), b), c) und d) können zu einem Netz gehören.


Machen Sie sich nicht zu viele Gedanken über Definitionen.

 
In der rechten oberen Ecke befindet sich eine Suchfunktion. Verwenden Sie es.
 
Wir haben also Stichproben n aus A und k aus B. Jede Stichprobe hat z Parameter. Ein unbekanntes Element erscheint und wir müssen es A oder B zuordnen. Wie machen wir das? Nehmen Sie den euklidischen Abstand?
 
gumgum >>:
Вот у нас есть образцы n из A и k из B. каждый обр. обладает z кол-вом параметров. Появляется неизвестный элемент и нам надо его отнести к А или B. Ну и как? Евклидово расстояние брать?

in 2 Worten:

An einem gegebenen Punkt (erkennbarer Vektor) wird die Aktivität der Radialfunktionen (Potenziale) summiert, zuerst über die Klasse A, dann über die Klasse B. Die Schlussfolgerung, zu welcher Klasse der erkennbare Vektor gehört, wird durch den Vergleich der Summen gezogen (wer die größere ist, gewinnt).

2 joo:

Das probabilistische Netz und MLP sind sehr unterschiedlich. Das Prinzip, das dahinter steckt, ist jedoch ein anderes.

Außerdem empfehle ich nicht, sich mit verschiedenen Rastern zu verzetteln, alles, was benötigt wird, wird aus einem normalen MLP herausgequetscht.

 

Sie haben eine Klassifizierungsaufgabe.

Um das Netz zu trainieren, werden Beispiele verwendet, deren Antwort entweder 1 oder -1 ist (zu A oder B gehörend)

Wir werden das Sigmoid als Aktivierungsfunktion der Neuronen verwenden


Sie hat die Form:

Nehmen wir an, Raum A enthält alle Antworten 1 und Raum B enthält alle Antworten -1. Beachten Sie, dass diese Räume nicht notwendigerweise durch eine gerade Linie getrennt sind (eine Kurve könnte es sein).

Alle Antworten, die aufgrund der verfügbaren Attribute (lies: Eingabedaten) nicht genau in A oder B passen, werden in einem Raster im Raum -1...1 angeordnet.

mit dieser Wahrscheinlichkeit:


PS Das wussten Sie, nicht wahr?




 
joo >>:

У Вас задача классификации.

Для обучения сети используются примеры, ответ на который либо 1, либо -1 (принадлежность к А или В)

В качестве активационной функции нейронов используем сигмоиду


Имеет вид:

Скажем, к пространству А относятся все ответы 1, а к пространству В все ответы -1. Причем, эти пространства необязательно разделены четкой прямой линией (может быть и кривая)

Все ответы точно не попадающие ни в А ни в Б по имеющимся признакам (читаем - входные данные) будут расположены сеткой в пространстве -1...1

с вероятностью такой:


PS Вы же это знали, не так ли?





Ich denke, es geht nicht nur um die Aktivierungsfunktion
 
StatBars >>:

2 joo:

Вероятностная сеть и МЛП очень сильно различаются. Во всяком случае принцип у них заложен разный.

Другое дело что я тоже не рекомендую заморачивать на разных сетках, всё что нужно выжимается из обычного МЛП.

Die Frage bezog sich auf den Kumpel. Die Unterschiede liegen bei den Lehrern. PNN hat -1 und 1 Antworten, alles dazwischen ist die Wahrscheinlichkeit der Klassenzugehörigkeit, während MLP (MNN) -1 und 1 Antworten über das gesamte Intervall hat. Der Unterschied liegt nur im Lehrer (Kontrolldaten für das Lernen), und die Netze sind die gleichen.

 
joo >>:

Вопрос был про мат аппарат. Различия у них по учителю. У PNN ответы -1 и 1, все что между ними - вероятность принадлежности к классу, а у MLP (MNN) ответы на всем промежутке -1 и 1. Разница только в учителе (контрольные данные для обучения), а сети одни и те же.

Es geht nicht nur um den Lehrer. Das Prinzip ist ein anderes. MLP zeichnet Linien (Hyperebenen) und probabilistisch zeichnet Kreise (Hyperbälle).

Nehmen Sie ein einfaches Beispiel:

Ein lineares Perzeptron zeichnet einfach eine Linie und das war's, seine Linie ist unendlich.

Und der Wert der Potenziale beider Klassen wird praktisch gleich Null sein. Gibt es einen Unterschied?

 

Beispiel.

Eine Klassifizierung, ob männlich oder weiblich, muss organisiert werden.

Es gibt solche Zeichen, die Anzahl der Zeichen entspricht der Anzahl der Neuronen in der Eingabeschicht

1. Vorhandensein/Fehlen von primären Geschlechtsmerkmalen.

2. Vorhandensein/Fehlen von sekundären Geschlechtsmerkmalen

3. Länge der Haare

4. Hüftbreite

5. Breite der Schultern.

6. Vorhandensein von Haaren an den Extremitäten.

7. Anwesenheit von Make-up.

Codierung der Merkmale im Bereich -1...1.

Stellen Sie die Netze vor, wenn Sie 100% der zum Geschlecht gehörenden Merkmale trainieren. Antworten -1 und 1.

Kombinationen von Merkmalen ergeben nicht "unscharfe Antworten", z. B. entspricht (-0,8) einer Wahrscheinlichkeit von 80 %, dass es sich um eine Frau handelt.