Wie man die Eingabewerte für die NS richtig bildet. - Seite 8

 
sergeev писал (а) >>

klot, ich glaube, er hat die Normalisierung des normalen MA mit StdDev gepostet.

Es ist besser, die Geschwindigkeit des MA zu verwenden, d.h. die erste Ableitung, als den MA.

 
LeoV писал (а) >>

Es ging nicht um Indikatoren, sondern um die Rationierung des Preises in einem bestimmten Gebiet, in dem die Höchst- und Tiefstwerte ausgewählt werden.

Dort ging es um die Rationierung von Proben...

 
sergeev писал (а) >>


Grob gesagt, habe ich einen Plan für meine Arbeit mit dem neuronalen Netz aufgestellt, oder besser gesagt, die Dinge, auf die ich bei der Entwicklung des Netzes achten muss.

1. Vorbereitung der Eingabedaten. (Mittelwertverschiebung, Dekorrelation, Kovarianzausgleich).

Können Sie das genauer erläutern? Vorzugsweise mit einem Minimum an Details. Interessant.

3. Das Problem der Umschulung des Netzes

Nun, das ist leicht zu überprüfen und kann durch eine Verringerung der Anzahl der Parameter behandelt werden. Wenn es nicht geheilt ist, müssen wir eine neue Probe nehmen.

4. Gegenkontrolle

Mehr Details bitte.

7. Möglichkeit der Verwendung von Lightka-Karten (oder Kohonen- und Grossberg-Ebenen?)

Ich denke, es ist perfekt für die Mustersuche.

8. Ausschuss der Netzwerke.

Das ist nicht der Fall, sie werden in Expertensystemen verwendet, hier ist es ein bisschen anders.

9. Rekursive Netzwerke.

Das ist es IMHO noch nicht wert.

 
sergeev писал (а) >>

klot, ich glaube, er hat die Normalisierung eines normalen MA mit StdDev gepostet.

Ich weiß, dass man den Preis auch normalisieren kann, nur nicht den Weg vom Maximum zum Minimum...

 
TheXpert писал (а) >>

Können Sie das genauer erläutern? Vorzugsweise mit einem Minimum an Details. Interessant.

Abb. 4.11 von S. Haykin, das Buch zu Beginn des Themas

Nun, das ist leicht zu überprüfen und kann durch eine Verringerung der Anzahl der Parameter behandelt werden. Wenn es nicht geheilt ist, müssen wir eine neue Probe nehmen.

>> Abbildungen. 4.18, 4.19 ebd.

Mehr Details, bitte.

Abb. 4.20, 4.21 ebd.

 
sergeev писал (а) >>

Abb. 4.11 von S. Haykin, Buch zu Beginn des Themas

Abbildungen. 4.18, 4.19 ebd.

Abb. 4.20, 4.21 ebd.


Ja, ich werde heute Abend etwas zu lesen haben und möglicherweise bald den Code auspacken :)

 
Möchten Sie sich beteiligen?
 
sergeev писал (а) >>
Würden Sie sich beteiligen?

Natürlich, sonst würde ich ja nicht darüber sprechen. Es sei denn, es gibt etwas zu teilen.

 
sergeev писал (а) >> Gegenprobe
TheXpert schrieb (a) >> Bitte auch mehr Details.
Bei einem Cross-Check wird ein Netz z. B. für das Segment 2007 trainiert, und das beste Ergebnis aus dem Segment 2007 wird im Segment 2008 "getestet", und wenn dieses Ergebnis besser ist als das vorherige (das ebenfalls 2008 "getestet" wurde), wird dieses Netz beibehalten. Und so weiter. Genauso kann es sein, dass man 2007 keine besseren Ergebnisse erzielt, aber man muss sich keine Sorgen machen, weil das Netz 2008 überprüft wird. Dadurch wird ein Übertraining (für das Netz) oder eine Überoptimierung (für den TC) vermieden.
 
sergeev писал (а) >> 8. Ausschuss für Netzwerke.

Normalerweise sind 3 von 2 oder 5 von 3 erledigt. Das heißt, von 3 Netzen müssen 2 "mitmachen". Komitees sind natürlich besser, da 3 nicht sehr profitable Netze einen viel höheren Gewinn als jedes einzelne bringen können. Es ist jedoch notwendig, die Netze in den Ausschüssen sehr bewusst auszuwählen, da nicht jedes Netz mit einem anderen ordnungsgemäß funktionieren wird.