Marktknigge oder gute Manieren im Minenfeld - Seite 15

 
Neutron >> :

Sie können die Formeln selbst in der Literatur nachschlagen, die im Internet reichlich vorhanden ist.

Wir sollten nicht zu voreilig sein. Und versuchen Sie nicht, Ihr Leben mit allen möglichen Erfindungen zu verkomplizieren, wie z. B. "nicht-lineares Lernen" usw. Das kommt vom Bösen. Schönheit und Zuverlässigkeit in Einfachheit und Harmonie!

>> Rette und sei barmherzig...

 
:-)
 
Neutron >> :

Wir sollten es langsam angehen lassen. Und versuchen Sie nicht, Ihr Leben mit allen möglichen Erfindungen wie "nicht-linearem Lernen" und dergleichen zu verkomplizieren. Schönheit und Zuverlässigkeit in Einfachheit und Harmonie!

Ы? Es ist ein Klassiker. Wie auch immer, ich überlasse es Ihnen.

 
Neutron >> :

Sie haben einen Vektor von Eingangssignalen (lassen Sie ihn eindimensional sein) der Länge n Samples, und lassen Sie n+1 Samples einen Test für die Qualität des Trainings des Netzwerks sein. Sie geben diesen Vektor (n Stichproben) ein, wobei Sie alle Gewichte mit Zufallswerten im Bereich +/-1 mit gleichmäßiger Wahrscheinlichkeitsdichteverteilung gleichsetzen, und sehen, was die Ausgabe des Rasters ergibt. Dann nehmen Sie die Differenz zwischen dem erhaltenen Wert und dem gewünschten Wert +4 und addieren diesen Wert unter Beibehaltung seines Vorzeichens zu jedem Gewicht des Ausgangsneurons (wenn es ohne FA ist), oder Sie ermitteln die Ableitung von FA von diesem Wert und addieren sie zu den Gewichten des Eingangsneurons (wenn es FA hat). Und so weiter.

Wenn Sie diesen Teil verdauen, erkläre ich Ihnen, wie Sie den Fehler weiter auf die Eingangsgewichte der ersten (Eingabe-)Schicht übertragen können.

1. So wie ich es verstehe, muss das Netz zwei Betriebsmodi haben: 1 - Lernen, 2 - Erkennen, und diese Modi sind nicht kompatibel, d. h. das Netz befindet sich zu jedem Zeitpunkt in einem der beiden Modi.


2. Ein Vektor von Eingangssignalen der Länge n ist z. B. ein Array V[n,3] (für ein Gitter mit drei Eingängen) von RSI-Werten auf n Balken - richtig? Dann ist der n+1 Zähler derselbe RSI auf dem n+1 Balken. In diesem Fall trainiere ich das Raster, um das zukünftige Verhalten des RSI auf der Grundlage seines früheren Verhaltens vorherzusagen.

Wenn ja, sind die Gewichte klar, bis zu dem Punkt, an dem ich die Ableitung der nicht-glatten FA-Funktion nehmen muss (ich meine, ich weiß nur noch nicht, wie man das macht). Vielleicht sollte man einfach den Winkelkoeffizienten zwischen zwei benachbarten FA(RSI(i))-Punkten nehmen. ? Nun gut, es ist ein technisches Problem - es wird gelöst werden).

 
paralocus писал(а) >>

1. So wie ich es verstehe, muss das Netz zwei Betriebsmodi haben: 1 - Lernen, 2 - Erkennen, und diese Modi sind nicht kompatibel, d. h. das Netz befindet sich zu jedem Zeitpunkt in einem der beiden Modi.

2. Ein Vektor von Eingangssignalen der Länge n ist z. B. ein Array V[n,3] (für ein Gitter mit drei Eingängen) von RSI-Werten auf n Balken - richtig? Dann ist der n+1 Zähler derselbe RSI auf dem n+1 Balken. In diesem Fall trainiere ich das Raster, um das zukünftige Verhalten des RSI auf der Grundlage seines früheren Verhaltens vorherzusagen.

Wenn ja, sind die Gewichte klar, bis zu dem Punkt, an dem ich die Ableitung der nicht-glatten FA-Funktion nehmen muss (ich meine, ich weiß nur noch nicht, wie man das macht). Vielleicht sollte man einfach den Winkelkoeffizienten zwischen zwei benachbarten FA(RSI(i))-Punkten nehmen. ? Nun gut, es ist ein technisches Problem - es wird gelöst werden).

Sehr gut erklärt in F.Wasserman.Neurocomputing - Theorie und Praxis

 
Vinin >> :

Sehr gut erklärt in F. Wasserman, Neurocomputing - Theorie und Praxis

Ja, danke, ich habe einen gefunden.

 
paralocus писал(а) >>

1. So wie ich es verstehe, muss das Netz zwei Betriebsmodi haben: 1 - Lernen, 2 - Erkennen, und diese Modi sind nicht kompatibel, d. h. das Netz befindet sich zu jedem Zeitpunkt in einem der beiden Modi.

2. Ein Vektor von Eingangssignalen der Länge n ist z. B. ein Array V[n,3] (für ein Gitter mit drei Eingängen) von RSI-Werten auf n Balken - richtig? Dann ist der n+1 Zähler derselbe RSI auf dem n+1 Balken. In diesem Fall trainiere ich das Raster, um das zukünftige Verhalten des RSI auf der Grundlage seines früheren Verhaltens vorherzusagen.

Wenn ja, sind die Gewichte klar, bis zu dem Punkt, an dem ich die Ableitung der nicht-glatten FA-Funktion nehmen muss (ich meine, ich weiß nur noch nicht, wie man das macht). Vielleicht sollte man einfach den Winkelkoeffizienten zwischen zwei benachbarten FA(RSI(i))-Punkten nehmen. ? Nun gut, das ist ein technisches Problem - es wird gelöst werden).

1. Wenn ein neues Datum eintrifft, wird das Gitter auf den neuen Trainingsvektor trainiert und erzeugt unmittelbar nach dem Training eine Vorhersage, die einen Schritt voraus ist, und so weiter bis ins Unendliche. D.h. es handelt sich um eine zusätzliche Ausbildung der NS bei jedem Schritt.

2. Mesh mit drei Eingängen liest drei letzte Messwerte der Vektorlänge n+1+3 und wird darauf durch sequentielles Verschieben aller n-mal um einen Schritt trainiert.

Es gibt kein Problem mit dem Derivat. Wenn wir den hyperbolischen Tangens FA=th(x) als FA verwenden, dann haben wir kein Problem, die Ableitung davon zu finden, dFA=1-th(x)^2 und das Korrekturgewicht am Eingang dieses Neurons wird sein: dw=delta*(1-th(s)^2), wobei delta der Fehler zwischen dem Gitterausgang und dem realen Wert der Probe ist, s ist der Gitterausgang.

 
Neutron >> :

1. Wenn ein neues Datum eintrifft, wird das Gitter auf den neuen Trainingsvektor trainiert und erzeugt unmittelbar nach dem Training eine Vorhersage, die einen Schritt voraus ist, und so weiter bis ins Unendliche. D.h. wir sprechen von einer zusätzlichen Ausbildung der NS bei jedem Schritt.

2. Mesh mit drei Eingängen liest drei letzte Messwerte der Vektorlänge n+1+3 und wird darauf durch sequentielles Verschieben aller n-mal um einen Schritt trainiert.

Es gibt kein Problem mit dem Derivat. Wenn wir als FA den hyperbolischen Tangens FA=th(x) verwenden, dann haben wir kein Problem, die Ableitung davon zu finden dFA=1-th(x)^2 und das Korrekturgewicht am Eingang dieses Neurons wird sein: dw=delta*(1-th(s)^2), wobei delta der Fehler zwischen dem Gitterausgang und dem realen Wert der Probe ist, s ist der Gitterausgang.

Das war's! Es ist also nicht nötig, sie umzuschulen. Oh, großartig!

2. Ein Gitter mit drei Eingängen liest die letzten drei Abtastwerte eines Vektors der Länge n+1+3 und wird darauf trainiert, indem es alle n Male um einen Schritt verschoben wird.


Da habe ich mich wohl falsch ausgedrückt. Nicht ein Gitter mit drei Eingängen, sondern ein Neuron mit drei Synapsen, von denen jede ein Eingangssignal empfängt:

1synaps - th(RSI(i))

2synaps - th(RSI(i+dt))

3synaps - th(RSI(i+td*2))

1. Wir initialisieren die Gewichte der Synapsen mit Zufallswerten (-/+1), was sinnvoll ist, da es nur drei davon gibt.

2. Dann müssen wir jeden Eingang mit n Samples des Eingangssignals füttern, d.h. mit einer Sequenz von Eingangssignalen auf n vorherigen Takten.

3. Dann Ausgabe Neuron auf n-ten Bar und vergleichen Sie es mit n + 1 Wert des Eingangssignals, Differenz (Fehler) mit seinem Vorzeichen sollte zu jedem Gewicht hinzugefügt werden, wenn die Ausgabe des Neurons ohne FA.

Wenn die Ausgabe von FA stammt, addieren wir zu den Gewichten den Fehler multipliziert mit der Vorsicht von FA (beim n-ten Takt)

4. Bewegen Sie sich einen Balken nach vorne (n+1. wird n.) und wiederholen Sie die Schritte 2 bis 4.


Fragen:

1. n = k*w*w/d ?

2. Um den Fehlerwert zu berechnen, ziehen Sie immer die Anzahl der Tests vom Ausgangswert des Rasters ab.

 

Ja!

Dann gehen wir zu den Epochen des Lernens über. Es wird von 10 bis 1000, je nach Zielen und Mittel, und wir werden in mehr Details zu berühren, wie ein Vektor der Gewichte Korrektur (es ist in der Tat kommutativ innerhalb einer Epoche) zu bilden und hat eine Länge gleich der Anzahl der Synapsen w auf eine Probe der Länge n-Zahlen.

Kurzum, machen Sie sich noch keine Mühe.

 
Neutron >> :

Ja!

Dann gehen wir zu den Epochen des Lernens über. Es wird von 10 bis 1000, je nach Zielen und Mittel, und wir werden in mehr Details zu berühren, wie ein Vektor der Gewichte Korrektur (es ist in der Tat kommutativ innerhalb einer Epoche) zu bilden und hat eine Länge gleich der Anzahl der Synapsen w auf eine Probe der Länge n-Zahlen.

Kurz gesagt: Freuen Sie sich noch nicht zu früh.

Neutron, ich werde eine kurze Auszeit nehmen. Ich muss alles noch einmal überdenken und zumindest für ein Neuron in Codes umsetzen. Wie auch immer, ein oder zwei Tage, und dann machen wir weiter.

Ich danke Ihnen vielmals!