Marktknigge oder gute Manieren im Minenfeld - Seite 26

 

Ich werde mir eine Auszeit gönnen -:)

Wir sollten in die Bibliothek gehen...

 
registred писал(а) >>

Ich bin mir nicht ganz sicher, was Sie mit "Umschulung bei jedem Schritt" meinen.

Ich mache nur Vorhersagen mit NS für eine Zählung vorwärts. Um die Genauigkeit der Vorhersage nicht zu verlieren, trainiere ich das Netz dann mit neuen Eingabedaten usw. In diesem Fall können Sie das Raster nicht "von Grund auf" neu trainieren, sondern die alten Werte der Gewichte als Startwerte für den neuen Countdown beibehalten.

Das ist genau das, was ich im Sinn hatte.

 

Neutron, wenn ich von der Amplitudenvorhersage zur Vorzeichenvorhersage übergehe, stellt sich heraus, dass der Fehler in der Gitterausgabe ein Fehler im Vorzeichen ist. Das heißt, der Fehler nimmt einen Wert von +1 oder -1 an.

Verstehe ich diesen Punkt richtig? Wenn nicht, wie?

 
Neutron >> :

Ich mache eine Vorhersage mit NS nur eine Zählung vorwärts. Um die Genauigkeit der Vorhersage aufrechtzuerhalten, trainiere ich dann das Gitter mit neuen Eingabedaten usw. In diesem Fall können Sie das Gitter nicht "von Grund auf" neu trainieren, sondern die alten Gewichtswerte als Startwerte für den neuen Countdown speichern.

Das ist genau das, was ich im Sinn hatte.

Ich frage mich, ob ein flaches Netz die Vorhersage ändert?

 
Jingo писал(а) >>

Ich frage mich, ob es sich um eine Wohnung handelt - ändert das Netz die Vorhersage?

Natürlich tut es das! Sie ist von Natur aus anpassungsfähig.

Und dann ist eine Wohnung im Grunde dasselbe wie ein Trend, nur kleiner... Ihre Frage läuft also auf die Anpassung der NS an einen neuen/veränderten Handelshorizont hinaus. Dafür ist sie direkt verantwortlich. Die Tatsache, dass ich bei der Umschulung die "alten" Werte der Gewichte in einem bereits "neuen" Markt verwende, beeinträchtigt den Prozess selbst nicht, im Gegenteil. Es geht darum, dass der Prozess der Trendänderung (bzw. der exakten Trendänderung) quasistationär ist und sich daher die gewählte Taktik rechtfertigt.

paralocus schrieb >>

Neutron, wenn ich von der Amplitudenvorhersage zur Vorzeichenvorhersage wechsle, stellt sich heraus, dass der Fehler in der Gitterausgabe ein Fehler im Vorzeichen ist. D.h. der Fehler nimmt den Wert +1 oder -1 an.

Verstehe ich diesen Punkt richtig? Wenn nicht, was ist es dann?

Nein, das sind Sie nicht.

Der Prozess der Ausbildung des Netzes unterscheidet sich nicht von dem klassischen Fall, der Unterschied ist, dass Sie ein binäres Signal am Eingang der versteckten Schicht von Neuronen geben und die Ausgabe ist ein reeller Wert auf dem Intervall [-1,1] (im Falle der Aktivierung des Ausgangs Neuron th()) und proportional zu der Wahrscheinlichkeit des Auftretens von Ereignissen (Sicherheit des Netzes in einem Zeichen der erwarteten Zunahme) bestimmt. Wenn Sie sich nicht für die Wahrscheinlichkeit, sondern nur für das Vorzeichen der erwarteten Kegelbewegung interessieren, dann interpretieren Sie nur das Vorzeichen der Vorhersage, trainieren aber das Netz auf reale Zahlen (ich meine, dass der Fehler in der ORO-Methode eine reale Zahl sein muss). Die Tatsache, dass die Lernrate bei dieser Methode im Vergleich zum allgemeinen Fall steigt, ist kein Paradoxon. Die Tatsache, dass wir durch die Eingabe eines binären Signals die Dimensionalität des Merkmalsraums, in dem der NS trainiert werden soll, erheblich reduzieren. Vergleichen: entweder +/-1 oder von -1 bis 1, in Schritten von 0,001, und jeder Wert muss auf der Hypersurface der Dimension d (Anzahl der Eingänge) platziert werden, nachdem sie zuvor durch denselben NS konstruiert wurde (dies geschieht während des Trainings).

 
Neutron >> :

...Sie geben ein binäres Signal an die versteckte Schicht von Neuronen und die Ausgabe ist ein reeller Wert, der im Intervall [-1,1] definiert ist

Das war's! Das käme mir gar nicht in den Sinn! >> Ich werde es jetzt versuchen.)

 

...Vergleichen: entweder +/-1 oder von -1. bis 1, in Schritten von 0,001 und jeder Wert muss auf einer Hypersurface der Dimension d (Anzahl der Eingänge) platziert werden, nachdem er zuvor durch denselben NS konstruiert wurde (er tut dies während seines Trainings).


Und wenn der Eingang ein binäres Signal ist, ist es dann nicht besser, ihn auf 0/1 zu setzen?

 

Nein, natürlich nicht!

Der Schwerpunkt einer solchen "Eingabe" wird um 0,5 (seine MO) verschoben, während die Eingabe bei der Initialisierung MO=0 hat. Sie müssen also einen Teil Ihrer Ressourcen für ein leeres Hochziehen (Anpassen der Gewichtung) des einzelnen Inputs eines Neurons aufwenden, um das Offensichtliche anzupassen. Generell sollte alles, was unabhängig und ohne Beteiligung von KI getan werden kann, getan werden. Dies erspart den NS eine Menge Lernzeit. Zu diesem Zweck werden die Eingaben normalisiert, zentriert und geweißt. All dies, um die Aufmerksamkeit der KI nicht mit Trivialitäten abzulenken, sondern um sich auf das Wichtigste und Schwierigste zu konzentrieren - nichtlineare multivariate Korrelationen und Autokorrelationen.

 

Ja, das habe ich verstanden.

Ich bin gerade dabei, mein zweischichtiges selbstlernendes Perseptron zu optimieren. Ich hoffe, dass sie heute wieder funktioniert.

 
paralocus писал(а) >>

Ich hoffe, dass sie bis heute wieder in Betrieb ist.

Mach dir keine zu großen Hoffnungen :-)

Meiner Erfahrung nach werden Sie bereit sein, das Gleiche noch 20-25 Mal zu sagen, bevor es tatsächlich funktioniert.