Künstliche neuronale Netze. - Seite 3

 
gpwr:

Das Netz ist ein Werkzeug, eine Art universelle nichtlineare Funktion, die für verschiedene Daten (Input-Output) optimiert (angepasst) werden kann. Diese Funktion kann keine Regelmäßigkeiten extrahieren.

Das tut sie :)

NS wird auf Input-Output-Daten trainiert, und wenn die Muster für die Allgemeinbevölkerung allgemeingültig sind, dann wird das NS auch außerhalb der Stichprobe erfolgreich funktionieren.

Und die Isolierung von Regelmäßigkeiten ist eine zusätzliche Arbeitsebene, um die trainierten Gewichte und Übertragungsfunktionen von NS zu analysieren, ich selbst habe das nie persönlich getan.

Das menschliche Gehirn ist in der Lage, nicht-lineare Muster sehr erfolgreich zu lernen. Berechnen Sie zum Beispiel die Flugbahn eines Bumerangs, der von Buschmännern irgendwo in Afrika abgeschossen wird. Die Natur hat uns alles gegeben. Sie können bewusst nicht-lineare Muster auf dem Markt lernen. Ich persönlich möchte ein VBA-Lernprogramm der folgenden Art schreiben: Ich werde eine Reihe von kleinen Kursen, sagen wir, 100-150 Balken auf einem Diagramm anzeigen und ich muss die allgemeine Richtung des Preises in der Zukunft, sagen wir, für 50 Balken erraten. Ich drücke die Auf-/Ab-Tasten, und das Programm zeichnet meine Antwort auf und gibt an, ob ich richtig geraten habe oder nicht. Danach wird das Diagramm zufällig auf der Zeitachse verschoben usw. Infolgedessen werde ich entweder lernen (der Prozentsatz der erratenen Richtungen wird sich erhöhen) oder nicht lernen (wie, sorry, gescheitert). Dies wäre ein gutes Beispiel für die Trainierbarkeit des Gehirns.

 
gpwr:

Das Netz ist ein Werkzeug, eine Art universelle nichtlineare Funktion, die für verschiedene Daten (Input-Output) optimiert (angepasst) werden kann. Diese Funktion kann keine Regelmäßigkeiten aufgreifen. Genauso gut könnte man behaupten, dass ein Polynom, das an eine glatte Kurve angepasst ist, seine versteckten Muster findet. Verlassen Sie den Datenbereich, an den die Funktion angepasst wurde, und Sie wissen, was Sie als Beispiel für eine polynomiale Regression erhalten werden. Übrigens ist die Anzahl der zu optimierenden Parameter im Netz viel größer als im Entscheidungsbaum, da das Netz Unterverbindungen enthält, die keinen Einfluss auf die richtigen Entscheidungen haben und deren Gewichte während der Optimierung verringert werden.

Es ist eine Sache, Marktdaten durch ein Netz zu approximieren, und eine ganz andere, Mustererkennung zu betreiben.

Die zweite scheint richtiger zu sein - schließlich ist es das Gehirn des Händlers, das die Bilder erkennt.

 
joo:

Es ist eine Sache, Marktdaten durch ein Netz anzunähern, und eine ganz andere, Bilder zu erkennen.

Die zweite scheint richtiger zu sein, denn schließlich ist es das Gehirn des Händlers, das die Bilder erkennt.

Ingenieure von Google fütterten das selbstlernende Netzwerk (welchen Typs, weiß ich nicht) mit Screenshots aus YouTube-Videos und das Netzwerk lernte, Katzen als eigene Klasse zu unterscheiden. Es lässt sich abschätzen, wie viele Informationen im Arbeitsspeicher zirkulierten. Theoretisch ist es möglich, Diagramme an das Netz zu senden, aber es muss ein riesiges komplexes Netzwerk und ein geeigneter Computer sein. Es ist einfacher, ein Kursmuster zu senden, das z. B. im Bereich [0;1] normalisiert ist. Die Stationarität bleibt erhalten und ist einfach zu implementieren. Im Grunde sieht der Händler das Kursmuster, während es Händler gibt, die mit einem reinen Chart (ohne Indikatoren) handeln. Aber offenbar muss das Netz ständig neu trainiert werden. Denn auch unser Gehirn aktualisiert ständig die Verbindungen und verbessert unser Verständnis des Prozesses.
 
alexeymosc:
Ingenieure bei Google fütterten das selbstlernende Netzwerk (welchen Typs, weiß ich nicht) mit Screenshots aus YouTube-Videos, und das Netzwerk lernte, Katzen in eine eigene Klasse einzuteilen. Es ist möglich abzuschätzen, wie viele Informationen im Arbeitsspeicher herumschwirrten. Theoretisch ist es möglich, Diagramme an das Netz zu senden, aber es muss ein riesiges komplexes Netzwerk und ein geeigneter Computer sein. Es ist einfacher, ein Kursmuster zu senden, das z. B. im Bereich [0;1] normalisiert ist. Die Stationarität bleibt erhalten und ist einfach zu implementieren. Im Grunde sieht der Händler das Kursmuster, während es Händler gibt, die mit einem reinen Chart (ohne Indikatoren) handeln. Aber offenbar muss das Netz ständig neu trainiert werden. Denn auch unser Gehirn aktualisiert ständig die Verbindungen und verbessert unser Verständnis des Prozesses.
Wenn ein Händler ein Muster "sieht", analysiert er oder sie keine reine Kursreihe. Kein menschliches Gehirn verfügt über eine solche Menge an Arbeitsspeicher (es handelt sich übrigens um einen denkenden Arbeitsspeicher - höchstens ein paar hundert Bytes). Daher ist eine Vorverarbeitung der Signale unerlässlich.
 
alsu:
Wenn ein Händler ein Muster "sieht", analysiert er oder sie keine reine Kursreihe. Kein menschliches Gehirn verfügt über eine solche Menge an Arbeitsspeicher (es handelt sich übrigens um einen denkenden Arbeitsspeicher - höchstens ein paar hundert Bytes). Daher ist eine Vorverarbeitung der Signale unerlässlich.

Davon hatte ich noch nichts gehört. GUT. Nun, dann ist es natürlich schwer zu verstehen, welche Aspekte der CD vom Gehirn wahrgenommen werden. Das ist das Problem mit all den Versuchen, etwas Ähnliches auf der Grundlage von NS zu machen. Die wichtigen Zeichen der eingehenden Informationen sind nicht definiert, so dass wir raten müssen.

Aber - ich persönlich verstehe Kurven und Stacheln am meisten :)

 
alexeymosc:

Davon hatte ich noch nichts gehört. GUT. Nun, dann ist es natürlich schwer zu verstehen, welche Aspekte der CD vom Gehirn wahrgenommen werden. Das ist das Problem mit all den Versuchen, etwas Ähnliches auf der Grundlage von NS zu machen. Die wichtigen Zeichen der eingehenden Informationen sind nicht definiert, so dass wir raten müssen.

Aber - ich persönlich verstehe Kurven und Spitzen am allerbesten :)

Es scheint mir sehr vielversprechend zu sein, die Preisinformationen mit Hilfe von NS vom Rauschen zu befreien. Grundsätzlich wird ein nützliches Signal durch eine kleine Anzahl von Parametern beschrieben, z. B. wenn wir einen Tag auf M1 nehmen, sehen wir auf einen Blick 10-20 (statt 1440), was für das menschliche Gehirn leicht zu erfassen ist. Die Frage ist, wie das Signal korrekt gelöscht werden kann, ohne dass wichtige Informationen verloren gehen. Hier kann ein Netzwerk helfen, IMHO. Nun, und zu verarbeiten (zu klassifizieren, clustern, regressieren, etc.) den Rest Teil ist es möglich, durch jede geeignete Methode, und nicht die Tatsache, durch die Art und Weise, dass NS wird die beste Wahl sein. Auf jeden Fall gibt es viele Tools, die für solche Aufgaben entwickelt wurden, und das nicht zuletzt deshalb, weil sie alle gleich schlecht funktionieren)))
 
alsu:
Ich halte es für sehr vielversprechend, die Preisinformationen mit Hilfe von NS vom Rauschen zu befreien. Im Grunde genommen wird ein nützliches Signal durch eine kleine Anzahl von Parametern beschrieben, z.B. wenn wir einen Tag auf M1 nehmen, können es 10-20 sein (statt 1440), die das menschliche Gehirn leicht erfassen kann. Die Frage ist, wie das Signal korrekt gelöscht werden kann, ohne dass wichtige Informationen verloren gehen. Hier kann ein Netzwerk helfen, IMHO. Nun, und zu verarbeiten (zu klassifizieren, clustern, regressieren, etc.) den Rest Teil ist es möglich, durch jede geeignete Methode, und nicht die Tatsache, durch die Art und Weise, dass NS wird die beste Wahl sein. Auf jeden Fall gibt es viele Tools, die für solche Aufgaben entwickelt wurden, und das nicht zuletzt deshalb, weil sie alle gleich schlecht funktionieren)))
Alexey, du sprichst direkt über das Problem der Merkmalsauswahl, d.h. im Klartext: wie wählt man das 1% der Daten aus dem verfügbaren Array aus, das am informativsten für eine Vorhersage ist, z.B.: long eingeben, short eingeben, warten. Aber selbst bei der Anwendung ausgefeilter Techniken auf dieses Problem treten die Fallstricke schnell zutage. Erstens ist nicht klar, mit welcher Sauce die ausgewählten Datenpunkte gefüttert werden sollen: Rohwerte sind nicht geeignet, man muss sie vorverarbeiten. Vielleicht würde es funktionieren, wenn Sie die Differenz zwischen 457 und 891 Takten und zwischen 1401 und 1300 nehmen würden. Es gibt viele Möglichkeiten, und die Zeit reicht nicht aus, sie alle zu erzwingen.
 

Eine andere Sache ist, dass die Informationen tatsächlich im Gehirn ankommen. Ein sehr lehrreiches Beispiel ist die fraktale Kompression von Bildern. Es zeigt nur, dass für die visuelle Wahrnehmung eines Menschen genügend Informationen in Tausenden und sogar Zehntausenden von Bildern enthalten sind, die kleiner sind als die "rohe" Größe des Bildes.

Ich frage mich, welches Verhältnis durch die Komprimierung eines Quotienten mit Hilfe des fraktalen Algorithmus erreicht werden kann? 100? 500? mehr?

 
alexeymosc:
Alexey, du sprichst direkt über das Problem der Merkmalsauswahl, im Klartext: wie wählt man das 1 % der Daten aus dem Array aus, das für eine Vorhersage wie: enter long, enter short, wait am informativsten ist. Aber selbst bei der Anwendung ausgefeilter Techniken auf dieses Problem treten die Fallstricke schnell zutage. Erstens ist nicht klar, mit welcher Sauce die ausgewählten Datenpunkte gefüttert werden sollen: Rohwerte sind nicht geeignet, man muss sie vorverarbeiten. Vielleicht würde es funktionieren, wenn Sie die Differenz zwischen 457 und 891 Takten und zwischen 1401 und 1300 nehmen würden. Es gibt viele Varianten, und ich habe nicht genug Zeit, um sie alle zu erzwingen.
Ein weiteres Problem ist die Interpretation der Algorithmusausgabe. Sehr oft versuchen wir, dasselbe Netz so aufzubauen, dass seine Ausgabe ein klares Signal enthält, was zu tun ist, oder dass zumindest die (für einen Designer) relativ verständliche Information in ein solches Signal umgewandelt wird. Aber es ist nicht die Tatsache, dass es für das Netz bequem ist, Informationen in dieser Form herauszugeben, vielleicht wäre es viel einfacher, uns nicht etwa anderthalb Bit (Kauf-Verkauf-Stopp), sondern zum Beispiel 10 Bit an Informationen zu geben?
 
alsu:
Ein weiteres Problem ist die Interpretation der Ergebnisse des Algorithmus. Wir versuchen oft, dasselbe Netz so aufzubauen, dass die Ausgabe ein klares Signal für die zu erledigende Aufgabe enthält, oder zumindest Informationen, die (für den Designer) relativ verständlich sind und in ein solches Signal umgewandelt werden können. Aber es ist nicht sicher, dass es sinnvoll ist, Informationen in dieser Form auszugeben, vielleicht wäre es viel einfacher, uns nicht etwa anderthalb Bit (by-sell-stop), sondern z.B. 10 Bit an Informationen zu geben?
Übrigens ein guter Punkt. Im Grunde genommen versuchen wir, die eingegebenen Informationen so weit zu verdichten, dass wir klare Entscheidungen treffen können (Kaufen-Verkaufen-Stoppen). Es kann sehr gut sein, dass die beste Lösung ein Kompressionsverhältnis von 1 ist (d.h. keine Kompression oder nahe daran). Das Eingangsbild ist für das Raster verständlich, das Ausgangsbild ist für den Menschen nachvollziehbar.