Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Nachtrag.
Er trug, er trug und er trug ;-)
Dies ist die "FINE" analytische Lösung für die Skalen eines einschichtigen nichtlinearen NS:
...
Das hat mich zum Lächeln gebracht.
Die gesamte Berechnung dauert jedoch 1 Millisekunde.Theoretisch ist jede NS äquivalent zu einem System von Gleichungen. Und wenn es einfach genug ist, ist es billiger, dieses System in analytischer Form zu schreiben und es in Bezug auf Gewichte zu lösen. Je komplexer das Netz (d. h. sein äquivalentes Gleichungssystem) wird, desto mehr Probleme treten auf, und desto mehr sind ausgeklügelte Trainingsmethoden erforderlich. Als ich diese Tatsache erkannte, setzte ich meine Bekanntschaft mit den Netzen aus, die ich aus Interesse begonnen hatte. Ich habe einfach beschlossen, dass ich zuerst ein Modell erfinden und erst dann nach den wirtschaftlichsten Lösungsmöglichkeiten suchen sollte. Die Anwendung von NS-Methoden scheint mir nach wie vor nur bei sehr komplexen Modellen gerechtfertigt zu sein :) .
Erklären Sie mir das als unerfahrener "Neurowissenschaftler"... Soweit ich weiß, handelt es sich bei dem fraglichen Netz um ein mehrschichtiges Perzeptron.
Warum wurde diese Art von Netzwerk gewählt, warum nicht Hopfield oder Kohonen oder etwas anderes?
Es ist eher eine philosophische Frage. Der Punkt ist, dass es eine unendliche Anzahl von "komplexen" NS-Architekturen gibt, während die einfachste die einzige ist! Es handelt sich um ein einschichtiges Perzeptron. In diesem Fall wird sie mit einer nichtlinearen Aktivierungsfunktion implementiert.
aufrichtig
Theoretisch ist jede NS äquivalent zu einem System von Gleichungen. Und wenn sie einfach genug ist, ist es billiger, sie in einer analytischen Form aufzuschreiben und nach Gewichten zu lösen. Je komplexer das Netz (d. h. sein äquivalentes Gleichungssystem) wird, desto mehr Probleme treten auf, und desto mehr sind ausgeklügelte Trainingsmethoden erforderlich. Als ich diese Tatsache erkannte, setzte ich meine Bekanntschaft mit den Netzen aus, die ich aus Interesse begonnen hatte. Ich habe einfach beschlossen, dass ich mir zuerst ein Modell ausdenken und dann nach den wirtschaftlichsten Lösungsmöglichkeiten suchen muss. Die Anwendung von NS-Methoden scheint mir nach wie vor nur bei sehr komplexen Modellen gerechtfertigt zu sein :) .
Richtig. Wir können auch die Nicht-Stationarität erwähnen, die den Markt-BP inhärent ist, was den traditionellen statistischen Methoden ein Ende setzt und einen weiteren Punkt zugunsten von NS darstellt.
Übrigens habe ich eine analytische Lösung der Gleichungssysteme für NS-Gewichte erarbeitet. Die schwarze Abbildung zeigt die übliche Methode des NS-Trainings durch Fehlerfortpflanzung (ORO) mit einer Epochenzahl von 1000 und die blaue Abbildung die analytische Lösung. Das Training von NS findet in jedem Schritt statt, die Vorhersage ist einen Schritt voraus.
Es ist zu erkennen, dass die analytische Variante im Trendteil des BP aus mir unverständlichen Gründen falsch ist. Die Berechnungszeit für dieses Problem beträgt jedoch bei der ORO-Methode 10 Sekunden und bei der analytischen Methode 0,001 Sekunden.
Der Leistungsgewinn beträgt das 10000-fache!
Im Allgemeinen ist die Funktionsweise des Netzes faszinierend. Er scheint den Preistrend zu spüren und zieht ihn in seiner Prognose wie ein Magnet an!
Erklären Sie mir das als unerfahrener "Neurowissenschaftler"... Soweit ich weiß, handelt es sich bei dem fraglichen Netz um ein mehrschichtiges Perzeptron.
Warum wurde diese Art von Netzwerk gewählt, warum nicht Hopfield oder Kohonen oder etwas anderes?
Es ist eher eine philosophische Frage. Der Punkt ist, dass es eine unendliche Anzahl von "komplexen" NS-Architekturen gibt, während die einfachste die einzige ist! Es handelt sich um ein einschichtiges Perzeptron. In diesem Fall wird sie mit einer nichtlinearen Aktivierungsfunktion implementiert.
...
Im Allgemeinen ist die Funktionsweise des Netzes faszinierend. Er scheint die Preisentwicklung zu spüren und zieht sie an, als wäre er ein Magnet!
Die Frage ist natürlich philosophischer Natur. Ich bin auch ein Anfänger. Aber warum nicht zum Beispiel ein Wahrscheinlichkeitsnetz? Vor allem nach den bekannten Ereignissen des letzten Jahres? Es ist richtig, dass die Aufgabe auch dort anders ist. Wenn die Vorhersage der Filterung nahe kommt, und zwar eines beobachtbaren Parameters, dann ist die Schätzung der Wahrscheinlichkeit näher an der Filterung eines nicht beobachtbaren Parameters, löst aber gleichzeitig das Problem des Übergangs zum Bereich der Lösungen.
P.S. Übrigens ist die Laufzeit eines probabilistischen Netzes unvergleichlich kürzer als die eines mehrschichtigen Perzeptrons, und die Trainierbarkeit ist nicht schlechter.
P.P.S. Als ich mir während der Meisterschaft Bessers Bilanzkurve ansah, war ich ebenfalls fasziniert. :-)
Ich möchte tiefer graben... Wie gerechtfertigt ist beispielsweise die Komplexität der NS (versteckte Schichten).
Es kommt darauf an, was in den Eingang eingespeist wird. Wenn wir die Barren (ihre Inkremente) direkt vom Markt nehmen - dann wird es sehr gerechtfertigt sein.
In Ihren Beispielen sehen Sie das nicht, weil Ihre Diagramme glatt sind - stückweise monoton. Sie haben dort sogar ein NS-"Urteil" mit einem einzigen Eingang. D.h. das Analogon des primitivsten trendfolgenden Handelssystems. Dieses Problem wird auch ohne NS gut gelöst. Welche mehrschichtigen Netze gibt es...
Wie auch immer, ich werde noch verrückt! Der Punkt ist, dass man, wenn man die Nichtlinearität von NS in einer bestimmten Form darstellt, eine genaue analytische Lösung für die Gewichte erhalten kann. Dies wiederum bedeutet, dass es möglich sein wird, auf die Methode der inversen Fehlerfortpflanzung für das Training des Netzes zu verzichten und das Ergebnis so genau wie möglich in einer einzigen Aktion zu erhalten, ohne dass es 1000 Epochen des Trainings gibt!!!
Es muss klar sein, dass das NS-Training ein Problem der Funktionsoptimierung ist. Und ihre analytische Lösung ist viel komplizierter als das Lösen von Gleichungssystemen. Betrachtung von Methoden zur analytischen Berechnung einer linearen Regressionsfunktion aus einer Variablen (analog zum einfachsten Perceptron)... Was meinen Sie dazu? Stellen Sie sich nun vor, wie die Lösung aussehen würde, wenn es viele Variablen gibt und die Funktion bis zum n-ten Grad nichtlinear ist (analog zum mehrschichtigen NS)... :-)
NS wurde erfunden, um das Leben zu vereinfachen. Und man muss das Netz nicht exakt durch Backpropagation trainieren. Es ist der einfachste - aber auch der langsamste - Algorithmus. Außerdem gibt es Algorithmen, die um Größenordnungen schneller sind.
Ich möchte tiefer graben... Wie gerechtfertigt ist beispielsweise die Komplexität der NS (versteckte Schichten).
Es kommt darauf an, was in den Eingang eingespeist wird. Wenn wir die Barren (ihre Inkremente) direkt vom Markt nehmen - dann wird es sehr gerechtfertigt sein.
In Ihren Beispielen sehen Sie das nicht, denn Ihre Diagramme sind glatt - stückweise eintönig. Sie haben dort sogar eine NS-"Entscheidung" mit einem einzigen Eingang. D.h. das Analogon des primitivsten trendfolgenden Handelssystems. Dieses Problem wird auch ohne NS gut gelöst. Welche mehrschichtigen Netze gibt es...
ds2, könnten Sie bitte einen Grund nennen, der für mehrschichtige Perzeptronen im Vergleich zu einschichtigen spricht, die für BP-Prognosen wie Preisprognosen verwendet werden, wenn ihre Eintauchtiefe dieselbe ist. Ich würde das Argument gerne in Form eines Diagramms der Vorhersagefähigkeit sehen.
Das hängt davon ab, was in den Eingang eingespeist wird. Wenn Sie gerade Bars (ihre Inkremente) aus dem Markt Stick - es wird sehr gerechtfertigt sein.
In Ihren Beispielen sehen Sie das nicht, weil Ihre Diagramme glatt sind - stückweise monoton.
ds2, könnten Sie ein Argument für ein mehrschichtiges Perzeptron im Vergleich zu einem einschichtigen Perzeptron für Preisprognosen des Typs BP anführen, wenn deren Vertiefungstiefe dieselbe ist? Ich würde das Argument gerne in Form eines Diagramms der Vorhersagefähigkeit sehen.
Nun, das liegt auf der Hand, wenn man versteht, wie das Netz funktioniert. Ein einschichtiges Netz kann nur monotone Abhängigkeiten beschreiben, während ein mehrschichtiges Netz beliebige Abhängigkeiten beschreiben kann.
Vergleicht man die Fähigkeiten von NS und bekannten MTS-Typen, so kann ein einschichtiges Netz den MACD-Betrieb nachahmen, aber nur ein mehrschichtiges Netz kann Pessavento-Muster erkennen.
Sie können experimentieren und sich selbst davon überzeugen. Sie verfügen über alle Instrumente und Daten, die dafür erforderlich sind.
Hat jemand in MQL das Kolmogorov-Smirnov-Kriterium zur Schätzung der Eingaben und der Spearman-Rangkorrelation geschrieben?
Dieser Link ist nicht einmal bei der Registrierung zugänglich. Oder vielleicht beschreibt es den Weg zum Gral ;-).
http://www.maikonline.com/maik/showArticle.do?auid=VAF0AMGLSL〈=de PDF 274kbEIN NEURONALES NETZ FÜR DIE MODELLIERUNG EINER KOMPLEXEN FUNKTION VIELER VARIABLEN AUF BASIS VON STICHPROBENDATEN
Е. V. Gavrilova, O. A. Mishulina, M. V. Shcherbinina Izvestia RAN. Theorie und Steuerungssysteme Nr. 1, Januar-Februar 2007, S. 73-82
Wir betrachten das Problem der Annäherung einer Funktion mit vielen Variablen, die gegen additives Rauschen gemessen wird und durch qualitativ unterschiedliche dynamische Eigenschaften in bestimmten Teilbereichen ihrer Definition gekennzeichnet ist. Wir schlagen die Lösung dieses Problems mit Hilfe einer spezialisierten modularen neuronalen Netzstruktur LINA vor. Es werden Regeln für ihr Training und ihre Funktionsweise formuliert.
Beim Training in Anfisedit wird ständig ein Fehler angezeigt:
??? Fehler bei der Verwendung von ==> anfisedit
Ungültiges Handle-Objekt.
??? Fehler bei der Auswertung von uicontrol Callback.
Ich habe die Daten aufbereitet, aber nicht nach der absoluten Rate wie im Artikel, sondern nach der Art der Kerze. Wenn der Schlusskurs der Tageskerze höher ist als der Eröffnungskurs - dann 1, wenn umgekehrt -1. Zuerst hatte ich 10 Einträge, aber mein Laptop konnte sie nicht auslesen. Ich habe die Anzahl der Einträge wie im Artikel beschrieben auf 4 reduziert, die Architektur wird angezeigt, alles scheint in Ordnung zu sein, aber wenn ich nach ein paar Epochen auf train drücke, hört das Training auf, Train Error steht über dem Diagramm und in der Befehlszeile, die ich ganz am Anfang geschrieben habe. Was ist das Problem? Vielleicht ist die Matlab-Version fehlerhaft? Ich habe Matlab 7.0.1.24704 (R14) Servise Pack 1.
Da ANFIS nicht funktionierte, beschloss ich, es mit NNTool zu versuchen. Ich habe die Eingänge getrennt geladen (4 Eingänge), die Ausgänge getrennt, die Parameter angegeben und ein Netz erstellt - aber wenn ich mir die Netzarchitektur ansehe, wird angezeigt, dass die Eingänge 2 sind. Ich habe trotzdem auf Zug gedrückt und eine Fehlermeldung erhalten:
Fehler bei der Verwendung von ==> networktrain
Die Eingänge sind für das Netz falsch dimensioniert.
Die Matrizen müssen alle 2 Zeilen haben.
Lässt sich die Anzahl der Eingänge irgendwo einstellen?