"New Neural" ist ein Open-Source-Projekt für neuronale Netzwerke für die MetaTrader 5-Plattform. - Seite 36

 
TheXpert:

EMNIP, das Cognitron stellt etwas Ähnliches dar.

Ich freue mich auf die Fortsetzung :)

Dasselbe wie bei Fukishimas Cognitron. HMAX und Cognitron beschreiben die Funktionsweise der verschiedenen Schichten des visuellen Kortex ziemlich genau.
 
TheXpert:

Wir benötigen Informationen über

-konjugierter Gradientenabstieg

-BFGS

Im Laufe meiner Zeit habe ich fast alle Methoden zum Training von Netzen mit direkter Ausbreitung eingehend untersucht. Ich bin sicher, dass die Levenberg-Marcadt-Methode die beste(https://en.wikipedia.org/wiki/Levenberg%E2%80%93Marquardt_algorithm) unter den Gradientenabfahrten ist. Es findet immer bessere Minima als alle Arten von BACKPROPs und RPROPs und sogar schneller. Was ich auf BPNN veröffentlicht habe (eine Art RPROP) ist im Vergleich zu LM ein Kinderspiel. BFGS ist zeitaufwändiger und das Ergebnis ist nicht besser als LM.
Levenberg–Marquardt algorithm - Wikipedia, the free encyclopedia
Levenberg–Marquardt algorithm - Wikipedia, the free encyclopedia
  • en.wikipedia.org
The LMA interpolates between the Gauss–Newton algorithm (GNA) and the method of gradient descent. The LMA is more robust than the GNA, which means that in many cases it finds a solution even if it starts very far off the final minimum. For well-behaved functions and reasonable starting parameters, the LMA tends to be a bit slower than the GNA...
 

Ich werde nun versuchen, meine Idee zum Aufbau neuronaler Netze für die Analyse von Preismustern vorzustellen. Diejenigen, die meine Vorträge 2 und 3 gelesen haben, werden das sofort verstehen. Die Idee ist, Kursmuster nach Kaufen, Verkaufen oder Halten zu klassifizieren. Der Preis für einen bestimmten Zeitraum (z. B. 100 Balken) wird von einer Schicht einfacher S1-Neuronen gefiltert. Die Eingangsgewichte dieser Neuronen beschreiben die Impulscharakteristik der Filter. Im Beispiel des visuellen Kortex beschrieben diese Gewichte gerade Segmente mit unterschiedlicher Neigung und Länge im zweidimensionalen Bildraum. Auch bei den Kursen haben wir einen zweidimensionalen Raum: Zeit und Preis. Wir können davon ausgehen, dass die Gewichte des S1-Filters zwei gerade Segmente im Zeit-Preis-Raum beschreiben: aufwärts und abwärts. Der Neigungswinkel hängt von der Länge der einzelnen Filter ab. Diese Längen können vorgewählt werden, z.B. 4, 8, 16, 32 Takte. Jeder Filter ist eine gerade Linie, die so normiert ist, dass die Summe aller Werte gleich Null und die Summe der Quadrate gleich 1 ist (oder eine andere Normierung). In der nächsten Schicht, nennen wir sie S2, werden komplexere Muster aus Teilen der Schicht S1 gebildet, und so weiter. Das Ergebnis dieser mehrschichtigen Transformation von Kursen ist ein numerischer Code, der das aktuelle Muster beschreibt. Die Codes von Mustern, die einander ähnlich sind, sich aber zeitlich und preislich auf unterschiedliche Weise erstrecken, sind gleich. Diese Codes werden in die Eingänge der Support Vector Machine (SVM) eingespeist, die darauf trainiert ist, Kauf-, Verkaufs- oder Haltebedingungen anhand historischer Muster zu erkennen. Das Problem besteht darin, die Form der Filter in den Schichten S1, S2 usw. zu bestimmen. Der Einfachheit halber habe ich gerade Abschnitte und Kombinationen davon gewählt. Übrigens sind im HMAX-Modell der Sehrinde alle räumlichen Filterformen auf der Grundlage biologischer Experimente vorausgewählt. Wir müssen einen Algorithmus finden, der diese Filter automatisch erkennt. Solche Algorithmen sind bereits für die visuelle Schicht V1 entwickelt worden (von der Malsburg, Linsker, Miller, LISSOM, Olshausen). Wir können sie für unsere Aufgabe der Klassifizierung von Preismustern nutzen.

 
gpwr:
Im Laufe meiner Zeit habe ich fast alle Methoden zum Training von Netzen mit direkter Ausbreitung eingehend untersucht. Ich bin sicher, dass die Levenberg-Marcadt-Methode von den Gradientenabstiegen die beste ist(https://en.wikipedia.org/wiki/Levenberg%E2%80%93Marquardt_algorithm). Es findet immer bessere Minima als alle Arten von BACKPROPs und RPROPs und sogar schneller. Was ich auf BPNN veröffentlicht habe (eine Art RPROP) ist im Vergleich zu LM ein Kinderspiel. BFGS ist zeitaufwändiger und das Ergebnis ist nicht besser als LM.

Ich bin einverstanden! In NeuroSolutions konvergiert zum Beispiel die Levenberg-Marcadt-Methode dort, wo die anderen Methoden auf lokalen Minima stehen,

LM erfordert jedoch erhebliche Rechenressourcen. Die Zeit pro Durchgang ist länger

 
gpwr:

...

Jeder Filter ist eine gerade Linie, die so normiert ist, dass die Summe aller Werte gleich Null und die Summe der Quadrate gleich 1 ist (oder eine andere Normierung).

...

Ich habe jetzt keinen Beweis, aber meine Intuition sagt mir, dass diese doppelte Bedingung inkonsistent ist,

Summe ist 0 und Summe der Quadrate ist 1

wird für eine sehr geringe Anzahl von Wahlmöglichkeiten erfüllt sein. Wenn ich falsch liege, treten Sie mich bitte.

 
Urain:

Ich habe im Moment keine Beweise, aber meine Intuition sagt mir, dass diese doppelte Bedingung widersprüchlich ist,

die Summe ist 0 und die Summe der Quadrate ist 1

wird für eine sehr geringe Anzahl von Auswahlmöglichkeiten ausgeführt. Wenn ich falsch liege, treten Sie mich bitte.

Nein, das ist nicht widersprüchlich. Beispielsweise erfüllt ein 2-Balken-Filter mit den Werten -0,707 und +0,707 die Normalisierungsbedingungen. Der Vorteil der ersten Bedingung (Summe der Quadrate ist gleich Null) ist, dass wir den Mittelwert nicht aus den Anführungszeichen entfernen müssen. Die zweite Bedingung (Summe der Quadrate gleich Null) ermöglicht es Ihnen, die Summe von Preis1*Filter1+Preis2*Filter2 (das ist die Ausgabe unseres Filters) auf einen bestimmten Bereich zu begrenzen. Das Problem besteht nun darin, Filterwerte (filter1,filter2,...,filterN) von beliebiger Länge N zu definieren. Es ist möglich, eine gerade Linie zu wählen, die sich zwischen -filterMAX und +filterMAX erstreckt, aber das wäre eine Vereinfachung. Bei größerer Genauigkeit wird der Filter ähnlich wie die Hauptkomponente von Zitaten (PCA) sein. Dies wäre jedoch nicht effizient. Es ist perspektivischer, die Form des Filters als unabhängige Komponenten von Zitaten (ICA) zu suchen, die eine Bedingung der minimalen Anzahl solcher Komponenten (sparsity condition) auferlegen. Später werde ich die Vorlesung 4 veröffentlichen, in der ich alles erklären werde.
 
TheXpert:

Verstanden. Aber speziell auf NN bezogen. Es wird an NN gebunden sein.

Ich fürchte, es wird so etwas wie "AWVREMGVTWNN" sein :) Ich fürchte, es wird wie "AWVREMGVTWNN" :), die Hauptsache ist, dass man das Wesentliche versteht, Nuancen sind nicht so wichtig.

Meta Neuro Solution ?
 
Meta Neuro Engine (MNE)
 
gpwr:
Meta Neuro Engine (MNE)

Meta EngiNeuro (MEN) (c)

das macht uns zu Ingenieuren :)

 
Cool. Das gefällt mir.