Neuronale Netze, wie beherrscht man sie, wo fängt man an? - Seite 11

 
Integer >> :

Wenn Sie 3D-Grafik und -Animation machen würden, würden Sie dann Ihr eigenes 3DStudioMAX schreiben?

Das sind unterschiedliche Dinge...


Ich habe Ihnen ein konkretes Beispiel genannt... Versuchen Sie, die Fehlerfunktion in Ihrem bevorzugten neuronalen Netzwerkprogramm zu ändern...


Sanft ausgedrückt wollen Sie damit sagen, dass 2DMAX in Bezug auf Funktionen und Codegröße mit Neuroshell gleichzusetzen ist ????

Sieh an, sieh an...

 
Solver.it писал(а) >> Versuchen Sie, die Fehlerfunktion in Ihrem bevorzugten neuronalen Netzwerkprogramm zu ändern.. .
Und erlauben Sie nicht die folgende Idee - um mit diesem Programm einen Gewinn zu erzielen, brauchen Sie diese Fehlerfunktion nicht zu ändern?
 
LeoV писал(а) >>
Und lassen Sie nicht die folgende Idee zu - um mit diesem Programm einen Gewinn zu erzielen, brauchen Sie diese Fehlerfunktion nicht zu ändern?

Dank dieser liebenswürdigen Aussage von Ihnen wissen wir jetzt, dass Sie kein oder kein Konzept für die Optimierung in Ihren Kinspekten von den besten Experten der NS haben.
Und Sie wiederum lassen den folgenden Gedanken nicht zu - dass Sie in einem Land leben, das sich etwas von unserem unterscheidet,
und deshalb soll es keine Software geben, die die Erstellung und Nutzung von NN vollständig optimiert?

 
Korey писал(а) >>

Dank dieser liebenswürdigen Aussage von Ihnen wissen wir nun, dass Sie in Ihren Verwandten von NS's finest kein und kein Konzept der Optimierung haben.

:-)

 
Korey писал(а) >>

Haben Sie verstanden, was Sie geschrieben haben? )))

 

Egal, wie man den NS verdreht, egal, was man den Eingaben mitgibt, es gibt natürlich keine Wunder!

Es stellt sich also heraus: Einerseits ist die Vorhersagekraft von NS umso höher, je mehr Schichten es gibt, aber es ist sinnlos, mehr als drei Schichten zu bilden - das dreischichtige Gitter ist bereits ein universeller Approximator. Auf der anderen Seite besteht alles, was die Blackbox namens NS tut, darin, quasistationäre Prozesse auf dem Markt zu finden und auszunutzen. Es gibt keine andere Möglichkeit, das zu umgehen. Genau, quasistationär, überhaupt nicht stationär (solche Prozesse gibt es einfach nicht auf dem Markt) und nicht instationär (solche Prozesse können im Prinzip nicht ausgenutzt werden). Ich habe oben einen Link angegeben, um die optimale Beziehung zwischen der Anzahl der NS-Synapsen - w, der Dimension des Inputs - d und der optimalen Länge der Trainingsprobe P (4 oder 5 Seiten des Themas) abzuleiten: w^2=P*d

Je komplexer der NS ist, desto umfangreicher sollte die Trainingsstichprobe sein, mit der er trainiert wird. Nicht nur, dass die Komplexität des Trainings mit P^3 zunimmt, sondern auch die Daten können unzureichend sein! Aber die größte Falle liegt dort, wo man sie nicht erwartet - quasistationäre Prozesse (die unser NS im Kotier identifiziert und dann ausnutzt) haben eine charakteristische Lebensdauer (überhaupt, anders als Null und kleiner als manche). Es ist klar, dass bei einer großen Ausbildungsstichprobe die Wahrscheinlichkeit einer Änderung des ausgewählten Prozesses höher ist... Siehst du? Je kürzer die Trainingsstichprobe ist, desto besser - so ist die Gefahr geringer, von einer veränderten Marktstimmung überrumpelt zu werden! Hier scheint es, dass die Antwort auf die Frage "Was ist besser - ein 2-Schicht-NS mit einer kurzen Trainingsprobe oder ein mächtiges 3-Schicht-NS mit drei Universitäten dahinter (während des Lernens wurde alles unnötig)?" durch ein einfaches Experiment gegeben werden kann.

Dazu habe ich drei Gitter - 1, 2 und 3 - in Mathcad erstellt und die Ergebnisse der Vorhersage des Vorzeichens von Kotier-Inkrementen eine Zählung voraus verglichen (ich habe Statistiken von 100 unabhängigen Experimenten gesammelt). Die Ergebnisse sind wie folgt:

1 - p=10% richtig erratene Zeichen (Wahrscheinlichkeit=1/2+p).

2 - 15-16%

3 - 12%

Hier gibt es einige freie Parameter: Dimension der Eingabe und Anzahl der Neuronen in der/den Schicht(en). Der erste Parameter war für alle Architekturen gleich, der zweite wurde persönlich gewählt. Wir sehen, dass das dreischichtige NS-Gitter kein Allheilmittel ist, und vielleicht ist für uns als Händler die beste Option für die MTS-Analyseeinheit ein zweischichtiges Gitter - unter dem Gesichtspunkt maximaler Vorhersagegenauigkeit und minimaler Anforderungen an die Trainingskomplexität (Leistung von RS, große Historie und deren Nicht-Wachstum).

 
Neutron писал(а) >>

Egal, wie man den NS verdreht, egal, was man den Eingaben mitgibt, es gibt natürlich keine Wunder!

Es stellt sich also heraus: Einerseits ist die Vorhersagekraft von NS umso höher, je mehr Schichten es gibt, aber es ist sinnlos, mehr als drei Schichten zu bilden - das dreischichtige Gitter ist bereits ein universeller Approximator. Auf der anderen Seite besteht alles, was die Blackbox namens NS tut, darin, quasistationäre Prozesse auf dem Markt zu finden und auszunutzen. Es gibt keine andere Möglichkeit, das zu umgehen. Genau, quasistationär, überhaupt nicht stationär (es gibt einfach keine solchen Prozesse auf dem Markt) und nicht instationär (solche Prozesse können im Prinzip nicht ausgenutzt werden). Ich habe oben einen Link angegeben, um die optimale Beziehung zwischen der Anzahl der NS-Synapsen - w, der Dimension des Inputs - d und der optimalen Länge der Trainingsprobe P (4 oder 5 Seiten des Themas) abzuleiten: w^2=P*d

Je komplexer der NS ist, desto umfangreicher sollte die Trainingsstichprobe sein, mit der er trainiert wird. Nicht nur die Komplexität des Trainings nimmt mit P^3 zu, sondern auch die Daten können unzureichend sein! Aber die größte Falle liegt dort, wo man sie nicht erwartet - quasistationäre Prozesse (die unser NS im Kotier identifiziert und dann ausnutzt) haben eine charakteristische Lebensdauer (überhaupt, anders als Null und kleiner als manche). Es ist klar, dass bei einer größeren Trainingsstichprobe die Wahrscheinlichkeit höher ist, dass sich der ausgewählte Prozess ändert... Siehst du? Je kürzer die Trainingsstichprobe ist, desto besser - so ist die Gefahr geringer, von einer veränderten Marktstimmung überrumpelt zu werden! Hier scheint es, dass die Antwort auf die Frage "Was ist besser - ein 2-Schicht-NS mit einer kurzen Trainingsprobe oder ein mächtiges 3-Schicht-NS mit drei Universitäten dahinter (während des Lernens wurde alles unnötig)?" durch ein einfaches Experiment gegeben werden kann.

Dazu habe ich drei Gitter - 1, 2 und 3 - in Mathcad erstellt und die Ergebnisse der Vorhersage eines Vorzeichens von Kotierinkrementen eine Zählung im Voraus verglichen (ich habe Statistiken von 100 unabhängigen Experimenten gesammelt). Die Ergebnisse sind wie folgt:

1 - p=10% richtig erratene Zeichen (Wahrscheinlichkeit=1/2+p).

2 - 15-16%

3 - 12%

Hier gibt es einige freie Parameter: Dimension der Eingabe und Anzahl der Neuronen in der/den Schicht(en). Der erste Parameter war für alle Architekturen gleich, der zweite wurde persönlich gewählt. Es ist klar, dass das dreischichtige NS-Gitter kein Allheilmittel ist, und vielleicht ist für uns als Händler die beste Option für die MTS-Analyseeinheit ein zweischichtiges Gitter - unter dem Gesichtspunkt maximaler Vorhersagegenauigkeit und minimaler Anforderungen an die Trainingskomplexität (Leistung von RS, große Historie und deren Nicht-Wachstum).

Ich frage mich, ob jemand versucht hat, NS für die Vorhersage von Lottozahlen zu verwenden?

 

gpwr, du machst dich über alle lustig! - es geht um die Vorhersage der Lottozahlen. Und bitte entfernen Sie das Zitat aus meinem Beitrag - es wird Ihren Beitrag noch lokaler machen :-)

 
Neutron писал(а) >>

Ich habe bereits oben einen Link zu der Schlussfolgerung des optimalen Verhältnisses zwischen der Anzahl der NS-Synapsen - w, ihrer Eingangsdimension - d und der optimalen Länge der Trainingsstichprobe P angegeben (4 oder 5 Seiten des Themas): w^2=P*d

Netzgröße, Lern- und Erkennungsfähigkeit hängen stark von der Netzarchitektur ab. Auf welche beziehen Sie sich? Wort, Rezidiv, VNS oder vielleicht MSUA?
 
Es handelt sich um ein klassisches mehrschichtiges, nicht lineares, einseitiges Perseptron (Kauf-Verkauf).