Neuronale Netze. Fragen an die Experten. - Seite 9

 
LeoV писал(а) >>

Bis wann sollen wir sie ausbilden? Zum minimalen Fehler? Man muss sich darüber im Klaren sein, dass es sich um ein 100%iges Übertraining handeln wird. Nicht zum minimalen Fehler? Und bis wann? Wie hoch ist der Gewinn? Und warum genau dieser Fehler? Wird der Gewinn steigen oder sinken, wenn wir den Fehler leicht verringern? Und wenn Sie den Fehler erhöhen?

So.....))))

Bis zum minimalen Fehler. Um ein "Übertraining" zu vermeiden (ein Wort, das die Bedeutung des Phänomens überhaupt nicht wiedergibt), muss die Anzahl der Neuronen im Netz so klein wie möglich sein. Nach dem Training gibt es Verfahren wie die Analyse des Einflusses einzelner Eingänge im Netz und das Entfernen schwacher Neuronen sowie ein Verfahren zur Reduzierung der Anzahl der Neuronen. Als ob man es bildlich ausdrücken könnte ... so dass es in diesem elektronischen Gehirn keine leeren Stellen gibt, die von der Ausbildung unberührt bleiben.

 
LeoV >>:
Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно, делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?

Wie nicht eine Antwort. Die Antwort.

joo schrieb >>

Nehmen wir an, Sie sind daran interessiert, dass der TS so viel Gewinn wie möglich und so oft wie möglich ausschüttet, d.h. Sie versuchen, den Prozentsatz der profitablen Trades und natürlich MO zu erhöhen.

Von einem Netzwerk, das nach diesem Prinzip ausgebildet ist, kann man erwarten, dass es auch bei OOS Gewinne gibt. Sie müssen einen mittleren quadratischen Fehler (Root Mean Square Error) anwenden, der das Netz auf die Muster ausrichtet, die zu diesen Zielen beitragen. Das heißt, das Netz konzentriert sich auf bestimmte Muster, die zu irgendeiner Art von Konsequenz führen.

Bei der Verwendung des mittleren quadratischen Fehlers findet jedoch eine "Mittelung" der Muster statt, nicht eine Hervorhebung.

Sie müssen bis zum minimalen mittleren Fehler trainieren. Und es kommt zu Übertraining, wenn Sie die Wurzel des mittleren Fehlers verwenden (nicht zur Annäherung). Für die Annäherung gilt: je kleiner der RMS-Fehler, desto besser.

Natürlich wird Ihnen niemand konkrete Antworten auf Ihre Fragen geben, selbst wenn er es wollte. Ich habe nur versucht zu zeigen, dass die Wahl der Fitnessfunktion fast eine wichtigere Aufgabe ist, die die Antworten auf unsere Fragen bestimmen wird, als die Wahl der Eingabewerte für das Gitter. Und sie beschränkt sich in der Regel auf quälende und zeitraubende Aufzählungen von Eingabedaten......

Und Integer war der Kurve ein wenig voraus, während ich schrieb. Ich stimme mit ihm überein.

 
Integer писал(а) >>

Bis zum minimalen Fehler. Um ein "Übertraining" zu vermeiden (ein Wort, das die Bedeutung des Phänomens überhaupt nicht wiedergibt), muss die Anzahl der Neuronen im Netz so gering wie möglich sein. Nach dem Training gibt es Verfahren wie die Analyse des Einflusses einzelner Eingänge im Netz und das Entfernen schwacher Eingänge sowie ein Verfahren zur Reduzierung der Anzahl der Neuronen. Als ob man es bildlich ausdrücken könnte ... so dass es in diesem elektronischen Gehirn keine Leerstellen mehr gibt, die von der Ausbildung unberührt bleiben.

Und was meinen Sie mit "Umschulung"?

 
joo писал(а) >>

Ich stimme mit Ihnen überein, ebenso wie ich mit Integer übereinstimme. Aber Sie haben selbst geschrieben -

>> Esgibt niemanden, der Ihnen konkrete Antworten auf Ihre Fragen geben kann.
))))
 
LeoV писал(а) >>

Und was verstehen Sie unter dem Wort "Umschulung"?

Im Zusammenhang mit der Anwendung und dem Training von neuronalen Netzen verstehe ich es überhaupt nicht, es spiegelt nicht die Bedeutung des Phänomens wider. Wie sie über neuronale Netze schreiben, zum Beispiel hier (und nicht nur) - http://www.exponenta.ru/soft/others/mvs/stud3/3.asp:

Zu wenige Beispiele können zu einem "Übertraining" des Netzes führen, wenn es bei Trainingsbeispielen gut, bei Testbeispielen, die der gleichen statistischen Verteilung unterliegen, jedoch schlecht abschneidet.

Darunter versteht man das Trainieren des Netzes mit weniger Beispielen, als es aufnehmen kann. Es wird zerklüftet und verwirrend, wenn die Situation nicht genau der zerklüfteten Erfahrung ähnelt. "Notched" kommt von dem Wort "rote" - auswendig lernen, aber nicht verstehen oder anwenden können.

 
LeoV >>:

Я с вами согласен, точно так же как и с Integer. Но вы сами написали -

))))

Trotzdem meinte ich, dass eine bestimmte Anzahl unwahrscheinlich ist. :)

 
Integer писал(а) >>

Im Zusammenhang mit der Anwendung und dem Training von neuronalen Netzen verstehe ich es überhaupt nicht, es spiegelt nicht die Bedeutung des Phänomens wider. Wie sie über neuronale Netze schreiben, zum Beispiel hier (und nicht nur) - http://www.exponenta.ru/soft/others/mvs/stud3/3.asp:

Ich verstehe es so, dass ein Netz mit weniger Beispielen trainiert wird, als es aufnehmen kann. Sie wird zerklüftet und verwirrend, wenn die Situation nicht genau der zerklüfteten Erfahrung entspricht. "Auswendiglernen" kommt von dem Wort "auswendig" - auswendig wissen, aber nicht verstehen oder anwenden können.

Der Begriff "Überlernen" trifft meiner Meinung nach eher auf die Anwendung von neuronalen Netzen auf den Finanzmärkten zu. Wir wissen, dass sich der Markt im Laufe der Zeit verändert, dass sich die Muster ändern und dass der zukünftige Markt nicht genau derselbe sein wird wie in der Vergangenheit. Wenn ein Netz also zu gut lernt, lernt es den Markt zu gut und ist nicht mehr in der Lage, in der Zukunft adäquat zu arbeiten - auf einem Markt, der sich verändert hat. Dies ist "Überlernen". Die Verringerung der Anzahl der Neuronen ist natürlich eine Methode, um eine "Umschulung" zu vermeiden. Aber es funktioniert nicht allein.

 
LeoV >>:

Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно(для "академических целей"), делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?

Ну вот как-то так.....))))

Das Netz wird auf einen minimalen Fehler in der Testprobe trainiert, wobei die Gewichte an der Trainingsstichprobe angepasst werden.

 
StatBars писал(а) >>

Das Netz wird auf einen minimalen Fehler in der Testprobe trainiert, wobei die Gewichte an der Trainingsstichprobe angepasst werden.

Das ist verständlich. Je kleiner der Fehler, desto größer der Gewinn? Oder wie sieht der Zusammenhang aus?

 
Integer >>:

До минимальной ошибки. Чтобы "переобучения" (слово совершенно не отражающее смысл явления) не было, количество нейронов в сети должно быть минимально возможным. После обучения существует такие процедуры, как анализ влияния отдельных входов сети и удаление слабовлиящих, и такая процедура, как сокращение количества нейронов. Как бы так образно ... чтобы в этом электронном мозге не оставалась пустых мест не затронутых обучением.

Die Anzahl der Neuronen spielt nicht immer eine entscheidende Rolle, obwohl die Wahl der Anzahl der Neuronen (die in den meisten Fällen minimal ist, ohne die Genauigkeit zu beeinträchtigen) zu einer Verringerung des Fehlers führt.

Die Beeinflussung von Eingaben und das Entfernen unnötiger Eingaben kann oft eine größere Wirkung haben als die Auswahl von Neuronen in einer Schicht.