Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2828
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Ja, ich werde mir adam mal in Ruhe anschauen und ein paar Tests machen.
Die Artikel sind top, nur nicht qualifiziert, etwas zu beanstanden :)
danke))))
dann sehe ich die Notwendigkeit, auch Algorithmen, die traditionell mit Neuronen verwendet werden, in die Überprüfung einzubeziehen.
In der Praxis bedeutet dies, dass das Neuron nicht ausreichend trainiert wird.
Nun, das ist nur ein kleiner Nachtrag.
Es gibt verschiedene Arten von AO, lokale Optimierung und globale Optimierung...
lokal sind Gradienten, derselbe Adam usw., global ist Genetik usw.
Netze werden mit lokaler AO trainiert, weil es schnell ist, "es gibt eine Menge Gewichte".
und es ist einfach nicht effektiv, globale AO zu trainieren...
Und die Hauptsache ist, dass man, wenn man ein normales Neuron, das etwa eine Milliarde Gewichte hat, mit globaler AO trainiert, erstens sehr lange warten muss und zweitens in keiner Weise garantieren kann, dass man ein globales Minimum gefunden hat....
Dieses ganze Gerede ist also eine Entweihung des reinen Wassers, SUPER naiver Glaube, dass diejenigen, die Deep Learning entwickelt haben, keine Ahnung von globalen Optimierungsalgorithmen und ihren Eigenschaften haben, das ist so offensichtlich, dass es nicht einmal lustig ist....
Sie werden lernen, globale Optimierungsalgorithmen von lokalen Optimierungsalgorithmen zu unterscheiden, und dann gibt es die diskrete Optimierung, die kontinuierliche Optimierung, die multikriterielle Optimierung usw. ....
Und jeder von ihnen hat seine eigenen Aufgaben, alles auf einen Haufen zu werfen und irgendetwas zu testen ist Profanierung.
Nun, das ist ein bisschen ein nachträglicher Einfall.
Es gibt verschiedene Arten von AO, lokale Optimierung und globale Optimierung...
lokal ist Gradienten, die gleiche Adam, usw. global ist Genetik, usw...
Netze werden lokal trainiert, weil das schnell ist, "es gibt viele Skalen".
und es ist einfach nicht effizient, globale AOs zu trainieren...
Und die Hauptsache ist, dass man, wenn man ein normales Neuron, das etwa eine Milliarde Gewichte hat, mit globaler AO trainiert, erstens sehr lange warten muss und zweitens in keiner Weise garantieren kann, dass man das globale Minimum gefunden hat....
Dieses ganze Gerede ist also eine Entweihung des reinen Wassers, SUPER naiver Glaube, dass diejenigen, die Deep Learning entwickelt haben, keine Ahnung von globalen Optimierungsalgorithmen und ihren Eigenschaften haben, das ist so offensichtlich, dass es nicht einmal lustig ist....
Es ist furchtbar.
Es gibt keine Unterteilung von Algorithmen in "lokal" und "global". Wenn ein Algorithmus in einem der lokalen Extrema stecken bleibt, ist das ein Fehler, keine Eigenschaft.
Es gibt hochspezialisierte Vergleiche traditioneller AOs für Neuronen, man kann danach suchen. Algorithmen werden in der Regel für bestimmte Aufgaben verwendet, aber ausnahmslos alle Algorithmen können in Bezug auf die Konvergenzqualität verglichen werden.
danke)))
dann sehe ich die Notwendigkeit, auch die Algorithmen, die traditionell mit Neuronen verwendet werden, in die Überprüfung einzubeziehen.
Das ist furchtbar.
Es gibt keine Unterteilung von Algorithmen in "lokal" und "global". Wenn ein Algorithmus in einem der lokalen Extrema stecken bleibt, ist das ein Fehler, keine Eigenschaft.
Es werden Gradientenabstiegsalgorithmen verwendet, die im Allgemeinen nicht für Neuronen geeignet sind, und die einen riesigen Bart haben. Googeln Sie es und stellen Sie keine kindischen Fragen, nachdem Sie gelernt haben, wie der Gradientenabstieg verschiedene Arten von Fallen mit lokalen Extrema überwindet. Das ist etwas, was die Leute schon seit Jahren gezielt tun.
Ich habe einmal gelesen, dass, wenn sich der Fehler einige Zyklen lang nicht wesentlich ändert, d. h. um ein Extremum kreist, zur Überprüfung, ob er lokal ist, ein starker Sprung in den Parametern gemacht wird, um aus diesem Extremum herauszuspringen. Wenn es lokal ist, kehrt es bei den nächsten Sprüngen nicht dorthin zurück, wenn es global ist, kehrt es zurück. Das kann man mehrmals wiederholen. Im Allgemeinen müssen Sie den Raum weiter ausdehnen.
Das ist furchtbar.
Es gibt keine Unterteilung von Algorithmen in "lokal" und "global". Wenn ein Algorithmus in einem der lokalen Extrema stecken bleibt, ist das ein Fehler, keine Eigenschaft.
Es gibt hochspezialisierte Vergleiche traditioneller AOs für Neuronen, Sie können danach suchen. Algorithmen werden in der Regel für bestimmte Aufgaben verwendet, aber alle Algorithmen ohne Ausnahme können in Bezug auf die Konvergenzqualität verglichen werden.
Nun, es sind alle 5 )))))))))
Waren Sie auf der gleichen Universität wie Maximka?