Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2829
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Wir verwenden Algorithmen des Gradientenabstiegs, der im Allgemeinen nicht für Neuronen geeignet ist und der einen riesigen Bart hat. Wir googeln es und stellen keine kindischen Fragen, nachdem wir gelernt haben, wie der Gradientenabstieg verschiedene Arten von Fallen mit lokalen Extrema überwindet. Das ist etwas, was die Leute schon seit Jahren gezielt tun.
Sie wurden gebeten, das Lernen/Optimieren an einigen repräsentativen Funktionen zu testen, das ist eine gute Übung.
Wenn Sie glauben, dass neuronale Netze dies perfekt tun, liegen Sie wahrscheinlich falsch.
Es wurde vorgeschlagen, das Lernen und die Optimierung an einigen repräsentativen Funktionen zu testen, was eine gute Praxis ist.
Wenn Sie glauben, dass neuronale Netze dies perfekt tun, liegen Sie wahrscheinlich falsch.
Ja... offen gesagt bin ich überrascht, dass nicht jeder einfache Wahrheiten angemessen wahrgenommen hat - alles sollte getestet werden, und der Glaube an Dogmen, die von jemandem geäußert werden, bedeutet Stagnation und Verschlechterung.
und gradient descent und bekprop sind so uralte und erbärmliche methoden, dass es seltsam ist, dass sie von manchen leuten noch ernst genommen werden können.
übrigens ist genetics heutzutage nicht der robusteste algorithmus. er sollte in die tabelle aufgenommen werden, weil... Nun, nur um klarzustellen, dass es immer Raum für Verbesserungen gibt.
Ja... ehrlich gesagt bin ich überrascht, dass nicht jeder die einfachen Wahrheiten angemessen wahrgenommen hat - alles sollte überprüft werden, und der Glaube an Dogmen, die von jemandem geäußert werden, bedeutet Stagnation und Degradierung.
und Gradient Descent und Bekprop sind so uralte und erbärmliche Methoden, dass es seltsam ist, dass sie immer noch von irgendjemandem ernst genommen werden können.
Die Wahrnehmung dort ist spezifisch, auf der Ebene des Kargo-Kultes und des Glaubens an das göttliche R, das die Gaben der Zivilisation bringt.
Einerseits ist Lernen ein Spezialfall der Optimierung, andererseits gibt es aber auch einige Besonderheiten.
1) Die Optimierung in der MO impliziert in der Regel eine Optimierung in einem unendlich-dimensionalen Funktionsraum. Dies geschieht in expliziter Form( z.B.Gradientenbusting), kann aber auch implizit sein. Dies führt zu einer unglaublichen Flexibilität der Modelle, aber die Klarheit und Einfachheit, die man bei der endlichen Optimierung findet, geht verloren. So kann sich beispielsweise jedes Extremum in einem endlich-dimensionalen Unterraum als Sattelpunkt in einem Unterraum höherer Dimensionalität (die beliebig hoch sein kann) erweisen.
2) Es wird ein endlicher Satz von gut funktionierenden Verlustfunktionen verwendet. Dies vermeidet die Probleme, die sich aus dem ersten Punkt ergeben. Wenn man die Verlustfunktion jedoch anpassen möchte, ist dies entweder unmöglich oder sehr schwierig.
Einerseits ist das Lernen...
Das ist furchtbar.
Der Horror ist, dass eine Person zu Artikeln über Optimierung kommt und das Thema nicht einmal zu 20% kennt, so dass sie das allgemeine Wissen nicht erkennt und davon überrascht wird....
Das Grauen ist, dass Menschen mit noch weniger Qualifikation sich Eiter in den Kopf schütten und es für das Wissen von Gurus halten, das Ergebnis ist ein Haufen intellektueller Krüppel ...
Und alle Arten von Nicht-Gurus stimmen fröhlich zu, weil sie bereits verkrüppelt sind und selbst Eiter in ihre Köpfe gießen, indem sie ihre Egos als Artikel bezeichnen....
das ist das wahre Grauen!!!
Das Schlimme ist, dass eine Person zu Artikeln über die Optimierung kommt und das Thema nicht einmal zu 20% kennt, so dass sie das allgemeine Wissen nicht erkennt und davon überrascht wird....
Das Grauen ist, dass Menschen mit noch weniger Qualifikation Eiter in ihre Köpfe schütten, es für Wissen von Gurus halten, das Ergebnis ist ein Rudel intellektueller Krüppel....