Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1704
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Ein Fehler ist nicht einfach ein Fehler. Ein kleiner Fehler kann eine große Wirkung haben.
Und die NS wird nicht gebeten, sich wiederholende Daten zu erfassen. Sie wird aufgefordert, verborgene Muster zu erkennen, um in Ermangelung von sich wiederholenden Daten das richtige Ergebnis zu erhalten. Verallgemeinerung verstehen. Wenn wir einen endlichen Bereich von Daten haben, aber nur 50 % dieser Daten haben. Das Netzwerk lernt, und wenn es ein Muster erkennt, kann es den Rest der Daten, die es nicht gesehen hat, aufbauen. Es ist, als würde man altes Videomaterial mit fehlenden Pixeln rekonstruieren, das das Netz selbst wiederherstellt.
Nun, das ist ein statistischer Ansatz! Ich habe zum Beispiel 20 Bilder von verschiedenen Dreiecken. Bei der 21. fehlt dem Dreieck die Hypotenuse. Anhand der gesammelten Statistiken kann ich leicht feststellen, dass es sich um ein nicht gezeichnetes Dreieck handelt - auf jedem Foto ist ein Dreieck abgebildet. Das heißt, ein Fehler in der Dreieckszeichnung ist für mich nicht kritisch, denn ich habe bereits Statistiken im Allgemeinen. Gilt dieses Prinzip nicht auch für NS?
Nun ja, grob gesagt, es sei denn, man zählt, dass auf den 21 Bildern nur eine Ecke eingezeichnet ist und von einem Dreieck nicht die Rede ist...
Um das Wesen und die theoretischen Grundlagen neuronaler Netze zu verstehen, ist die Kenntnis der Kolmogorow-, Arnold- und Hecht-Nielson-Theorie unerlässlich.
Für die Praxis ist dieses Wissen nicht unbedingt erforderlich, aber ein allgemeines Verständnis kann nicht schaden.
Ich habe Ihnen einen Link gegeben, über den Sie die Aufteilung der JOT-Daten einsehen können. Dort wird das vollständige Modell in eine Datei hochgeladen. Dann werden die Splits daraus gelesen.
Sicherlich können bereits asymmetrische Bäume entladen werden?
Beim Boosten sind per Definition alle Bäume wichtig. Jeder nachfolgende Baum verfeinert alle vorherigen. Wenn man einen Baum in der Mitte verwirft, dann arbeiten alle folgenden mit falschen Daten - sie müssen neu trainiert werden, ohne den verworfenen Baum zu berücksichtigen. Der erste Baum wird dem verworfenen Baum sehr nahe kommen.
Nein, das ist nicht ganz richtig. Wenn das Modell fertig ist, befindet sich darin ein Haufen Baumblätter, was eine Wahrscheinlichkeit von nahezu 0,5 ergibt - was im Grunde genommen Unsinn ist.
Ja. Die einzelnen Blätter im Binning sind unvollständig, da sie durch Antworten von Blättern aus anderen Veredelungsbäumen ergänzt werden. Und nur die kumulierten Antworten von z.B. 100 Bäumen ergeben die richtige Antwort.
Der Versuch, aus einem einzigen Blatt des Boosting-Modells etwas Zuverlässiges zu erhalten, ist unmöglich.
Beim Boosten werden alle 100 Antworten von 100 Bäumen addiert, wobei jede Antwort z. B. insgesamt 0,01 = 1 ergibt. Der Wert von 1 Blatt = 0,01 - was wollen Sie damit erreichen? Es ist nichts drin. Nur die Summe der 100 Blätter ergibt die richtige Antwort.
In der Tat ist der 1. Baum stark und ergibt z. B. 0,7, die übrigen bringen die Summe näher an 1. Wenn nur die Blätter des ersten Baumes separat betrachtet werden, sind sie meines Erachtens jedoch schwächer als jeder Baum aus dem Zufallswald, da sie weniger tief sind.
Der Zufallswald hat einen Durchschnitt, z.B. jedes Blatt von 100 Bäumen = 1, der Durchschnitt auch = 1. In ihm sind die Füchse vollständig, aber mit zufälligen Abweichungen. Aber eine Menge von 100 Antworten ergibt den Durchschnitt als einigermaßen genaue Antwort.
Es ist möglich, nützliche Informationen aus einem einzigen Baum zu gewinnen, aber das ist selten.
Selbst der erste Baum wird nicht der beste sein.
Boosting ist schnell, aber man muss die Modelle sorgfältig auswählen, und das erfordert eine große Stichprobe, was ein Problem darstellt.
Um das Wesen und die theoretischen Grundlagen neuronaler Netze zu verstehen, ist die Kenntnis der Kolmogorow-, Arnold- und Hecht-Nielson-Theorie unerlässlich.
Für die Praxis ist dieses Wissen nicht unbedingt erforderlich, aber ein allgemeines Verständnis kann nicht schaden.
Spc.
Das Fehlen einer strengen Theorie zu diesen neuronalen Netzmodellen hindert nicht daran, die Möglichkeiten ihrer Anwendung auf praktische Probleme zu erforschen.
Sicherlich können bereits asymmetrische Bäume entladen werden?
Ich habe ein Beispiel ausprobiert und grow_policy='Lossguide' hinzugefügt.
Hier ist ein Stück Modell, das Spaltungen enthält:
Auch bei Depthwise gibt es Spaltungen. Aber das ist in Python, ich habe noch keine Möglichkeit gesehen, ein Modell in R zu entladen. Aber ich denke, es ist möglich, das Modell in R im internen Format zu speichern, es in Python zu öffnen und es in JSON zu entladen. Und davon brauchen Sie nur noch
Kolleginnen und Kollegen. Das Thema ist interessant, aber ich verstehe den Unterschied zwischen maschinellem Lernen und einfacher Parameteroptimierung in einem Tester nicht? Denn der Zweck ist in etwa derselbe - die Entscheidung, in den Markt einzusteigen (auszusteigen), wenn die Einstiegs- (Ausstiegs-) Parameter übereinstimmen. Beide Methoden funktionieren nicht mehr, wenn sich der Markt stark verändert. Sie müssen neu geschult und optimiert werden. Kurz und bündig und ohne Philosophie.
Der Unterschied liegt in der Flexibilität des Werkzeugs. Das neuronale Netz kann sich an jede Serie anpassen. Betrachten Sie das folgende Polynom. Sowohl die Breite der Koeffizienten als auch ihre Anzahl können völlig unterschiedlich sein.
Stellen Sie sich die Anzahl der Varianten vor, kein Multi-Parameter-Expert Advisor kann mit einer solchen Flexibilität aufwarten. Man sagt ihnen auch nach, dass sie zur Verallgemeinerung fähig sind, aber das ist nicht sicher :-)