Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 497
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Aber warum glauben Sie, dass das lineare Modell, wenn es nach der Formel y=ax+b extrapoliert, dies perfekt tut, während der Wald, wenn er den nächsten bekannten Nachbarn verwendet, nichts tut? Beide Algorithmen haben ihre Daseinsberechtigung.
Ich zähle nichts, ich habe Ihnen ein Beispiel und eine Reihe von Artikeln gezeigt. Was macht es für einen Unterschied, ob die LR es perfekt macht oder nicht. Der Punkt ist, dass RF überhaupt nicht extrapolieren kann, konstruktiv, niemals und unter keinen Umständen, während LR zum Vergleich und zur Klarheit gegeben ist.
Das ist es, was ich frage, und ich habe nur nach VERSTEHENDEN Beispielen gefragt, warum Sie denken, dass es falsch ist :)
Was hat das mit "Artikeln" zu tun? Wollen Sie mich auf den Arm nehmen? Ich habe Ihnen ein Beispiel von Minsky gegeben, der wie Newton ist, nur in ML, und er hat es so sehr vermasselt, und Sie reden von Müll auf Hubra oder Skripten in R (lies: Ich habe den Algorithmus nicht selbst entwickelt, ich habe nur ein paar Parameter geändert).
Wenn Sie den Wald selbst in C++ erstellt hätten, wären Sie auf die Idee gekommen, eine "Extrapolation" ala MLP durchzuführen, aber in R... Viel Glück...
Ich kenne keinen Minsky und Pozharsky und ich verstehe nicht, was auf Ihren Diagrammen steht), müssen Sie RF irgendeinen Satz mit Zielen von 0 bis 10 oder bis zu 100 beibringen und dann eine Antwort geben, die absichtlich 100 überschreiten sollte und RF sollte nur 100 geben
hat der Autor hier in dem Artikel:
Ich verstehe r nicht gut, ich verstehe nur, dass von 100 bis 150 RF sollten angemessene Ergebnisse wie andere Modelle vorhergesagt haben, aber dies ist nicht geschehen
Das sollte es nicht. Er liefert eine lokale Interpolation der nächstgelegenen Punkte, ähnlich wie Knn (quasi-optimaler Klassifikator), aber gröber. Sie wissen einfach nicht, wie man Basen in RF-Bäumen dreht, und es erscheint "gewürfelt".
Nun, im vorherigen Beitrag habe ich einen Code mit einem Screenshot hinzugefügt, was ist da "falsch"?
In der Wald-Algorithmus, die Bäume teilen die Punkte durch ein Merkmal orthogonal, wenn Sie die Basis zu drehen, erhalten Sie das gleiche wie in MLP, für diese müssen Sie in den Wald-Code zu erhalten und zu korrigieren oder schreiben Sie Ihre eigenen Wald)))
Tut mir leid, das wäre eine andere Art von Wald. Ich meinte die klassische Version.
Ich versuche, das, was da ist, in den Griff zu bekommen, um etwas zu schreiben...
Das Ergebnis ist, dass der klassische RF nicht weiß, wie er extrapolieren soll.
In der ML gibt es keine "Klassiker", es gibt etwas, das funktioniert und das Problem löst. Die Algorithmen eines anderen in ihrer ganzen Vielfalt zu beherrschen, ist so sinnvoll, wie den Code aller Indikatoren in kodobase und market zu verstehen, was nicht sinnvoll ist...
Es gibt nicht allzu viele grundlegende Heuristiken in ML, die Sie selbst beherrschen müssen, und zwar von Hand, so dass es Ihnen "von den Fingern perlt", dass Sie nachts aufwachen und einfach aus dem Gedächtnis heraus eine halbe Stunde lang Gradient Busting in C++ tippen (nur ein Scherz), das ist nicht so schwer, wie es scheint, und dann können Sie 100500 Variationen von Algorithmen aus Hobber-Artikeln selbst generieren.
Ohoho...
Dr. Trader hat es zweimal wiederholt, ich wiederhole es auch für Sie, das dritte Mal, sie sagen Gott und die Unreinen wollen dreimal hören, es bedeutet etwas, in einem mystischen Kontext...
Neue Punkte im PRINZIPRÄUM, in Bezug auf die physikalische Zeit, befinden sich NICHT STRENG AUSSERHALB der PUNKTE, Zeit ist Zeit, in Chips sind sie Chips, also nicht linear mit der physikalischen Zeit verbunden, z.B. mit Impuls oder Spektrum. Die "extrapolierten" Punkte liegen überall innerhalb und außerhalb des Merkmalsraums.
Das habe ich nicht gesagt, ich habe nur gesagt, dass die Struktur von "ancient" so ist, dass das Modell, wenn es durch alle Trainingswerte von Zielen verzweigt ist, genau das ausgibt, was es verzweigt ist, und keine neuen Werte ausgeben kann... zumindest steht das so in dem Artikel mit dem Beispiel. Ich werde meine Beispiele machen und dir zeigen, was ich habe :) Wenn Sie beim Training an der Grenze des Zielwertes von 100 waren, kann die Ausgabe nicht mehr als 100 ergeben... Da alle Werte über 100 in das Blatt 100 gehen, gibt es rein physikalisch keine Blätter mit Werten größer als 100.
Wenn der Grenzwert des Ziels während des Trainings 100 war, kann es nicht mehr als 100 ausgeben, weil alle Werte über 100 in das Blatt 100 gehen.
Die Normalisierung wurde aus einem bestimmten Grund erfunden.
verständlich ist, geht es bei der Grundsatzfrage um das Funktionieren der Bäume. Unabhängig davon, wie Sie ihn normalisieren, wird der Baum jeden Ausreißer bei neuen Daten nicht extrapolieren, sondern den ihm bekannten Extremwert angeben. Deshalb ist es nicht notwendig, die Daten für Bäume zu normalisieren.
verständlich ist, geht es bei der Grundsatzfrage um das Funktionieren der Bäume. Unabhängig davon, wie Sie ihn normalisieren, wird der Baum jeden Ausreißer bei neuen Daten nicht extrapolieren, sondern den ihm bekannten Extremwert angeben. Deshalb ist es auch nicht notwendig, die Daten für Bäume zu normalisieren.
verständlich ist, geht es bei der Grundsatzfrage um das Funktionieren der Bäume. Unabhängig davon, wie Sie ihn normalisieren, wird der Baum jeden Ausreißer bei neuen Daten nicht extrapolieren, sondern den ihm bekannten Extremwert angeben. Deshalb ist es auch nicht notwendig, die Daten für Bäume zu normalisieren.
Meiner Meinung nach ist die Lösung in diesem Fall ganz einfach: Verwenden Sie Feedback.
Hochachtungsvoll.
Meiner Meinung nach ist die Lösung in diesem Fall einfach: Einführung von Feedback.
Hochachtungsvoll.
Ich habe eine :) Es ist mir egal, ob es nicht extrapolieren kann oder ob es das kann... das Modell wird eine Vorhersage für eine bekannte Menge machen... nur zur allgemeinen Information
es gibt einige Fehler in der Lib mit Modellfehlern, je kleiner die Menge, desto kleiner der Fehler, ich verstehe rpicol noch nicht