Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 460

 
Mihail Marchukajtes:

Du redest um den heißen Brei herum...... Nennen Sie mir ein konkretes Beispiel... Dann können wir das Gespräch fortsetzen, aber ansonsten....

Er hat keine Argumente, wenn er etwas gefunden hat, das er für einen Fehler hält, und dies Reshetov mitgeteilt hat. Er seinerseits hat dies nicht als Fehler erkannt, was bedeutet, dass seine Argumente schwach oder falsch sind. Also schweigt er.


Streitereien in einem Studio!

 
Sie weichen immer aus und haben keine Argumente, um Ihre Aussagen zu untermauern.
 
Eidechse_:

Mishek, warum sagst du nichts? Unterstütze deinen Bruder)))

Was quasseln Sie denn da? Haben Sie ein Geschäft? Wenigstens tun die Leute etwas Interessantes.

Schreiben Sie etwas Gutes

 

Dies ist eine sehr alte Version, und ich stimme Wizard zu 100 % zu, dass es besser ist, sie nicht zu verwenden. Das Modell wird neu trainiert, und auch wenn es am Ende eine Schätzung der Genauigkeit für die Daten außerhalb der Stichprobe anzeigt, zeigt es diese mit einem Fehler an, der die Genauigkeit stark überschätzt. Ich habe in diesem Forum sogar ein Beispiel gepostet, bei dem das Modell in der Info nach dem Training eine Genauigkeit von 90 % bei neuen Daten zeigte und nach dem Hinzufügen dieser Daten zur Formel und nach der Berechnung des Ergebnisses mit Hilfe der Formel zumindest in Excel waren die Vorhersagen völlig zufällig und nur 50 % genau

Yuri brachte es mir dann in den Sinn, fügte ein Komitee von mehreren Modellen hinzu, beschleunigte und nannte alles jPrediction, erstellte eine Website genau für dieses Modell. Die Seite ist verschwunden, fragen Sie Mikhail nach der neuesten Version und den Quellen.
Imho ist dieses Modell ganz gut gelungen, aber in Anbetracht der Langsamkeit gibt es viel produktivere Dinge in R.

 
Dr. Trader:

Dies ist eine sehr alte Version, und ich stimme Wizard zu 100 % zu, dass es besser ist, sie nicht zu verwenden. Das Modell wird neu trainiert, und auch wenn es am Ende eine Schätzung der Genauigkeit auf der Grundlage von Daten außerhalb der Stichprobe anzeigt, zeigt es diese mit einem Fehler an, der die Genauigkeit stark überschätzt. Ich habe sogar in diesem Forumsthread ein Beispiel gepostet, bei dem das Modell in der Info nach dem Training eine Genauigkeit von 90 % bei neuen Daten zeigte, und nachdem ich diese Daten zur Formel hinzugefügt und die Ergebnisse mit der Formel zumindest in Excel berechnet hatte, gab es eine völlige Zufälligkeit und nur 50 % Genauigkeit bei den Vorhersagen.

Yuri hat es sich dann in den Kopf gesetzt, ein Komitee aus mehreren Modellen zusammengestellt, alles beschleunigt und jPrediction genannt, eine Website für dieses Modell erstellt. Die Seite ist verschwunden, fragen Sie Michael nach der neuesten Version und den Quellen.
Imho ist dieses Modell in Ordnung, aber angesichts der Langsamkeit gibt es viel produktivere Dinge in R.

Ich habe es, ich glaube, es ist auch umgeschult, nur ein Link zur Beschreibung
 
Eidechse_:

Warum schreien Sie dann? Er ist nicht dumm. Wizard ist immer auf den Punkt, auch wenn er witzig ist)))
Werfen Sie die Rassel weg, verschwenden Sie nicht Ihre Zeit damit. Werkzeuge und ihre möglichen Kombinationen, die gestern vorgestellt wurden.
Verschwenden Sie nicht Ihre Zeit mit Mishek, er schreibt eine Sache impliziert eine andere, und die Res auf den Oos ist die dritte...


Ja, ich flüstere. ) konnte andere Beiträge nicht finden, von den Moderatoren gelöscht oder so
 

Es geht mir gut... Ich war gerade eine Weile weg....

Was auf Google beschrieben wird, ist eine alte Version von ..... BUT!!!!!!!

Um vernünftig zu beweisen, dass JPrediction umtrainiert ist und nicht richtig funktioniert, machen wir ein Experiment. Schließlich lernt man alles durch Vergleich. Das ist genau das, was ich tun wollte.

Nehmen wir an, wir haben einen Datensatz, trainieren ihn und lassen das Modell einige Zeit arbeiten, und dann sehen wir uns das Ergebnis an...

Ich trainiere einen Datensatz auf JPrediction, Sie trainieren denselben Datensatz auf Ihrer KI, wählen ein Intervall und sehen, welches Modell länger und besser funktioniert.....

Genau das meinte ich, als ich Sie bat, meinen Datensatz mit Ihren KIs zu trainieren.

Und so.... Es ist nicht klar, nach welchen Kriterien man entschieden hat, dass der Prädiktor übertrainiert ist: ????? Woher hast du das denn, Zauberer? Haben Sie konkrete Beweise dafür, dass der Optimiser nicht funktioniert? ???? I do???? Geben Sie mir ein Beispiel.....

Auf die gleiche Weise kann ich Ihren Datensatz trainieren und Sie können dann selbst sehen, welches Modell besser funktioniert. Der von Ihnen trainierte oder der von mir trainierte mit dem optimizer....

 
Eidechse_:

Nein. Reschetow hat nicht verstanden, dass wir die Normalisierung nicht starr nach der bekannten Formel vornehmen sollten. Wir hätten die
einen Unterbrechungsschalter. Auch die zufällige Aufschlüsselung ist fragwürdig und wir hätten sie zumindest kennzeichnen sollen, aber es ist besser, sie zu deaktivieren usw...

Ach ja, ich habe auch über die Panne geschrieben. Für normale Daten ist das in Ordnung, aber speziell für Devisen hätten wir eine Art Rollforward machen sollen. Oder teilen Sie sie zumindest zeitlich in zwei Teile auf - Training vor dem Datum und Prüfung nach dem Datum.

Was ist falsch an der Normalisierung? Für die Neuronen spielt es keine Rolle, in welchem Bereich die Eingabe liegt, korrekt initialisierte Gewichte verdauen alles. Die Normalisierung stört nicht, ist aber auch nicht sehr hilfreich.
Obwohl die Intuition sagt, dass es besser ist, die Null nicht zu verschieben, wenn die Eingabe positive und negative Zahlen enthält. Und R sagt, dass die Prädiktoren nicht auf 0-1 skaliert werden sollen, sondern dass sd(x) = 1 ist.

 
Eidechse_:

Nein. Reshetov hat nicht verstanden, dass wir die Normalisierung nicht starr auf der Grundlage der bekannten Formel vornehmen sollten. Wir hätten die
einen Unterbrechungsschalter. Die zufällige Aufschlüsselung ist ebenfalls fraglich und wir hätten sie zumindest kennzeichnen sollen, aber es ist besser, sie auszuschalten usw...


Über die zufällige Aufteilung kann ich streiten.

Wenn wir mit Hilfe von KI eine Vorhersage treffen, dann JA, dann ist die Reihenfolge der Daten von Bedeutung, von der Vergangenheit bis zur Zukunft, wir treffen eine Vorhersage.

Aber bei der Klassifizierung spielt die Reihenfolge der Daten überhaupt keine Rolle, denn wir müssen ein Gebiet aufteilen und die Hyperebene finden, die es am besten macht, in der Hoffnung, dass das gefundene Gesetz noch einige Zeit gültig ist.

Genau wie das Gesetz, das wir bei der Erstellung des Vorhersagemodells gefunden haben.......

 

Ganz zu schweigen von der Tatsache, dass aus der Beschreibung hervorgeht, dass das Modell absichtlich die am schwersten zu lernenden Beispiele lehrt und die leicht zu lernenden verwirft. Nun, das ist nur meine Meinung... aus der Beschreibung lesen.... wenn ich es richtig verstehe...

Wenn die Stichprobe in eine Trainings- und eine Teststichprobe unterteilt wird, ist es so, als ob die beiden nächstgelegenen Werte in verschiedene Stichproben fallen. Wenn wir also zwei identische Vektoren haben, werden sie zu unterschiedlichen Proben gelangen, eine in der Trainings- und eine in der Testprobe... Also...