Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 397

 
Mihail Marchukajtes:

Ich habe eine gekürzte Version, das ist das Ergebnis, das ich gerade oben gepostet habe.

Aber auch hier habe ich fast einen Tag gebraucht, um es zu optimieren.
 
Dr. Trader:

Die Ergebnisse der Wichtigkeitsbewertung lauten wie folgt. Je höher der Prädiktor in der Tabelle, desto besser. NurVVolum6, VDel1, VVolum9 und VQST10 bestanden den Test.

In Rattle können wir 6 Modelle auf einmal auf diesen 4 Prädiktoren aufbauen und SVM zeigt eine Genauigkeit von etwa 55% auf Validierungs- und Testdaten. Nicht schlecht.


Ist es möglich, die Quelldatei zu erhalten? Ich möchte dieses Ergebnis mit meinem Ansatz vergleichen.

Das Ergebnis von 55 % ist bei diesen 6 Prädiktoren sehr schlecht

 
SanSanych Fomenko:


Ist es möglich, die Quelldatei zu erhalten? Ich möchte dieses Ergebnis mit meinem Ansatz vergleichen.

Das Ergebnis von 55 % ist bei diesen 6 Prädiktoren sehr schlecht

Dateien:
BuySell.txt  368 kb
 
Mihail Marchukajtes:

Aber andererseits habe ich fast 24 Stunden gebraucht, um es zu optimieren.

Äh... nein, ich brauche etwas für 15 Minuten :) dann werde ich die Hälfte der Prädiktoren entfernen
 
Mihail Marchukajtes:

Ehrlich gesagt, weiß ich nicht einmal, wie sie organisiert ist. Ich glaube, es geht so. Die Stichprobe ist in zwei Teile unterteilt: einen Test- und einen Übungsteil. Ein Gitter wird auf einem Teil trainiert und auf dem anderen getestet. Ein anderer hingegen wird auf den zweiten trainiert und auf den ersten getestet, dann wird das Ergebnis addiert und das Gesamtergebnis berechnet, einfach so IMHO

Diese Methodik gilt für jedes maschinelle Lernen.
Ist das Maxim ein Thema?

Ist der Klassifikator von Reschetow immer noch ein einzelnes Neuron und nicht ein Netzwerk? Oder handelt es sich um ein Netzwerk von Reshetov-Neuronen?

 

Aber ich möchte mich an alle wenden. Es gibt keine Daten in dem großen Satz vom 29.05. Das heißt, Sie können ihn vollständig lehren und das Modell erhalten, dann können Sie das Modell in MKUL laden und sehen, wie es in diesen zwei Wochen abschneidet. Dies ist ein Maß für die Leistung des Modells. Mit anderen Worten: Das Modell, das bei minimalem Drawdown mehr gewinnt, gewinnt. Ich optimierte einen verkürzten Satz und das Modell funktionierte wie folgt

Mal sehen, wie IHRE Modelle in diesem Bereich abschneiden werden????

 
Maxim Dmitrievsky:

äh... nein, ich brauche etwas für 15 Minuten :) dann werde ich die Hälfte der Vorhersagen löschen

Dann lassen Sie del,vdel,volun,vvolum.
 
elibrarius:

Diese Methodik gilt für das gesamte maschinelle Lernen.
Vielleicht ist das Maxim zum Thema?


Ich habe Ihnen einen Link zu seiner Website gegeben, dort finden Sie eine Beschreibung des Modells. Ich weiß nicht einmal, wie ich es charakterisieren soll, es heißt Nuclear Machine + Vector Machine. Dort ist es komplizierter als in der mt5-Version + Training mit dem Gegner anstelle der Auswahl von Gewichten im Optimierer, aber es gibt die gleichen Gewichte für jeden der Prädiktoren aus.
 

Träumen wir ein wenig und stellen wir uns vor, dass wir eine Maschine mit 100 Kernen für die Optimierung haben und wir einen vollständigen Datensatz mit 452 Zeilen und einem vollständigen Satz von Spalten ausführen und der Optimierer in ungefährer Zeit alles berechnet hat, was wäre dann das Modell????

Nun, erstens werden die Eingabevariablen mehr als 10-12 sein und die Größe des Polynoms wird ziemlich groß sein. Was sagt Ihnen das? Dass das Modell multiparametrisch ist, d. h. viele Marktfaktoren berücksichtigt (was sehr wichtig ist, da es lächerlich ist, den Markt auf der Grundlage eines einzigen Modells (als Beispiel) vorherzusagen). Die Länge des Polynoms lässt darauf schließen, dass das Modell sehr flexibel ist. Am Ende wird dieses Modell lange mit einem angemessenen Qualitätsniveau arbeiten, wenn die Gleichgewichtskurve mit einem Winkel von 45 Grad nach oben gerichtet ist, ohne abrupte Einbrüche und Täler. Wäre das nicht ein Traum????

Und was den großen Satz anbelangt, so kann ich sagen, dass der gesamte Juni-Terminkontrakt dort gesammelt wird. Mit anderen Worten, man sollte das Modell mit diesen Daten trainieren und ein gutes Ergebnis im Training und im Test erzielen, und dieses Modell wird für den Rest seines Lebens funktionieren, weil es den gesamten Terminkontrakt gelernt hat. Der nächste Vertrag wird hinsichtlich des Verhältnisses zwischen Outputs und Inputs IMHO genau dasselbe sein. Es ist eine Form von Gral, die mit Fehlern arbeitet, aber lange genug. Und wenn Sie das Netz anhand der jährlichen Daten in der richtigen Qualität trainieren, werden Sie den Markt kennen. Etwa so: ....

 
Mihail Marchukajtes:


Nun, ja. Es gibt nur die alte Version und den Grundansatz. Die Praxis hat jedoch gezeigt, dass der Zwei-Gitter-Ansatz die Verallgemeinerungsfähigkeit erheblich verbessert. Das Ergebnis des Optimierers ist die folgende Datei. Sie sehen zwei Raster und für jedes Raster eine andere Normalisierung, und ganz am Ende werden die Ergebnisse kombiniert.

Reshetov hat also ein gutes Produkt gemacht, du hättest ihn nicht kritisieren sollen, um ehrlich zu sein ......

Wenn man sich die Datei ansieht, gibt es 8 Koeffizienten, die Eingabe ist23, d.h. es gibt ein Neuron, das mit 3 Eingaben arbeitet. Ich vermute, dass Ihr Programm vierundzwanzig Stunden lang zählt, welche 3 von 100 Eingaben an dieses Neuron weitergeleitet werden sollen. Ich dachte, das Neuron sei auf mindestens 10 Eingänge erweitert...

getBinaryClassificator1(x0, x1, x2, x3, x4, x5, x6, x7);