Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1928

 
Aleksey Vyazmikin:

Auf diese Weise werden die Merkmale erzeugt - wir müssen einen Konstruktor in Form von Grundregeln vorbereiten.

Beschreiben Sie z. B. einmal, wie sich ein Preis in einem Kanal verhält, und wechseln Sie dann einfach den Kanal, usw.

Ich gehe davon aus, dass dies Teil der Regeln ist, und wenn ja, kann es umgesetzt werden.

 
Aleksey Vyazmikin:

Beim Clustering wurden viele Zeilen verschiedenen Bereichen zugewiesen, und es wurde eine Karte erstellt, die, wie ich annehme, abgerufen werden kann:

Dann wird jede Zeile gewichtet und dem einen oder anderen Clusterzentrum zugewiesen. Ich verstehe nur nicht, wie eine einzelne Zeile gewichtet wird...


Diese Karte wird entweder als Prototyp oder als Clusterzentrum bezeichnet. Neue Daten werden mit jedem Zentrum verglichen und erhalten die Bezeichnung des nächstgelegenen Zentrums.

Für jede Funktion gibt es eine eingebettete Hilfe, schreiben Sie einfach "?" in die Konsole und benennen Sie die Funktion wie "?Kmeans".

Am Ende stehen immer Beispiele.

wie manhttps://stackoverflow.com/questions/53352409/creation-prediction-function-for-kmean-in-r vorhersagen kann


Ich beschloss, mich mit bedeutenden Marktumkehrungen zu befassen. Signifikante Kehrtwendungen als Ziel. Ich dachte, es würde ein Chaos herrschen, aber nein.

Welche Regel gilt für die Einstufung einer Rückabwicklung als sinnvoll?

Zickzack-Knie.


Also, sehr interessant. Danke für den Hinweis.

Können Sie den Code für Dummies weitergeben?

Vladimir hat den Code veröffentlicht. Vielleicht müssen Sie die Grundlagen lernen, sonst haben Sie zu viele Fragen und bekommen wenig Hilfe.


Danke, es ist mir gelungen, das Clustering zu entladen.

.

 
Aleksey Vyazmikin:

Inwiefern ist Ihre Methode also besser als meine - das Sammeln von Blättern ist im Wesentlichen eine Ableitung neuer Prädiktoren aus vorhandenen Daten. Sie müssen nur Bäume nicht nur durch Vergleich, sondern auch durch Transformation und Kombination von Ebenen des Ziels erstellen, im Allgemeinen können Sie dies auf der Grundlage eines regulären Baums implementieren und Blätter von dort ziehen.

Wenn Ihre Methode solche Regeln generieren kann, wie ich sie Maxim geschrieben habe, ist das überhaupt kein Problem.

 
mytarmailS:

Wenn Ihre Methode solche Regeln generieren kann, wie ich sie Maxim geschrieben habe, dann ist nichts

Meine Methode wird es ermöglichen, nicht zufällig, sondern sinnvoll zu generieren - sozusagen mehr Ertrag, aber auf der Grundlage eines regelmäßigen Baumes.

Im Allgemeinen bedeutet dies, dass wir dem Baumalgorithmus für das Training eine Reihe von Transformationsverfahren hinzufügen können, wie den Vergleich eines Prädiktors mit einem anderen, Multiplikation, Division, Addition, Subtraktion und andere Operationen. Der Punkt ist, dass während der genetischen Konstruktion des Baums die Variante nicht zufällig ausgewählt wird, sondern eine Beschreibung der Probe liefert, was die Dauer der Lösungssuche verkürzt. Wenn wir zufällige Prädiktoren aus der Stichprobe herausnehmen, können wir verschiedene Bäume erstellen, die diese Transformationen berücksichtigen.

 
Rorschach:
Sind Sie nirgends auf Studien gestoßen, wie man die Eingaben am besten normalisiert: inkrementell, Subtraktion ma, gleitendes Fenster?

Was meinen Sie mit "normalisieren"? Die Verteilung der Variablen so nah wie möglich an die Normalverteilung heranführen?

 
Aleksey Vyazmikin:

Meine Methode wird es ermöglichen, nicht zufällig, sondern sinnvoll zu generieren - sozusagen mehr Ertrag, aber auf der Grundlage eines regelmäßigen Baumes.

Im Allgemeinen meine ich, dass wir dem Baumalgorithmus während des Trainings eine Reihe von Transformationsverfahren hinzufügen können, wie den Vergleich eines Prädiktors mit einem anderen, Multiplikation, Division, Addition, Subtraktion und andere Aktionen. Der Punkt ist, dass während der genetischen Konstruktion des Baums die Variante nicht zufällig ausgewählt wird, sondern eine Beschreibung der Probe gibt, was die Dauer der Suche nach der Lösung reduziert. Wenn wir die Prädiktoren zufällig aus der Stichprobe herausnehmen, können wir verschiedene Bäume erstellen, die diese Transformationen berücksichtigen.

lesen Sie die von mir als Beispiel angegebene Regel und versuchen Sie, einen Regelgenerator dieser Art in den Baum einzubauen

 
Vladimir Perervenko:

Was meinen Sie mit "normalisieren"? Die Verteilung einer Variablen so nah wie möglich an die Normalverteilung heranführen?

Den Bereich der Variablen auf +-1 bringen

 
Vladimir Perervenko:

In Fortführung eines persönlichen Gesprächs

Ihre Version

umap_transform(X = X[tr,], model = origin.sumap, n_threads = 4 L, 
               verbose = TRUE) -> train.sumap
head(train.sumap)
[1,] 22.196741
[2,] 14.934501
[3,] 17.350166
[4,]  1.620347
[5,] 17.603270
[6,] 16.646723

einfache Variante

train.sumap <- umap_transform(X = X[tr,], model = origin.sumap, n_threads = 4 L, 
               verbose = TRUE)
head(train.sumap)
[1,] 22.742882
[2,]  7.147971
[3,]  6.992639
[4,]  1.598861
[5,]  7.197366
[6,] 17.863510

Wie Sie sehen können, sind die Werte recht unterschiedlich, Sie können sie selbst überprüfen


In meinem Modell

n_components = 1

daher nur eine Spalte, aber das ist nicht wirklich wichtig.

===================UPD

Mann, die sind jedes Mal anders, wenn man umap_tranform ausführt, es sollte nicht so sein

 
mytarmailS:

Lesen Sie die von mir als Beispiel angegebene Regel und versuchen Sie, diese Art von Regelgenerator in den Baum zu integrieren.

Was ist das Problem - erstellen Sie Komponenten am Anfang, von denen die Regeln gestapelt werden.

 
Aleksey Vyazmikin:

Das Problem ist, dass man zu Beginn Komponenten erstellen muss, um die Regeln aufzustellen.

Ich weiß es nicht, ich kann es nicht genau sagen.