Interpolation, Approximation und Ähnliches (Paket alglib) - Seite 13

 
Алексей Тарабанов:

Nun, genau darum geht es. Jedes Interpolationspolynom ist für die Extrapolation ungeeignet. Fourier ist genau dasselbe wie die ursprüngliche Reihe, und Polynome wie Lagrange oder Taylor erzeugen lawinenartige Kurven mit steigender Preisänderungsrate. Das Glätten beruhigt das Bild, aber nicht sehr, und es ist nicht richtig, da es die Verbindung zur ursprünglichen Quelle verliert.

Es gibt eine einfache, klare und effektive Extrapolationsmethode, die nicht mit Interpolation verbunden ist. Trend.

Sie erholen sich nur langsam vom Stress des Gelesenen, genau wie frühere Leser, das ist hier ein anderes Thema

 
Maxim Dmitrievsky:

Sie erholen sich genauso langsam vom Lesestress wie Ihre Vorredner, jetzt ist es off-topic

Ja, das ist hier schon nicht mehr das Thema.

 

Hallo Maxim,

Vor einigen Tagen suchten Sie nach Kernel-Lösungen für n Eingangsvektoren anstelle von 2 Vektoren. Haben Sie diese Lösung gefunden oder versuchen Sie, eine andere Lösung zu finden?

Wenn ich mich nicht irre, dann suchen Sie anstelle von K (x, y), wobei K die Kernel-Funktion ist , die Ausgabe von K (x1, x2, x3, ..., xn). Habe ich das richtig verstanden?

Was ich gelernt habe, ist, dass der Kern der Funktion der Einzelwert ist. Es sollte also die Summe aller Punktprodukte sein. Sie sollte in etwa so lauten:

K (x1, x2, x3, ... xn) = Summe aller z (i). Z (i + 1) für alle i mit 0 <i < n

Es kann für eine Schleife in MQL5 mit der Summe aller Funktionen der Kernel-Funktion sein.

Ich habe keine Möglichkeit, das zu testen. Aber haben Sie schon einmal etwas Ähnliches ausprobiert und getestet? Oder verstehe ich hier etwas nicht?

 
FxTrader562:

Hallo Maxim,

Vor einigen Tagen suchten Sie nach Kernel-Lösungen für n Eingangsvektoren anstelle von 2 Vektoren. Haben Sie diese Lösung gefunden oder versuchen Sie, eine andere Lösung zu finden?

Wenn ich mich nicht irre, dann suchen Sie anstelle von K (x, y), wobei K die Kernel-Funktion ist , die Ausgabe von K (x1, x2, x3, ..., xn). Habe ich das richtig verstanden?

Was ich gelernt habe, ist, dass der Kern der Funktion der Einzelwert ist. Es sollte also die Summe aller Punktprodukte sein. Sie sollte in etwa so lauten:

K (x1, x2, x3, ... xn) = Summe aller z (i). Z (i + 1) für alle i mit 0 <i < n

Es kann für eine Schleife in MQL5 mit der Summe aller Funktionen der Kernel-Funktion sein.

Ich habe keine Möglichkeit, das zu testen. Aber haben Sie schon einmal etwas Ähnliches ausprobiert und getestet? Oder verstehe ich hier etwas nicht?

Hallo, eigentlich weiß ich nicht, wie man das jetzt macht, weil diese Algorithmen (wie SVM oder Gauß-Prozess) nur mit inneren Produkten arbeiten, nicht mit einem Feature-Mapping. Ich suche jetzt nach einer guten Idee, wie ich es besser machen kann.

 
Maxim Dmitrievsky :

Hallo, eigentlich weiß ich nicht, wie man das jetzt macht, weil diese Algorithmen (wie SVM oder Gauß-Prozess) nur mit inneren Produkten arbeiten, nicht mit einer Merkmalszuordnung. Ich suche jetzt nach einer guten Idee, wie ich es besser machen kann.

Soweit ich weiß, ist der Kernel-Trick eine Teilmenge des SVM-Algorithmus. Sie meinen also, dass Sie den Kernel-Trick nicht mehr implementieren wollen?

Was Sie als Feature-Mapping bezeichnen, wird als Punktprodukt oder inneres Produkt der Polynome im höheren Raum im Kernel-Trick ausgedrückt und ist daher nach meinem Verständnis nur eine einfache Multiplikation der Kernel-Funktionen.

Um es klar zu machen, in K(x,y) sind Sie planen, die Kerze schließen Preis von zwei aufeinander folgenden Kerzen als x und y, um den Kernel zu erhalten oder versuchen Sie, etwas anderes zu implementieren?

 
FxTrader562:

Soweit ich weiß, ist der Kernel-Trick eine Teilmenge des SVM-Algorithmus. Sie meinen also, dass Sie den Kernel-Trick nicht mehr implementieren wollen?

Was Sie als Feature-Mapping bezeichnen, wird als Punktprodukt oder inneres Produkt der Polynome des höheren Raums im Kernel-Trick ausgedrückt, so dass es sich nach meinem Verständnis nur um eine einfache Multiplikation der Kernel-Funktionen handelt.

Um es klar zu machen, in K(x,y) sind Sie planen, die Kerze schließen Preis von zwei aufeinander folgenden Kerzen als x und y, um den Kernel zu erhalten oder versuchen Sie, etwas anderes zu implementieren?

Ich meine, ich verstehe nicht, wie man die Eingangsvektoren nach der Multiplikation ändern kann, sie sind dann absolut gleich. Es besagt, dass die Gram-Matrix verwendet werden muss, um Vektoren zu platzieren (Feature-Mapping), und dann einige Manipulationen mit ihr. Hier ein Beispielcode mit SVM

https://pythonprogramming.net/soft-margin-kernel-cvxopt-svm-machine-learning-tutorial/

def polynomial_kernel(x, y, p=3):
    return (1 + np.dot(x, y)) ** p

# Gram matrix
        K = np.zeros((n_samples, n_samples))
        for i in range(n_samples):
            for j in range(n_samples):
                K[i,j] = self.kernel(X[i], X[j]) ??? Gram matrix 'K' is simmetrical. What we must do next, dont understand the code below

        P = cvxopt.matrix(np.outer(y,y) * K)
        q = cvxopt.matrix(np.ones(n_samples) * -1)
        A = cvxopt.matrix(y, (1,n_samples))
        b = cvxopt.matrix(0.0)

Jetzt lerne ich gerade etwas über Vektorräume, um es zu verstehen.

vielleicht ist es besser, wenn wir zu en forum gehen )

Python Programming Tutorials
  • pythonprogramming.net
Python Programming tutorials from beginner to advanced on a massive variety of topics. All video and text tutorials are free.
 
Maxim Dmitrievsky:

Ich meine, ich verstehe nicht, wie man die Eingangsvektoren nach der Multiplikation ändern kann, sie sind dann absolut gleich. Es besagt, dass die Gram-Matrix verwendet werden muss, um Vektoren zu platzieren (Feature-Mapping), und dann einige Manipulationen mit ihr. Hier ein Beispielcode mit SVM

https://pythonprogramming.net/soft-margin-kernel-cvxopt-svm-machine-learning-tutorial/

Jetzt lerne ich gerade etwas über Vektorräume, um es zu verstehen.

vielleicht ist es besser, wenn wir zu en forum gehen )

Das Referenzmaterial ist natürlich in den anderen Foren zu finden, wo die Gram-Matrix im Video gelöst wird. Ich versuche auch, es zu verstehen.

Auch haben Sie bereits verstanden und bis jetzt in MQL5 implementiert? Andernfalls ist ein weiterer Versuch sinnlos:)

 
FxTrader562:

Das Referenzmaterial ist natürlich in den anderen Foren zu finden, wo die Gram-Matrix im Video gelöst wird. Ich versuche auch, es zu verstehen. Hier ist ein weiteres kurzes Video, das sich mit der Gramm-Matrix befasst:

https://www.youtube.com/watch?v=8JiMUqbByGA

Auch haben Sie bereits verstanden und bis jetzt in MQL5 implementiert? Andernfalls ist ein weiterer Versuch sinnlos:)

Es handelt sich um eine einfache Schleife, die die Gramm-Matrix berechnet... aber dann arbeiten quadratische Löser, ich bin nicht sicher, für was ... oder es ist bereits SVM-Logik :)

Danke für das Video

 
Maxim Dmitrievsky:

Es handelt sich um eine einfache Schleife, die die Gramm-Matrix berechnet... aber dann arbeiten quadratische Löser, ich bin nicht sicher, für was ... oder es ist bereits SVM-Logik :)

Danke für das Video

Genau ... wie ich sagte, kann es wahrscheinlich nur mit einer for-Schleife in MQL5 implementiert werden.

Nun, wir brauchen uns nicht um andere Dinge zu kümmern, solange unser Ziel erreicht ist:)

Ich meine, solange wir die Eingaben in Mql5 nehmen können und die Ausgaben als Kernel wie erwartet erhalten, dann spielt anderes Zeug keine Rolle. Denn der letzte Teil wird der Test sein, bei dem sich anhand der Ergebnisse zeigen wird, ob alles richtig umgesetzt wurde oder nicht.

Übrigens ist SVM nur ein Klassifizierungsverfahren, und der Kernel-Trick macht es durch ein einfaches Punktprodukt leicht. Ich glaube nicht, dass alles, was SVM betrifft, in den Kernel-Trick implementiert werden muss, denn im Kernel-Trick wird alles von der Funktion selbst erledigt, so dass man nicht viel tun muss.

Außerdem erklärt dieses Video SVM im Detail zusammen mit Beispielcode in Python mit Kernel-Trick. Sie können es sich ansehen:

https://www.youtube.com/watch?v=N1vOgolbjSc&t=157s

 
FxTrader562:

Aber ich verstehe nicht, wie man mit Gram-Matrix jetzt arbeiten, weil dies nicht eine neue transformierte Merkmale, seine nur Matrix mit Skalarprodukt der alten Merkmale