Interpolation, Approximation und Ähnliches (Paket alglib) - Seite 14

 
Maxim Dmitrievsky :

Ich verstehe aber nicht, wie man mit Gram Matrix jetzt arbeiten kann! Es handelt sich dabei nicht um neue transformierte Merkmale, sondern nur um eine ITS-Matrix mit dem Skalarprodukt der alten Merkmale.

Nun, in diesem Fall müssen Sie die erste Ableitung der endgültigen skalaren Darstellung nehmen, um den Vektor zu erhalten. Ich meine, ich muss nur die Steigung der endgültigen Kernel-Funktion berechnen.

Ich nehme an, dass es eine eingebaute MQL5-Bibliothek geben sollte, um die erste Ableitung oder die Steigung einer beliebigen Funktion zu berechnen.

In diesem Fall sollte es sich bei einer positiven Steigung um ein KAUFEN-Signal und bei einer negativen Steigung um ein VERKAUFEN-Signal handeln.

 
FxTrader562:

Nun, in diesem Fall müssen Sie die erste Ableitung der endgültigen skalaren Darstellung nehmen, um den Vektor zu erhalten. Ich meine, ich muss nur die Steigung der endgültigen Kernel-Funktion berechnen.

Ich nehme an, dass es eine eingebaute MQL5-Bibliothek geben sollte, um die erste Ableitung oder die Steigung einer beliebigen Funktion zu berechnen.

In diesem Fall sollte es sich bei einer positiven Steigung um ein KAUFEN-Signal und bei einer negativen Steigung um ein VERKAUFEN-Signal handeln.

) nono... wir brauchen sie als neue Merkmalspunkte für die RDF-Anpassung, dieselben 2 oder n Vektoren, aber mit neuen Punkten, denke ich

Ich kann es mir einfach nicht vorstellen :D Zuerst müssen wir es mit Kernel transformieren und dann mit anderen Datenpunkten zurück in Merkmale transformieren

oder vielleicht Matrixdeterminante Gramian -diese Punkte

 
Maxim Dmitrievsky:

)) nono... wir brauchen sie als neue Merkmalspunkte für die RDF-Anpassung, dieselben 2 oder n Vektoren, aber mit neuen Punkten, denke ich

Ich kann es mir einfach nicht vorstellen :D Zuerst müssen wir es mit Kernel transformieren und dann mit anderen Datenpunkten zurück in Merkmale transformieren

oder vielleicht Matrixdeterminante Gramian -diese Punkte

Ich bin hier völlig verwirrt:))

Die Kernel-Funktion ist eine Klassifizierungstechnik, um den Klassifizierungsprozess zu beschleunigen, richtig?

Warum müssen wir die Merkmalspunkte aus der Kernel-Funktion zurück extrahieren? Wir müssen das neuronale Netz lediglich mit den aus dem Spline gewonnenen Merkmalspunkten füttern und die Klassifizierung mithilfe von RDF- und Kernel-Funktionen durchführen. oder?

Meines Erachtens sollte die Merkmalstransformation durch eine Spline-Funktion erfolgen. oder?

Wo liegt die Verwirrung? Bin ich verwirrt oder bist du es:))

 
FxTrader562:

Ich bin hier völlig verwirrt:))

Die Kernel-Funktion ist eine Klassifizierungstechnik, um den Klassifizierungsprozess zu beschleunigen, richtig?

Warum müssen wir Merkmalspunkte aus der Kernel-Funktion zurück extrahieren? Wir müssen das neuronale Netz lediglich mit den aus dem Spline gewonnenen Merkmalspunkten füttern und die Klassifizierung mithilfe von RDF- und Kernel-Funktionen durchführen. oder?

Meines Erachtens sollte die Feature-Transformation durch eine Spline-Funktion erfolgen. oder?

Wo liegt die Verwirrung? Bin ich verwirrt oder bist du es:))

Nein, wir verwenden ktricks für die Projektion von Merkmalen in einen anderen Dimensionsraum, und wir brauchen neue Koordinaten dieser Projektionen als neue Datenpunkte, dann lernen wir RDF

Es ist ein Tensor und Vektor-Algebra, aber ich bin Noob hier, aber ich lerne schnell )

Wenn Sie jemanden kennen, der sich mit Vektoralgebra auskennt - laden Sie ihn ein

oder lassen Sie uns das Thema auf en forum Version hinzufügen
 
Maxim Dmitrievsky:

Nein, wir verwenden ktricks für die Projektion von Merkmalen in einen anderen Dimensionsraum, und wir brauchen neue Koordinaten dieser Projektionen als neue Datenpunkte, dann lernen wir RDF

Es ist ein Tensor und Vektor-Algebra, aber ich bin Noob hier, aber ich lerne schnell )

Wenn Sie jemanden kennen, der sich mit Vektoralgebra auskennt - laden Sie ihn ein

Ich verstehe immer besser, wonach Sie suchen... im Grunde genommen die Koordinaten der höheren Dimension für unseren Eingangsvektor der niedrigeren Dimension, richtig?

Ich werde mich bald mit Vektoralgebra beschäftigen. Ich denke, wir können alles leicht über Google und Youtube herausfinden. Ich werde einige Links posten, wenn ich sie finde.

Ich habe die Vektoralgebra vor langer Zeit in der Schule gelernt und sie daher schnell durchgesehen.

 
FxTrader562:

Ich verstehe immer besser, wonach Sie suchen... im Grunde genommen die Koordinaten der höheren Dimension für unseren Eingangsvektor der niedrigeren Dimension, richtig?

Ich werde mich bald mit Vektoralgebra beschäftigen. Ich denke, wir können alles leicht über Google und Youtube herausfinden. Ich werde einige Links posten, wenn ich sie finde.

Ich habe die Vektoralgebra vor langer Zeit in der Schule gelernt und sie daher schnell durchgesehen.

ja, wir brauchen wie in diesem Video


Wir haben z.B. einen 2-dimensionalen Merkmalsraum und können ihn nicht linear trennen, dann fügen wir ein 3-dimensionales Merkmal hinzu und können es nun durch eine Hyperebene trennen

aber der Kernel erlaubt uns die Projektion von Punkten, ohne ein 3-D-Merkmal hinzuzufügen, so dass wir es auf die gleiche Weise trennen können, wenn wir 2 Merkmale anstelle von 3 haben

aber... wie wir transformierte 2D-Merkmale erhalten können, die in einer anderen Dimension linear getrennt sind. Wir brauchen eine 2-D-Projektion neuer Dimentionen, d.h. neuer Punkte aus einem anderen Vektorraum

Ich glaube, es ist ein Zauber, aber egal)

 
Maxim Dmitrievsky:

ja, wir brauchen wie in diesem Video


Wir haben z.B. einen 2-dimensionalen Merkmalsraum und können ihn nicht linear trennen, dann fügen wir ein 3-dimensionales Merkmal hinzu und können es nun durch eine Hyperebene trennen

aber der Kernel erlaubt uns die Projektion von Punkten, ohne ein 3-D-Merkmal hinzuzufügen, so dass wir es auf die gleiche Weise trennen können, wenn wir 2 Merkmale anstelle von 3 haben

aber... wie wir transformierte 2D-Merkmale erhalten können, die in einer anderen Dimension linear getrennt sind. Wir brauchen eine 2-D-Projektion neuer Dimentionen, d.h. neuer Punkte aus einem anderen Vektorraum

Nun, wie ich schon sagte, habe ich vor langer Zeit Vektoralgebra studiert, und daher habe ich das Grundverständnis bereits. Aber in diesem Fall finde ich es ein wenig schwierig.

Es geht um das Punktprodukt und das Kreuzprodukt.

Das Punktprodukt ist der Betrag, der durch A.BCos(Winkel zwischen A und B) bestimmt wird. Dies wird als inneres Produkt bezeichnet

Ein Kreuzprodukt ist der Vektor nach der Multiplikation der Vektoren A und B, und sein Betrag ist A.B.Sin(Winkel zwischen A und B). Dies wird als äußeres Produkt bezeichnet. Ich habe diese Codezeile verstanden, und ich denke, Sie werden sie auch verstehen:

P = cvxopt.matrix(np.outer(y,y) * K)

Es handelt sich wohl nur um ein Kreuzprodukt.

Dies ist ein Video, das mit dem Kernel Mapping zusammenhängt:

https://www.youtube.com/watch?v=7_T9AdeWY3k

 
FxTrader562:

Nun, wie ich schon sagte, habe ich vor langer Zeit Vektoralgebra studiert, und daher habe ich das Grundverständnis bereits. Aber in diesem Fall finde ich es ein wenig schwierig.

Es geht um das Punktprodukt und das Kreuzprodukt.

Das Punktprodukt ist der Betrag, der durch A.BCos(Winkel zwischen A und B) bestimmt wird. Dies wird als inneres Produkt bezeichnet

Ein Kreuzprodukt ist der Vektor nach der Multiplikation der Vektoren A und B, und sein Betrag ist A.B.Sin(Winkel zwischen A und B). Dies wird als äußeres Produkt bezeichnet. Ich habe diese Codezeile verstanden, und ich denke, Sie werden sie auch verstehen:

Es handelt sich wohl nur um ein Kreuzprodukt.

Dies ist ein Video, das mit dem Kernel Mapping zusammenhängt:

https://www.youtube.com/watch?v=7_T9AdeWY3k

Ja, es ist von hierhttp://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log

aber ich kann Kernel und SVM nicht vom Quellcode trennen

 
Maxim Dmitrievsky:

Ja, es ist von hierhttp://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log

aber ich kann Kernel und SVM nicht vom Quellcode trennen

Soweit ich das verstanden habe, muss die Koordinate im höherdimensionalen Raum der Kernel-Funktionswert zusammen mit dem 2-Eingangsvektor sein. Das heißt, wir haben 2 Eingangsvektoren und brauchen den 3. Vektor, der zur 3. Koordinate addiert wird.

Wenn man zum Beispiel 2 Vektoren x und y einspeist und sie auf den 3-d-Raum abbildet, erhält man den Kernelwert K(x,y),

Dann muss die Koordinate des endgültigen Vektors im 3-D-Raum (x,y,k(x,y)) sein

Als Nächstes bildet man es auf den 4D-Raum ab und erhält den Kernelwert k1(x,y,k(x,y)),

Dann sollten die Koordinaten im 4D-Raum (x,y,k(x,y),k1(x,y,k(x,y))) sein und so weiter....

Macht es Sinn oder stellt es eine Verbindung zu Ihrem bestehenden Quellcode her?

ODER eine andere Möglichkeit besteht darin, den Winkel des Tensors in Bezug auf die Abbildungskoordinate zu ermitteln, dann den Kosinus dieses Winkels zu nehmen und ihn mit dem Betrag des Tensors zu multiplizieren.
 

Das ist es, ich habe den richtigen Mann gefunden, er erklärt es gut, ich erinnere mich an alles auf einmal.