Interpolación, aproximación y similares (paquete alglib) - página 14

 
Maxim Dmitrievsky :

¡Yo de dont Understand Pero cómo trabajar con la matriz de Gram ahora! Sólo, debido a esto no es una nueva transformación de las características, sólo una matriz de ITS con el producto escalar de las características de edad

Bueno, en este caso, creo que hay que tomar la primera derivada de la representación escalar final para obtener el vector. Me refiero a que sólo hay que calcular la pendiente de la función kernel final.

Supongo que debería haber una biblioteca MQL5 incorporada para calcular la primera derivada o la pendiente de cualquier función.

En este caso, si la pendiente es positiva, entonces debería ser una señal de COMPRA y si la pendiente es negativa, entonces debería ser una señal de VENTA.

 
FxTrader562:

Bueno, en este caso, creo que hay que tomar la primera derivada de la representación escalar final para obtener el vector. Me refiero a que sólo hay que calcular la pendiente de la función kernel final.

Supongo que debería haber una biblioteca MQL5 incorporada para calcular la primera derivada o la pendiente de cualquier función.

En este caso, si la pendiente es positiva, entonces debería ser una señal de COMPRA y si la pendiente es negativa, entonces debería ser una señal de VENTA.

) nono... lo necesitamos como nuevos puntos de características para el ajuste del RDF, los mismos 2 o n vectores pero con nuevos puntos creo

No me lo puedo imaginar :D Primero hay que transformarlo con el kernel y luego volver a transformarlo en características con otros puntos de datos

o tal vez el determinante de la matriz Gramian -este punto

 
Maxim Dmitrievsky:

)) nono... lo necesitamos como nuevos puntos de características para el ajuste del RDF, los mismos 2 o n vectores pero con nuevos puntos creo

No me lo puedo imaginar :D Primero hay que transformarlo con el kernel y luego volver a transformarlo en características con otros puntos de datos

o tal vez el determinante de la matriz Gramian -este punto

Me estoy confundiendo totalmente aquí:))

La función kernel es una técnica de clasificación para ejecutar el proceso de clasificación más rápidamente.

Por qué necesitamos extraer puntos de características de la función del núcleo de vuelta. Sólo tenemos que alimentar a la red neuronal con los puntos de característica obtenidos de la spline y conseguir que la clasificación se realice utilizando las funciones RDF y kernel. ¿verdad?

A mi entender, la transformación de las características debe realizarse mediante la función spline. ¿verdad?

¿Dónde está la confusión? ¿Me estoy confundiendo o eres tú:))

 
FxTrader562:

Me estoy confundiendo totalmente aquí:))

La función kernel es una técnica de clasificación para ejecutar el proceso de clasificación más rápidamente.

Por qué necesitamos extraer puntos de características de la función del núcleo de vuelta. Sólo tenemos que alimentar a la red neuronal con los puntos de característica obtenidos de la spline y conseguir que la clasificación se realice utilizando las funciones RDF y kernel. ¿verdad?

A mi entender, la transformación de las características debe realizarse mediante la función spline. ¿verdad?

¿Dónde está la confusión? ¿Me estoy confundiendo o eres tú:))

No, estamos usando ktricks para proyectar características a espacios de otra dimensión, y necesitamos nuevas coordenadas de estas proyecciones como nuevos puntos de datos, entonces aprendemos RDF

Es un tensor y álgebra vectorial, pero soy un novato aquí, pero aprendo rápido )

Si conoces a alguien que sepa de álgebra vectorial, invítalo.

o añadamos el tema en la versión del foro
 
Maxim Dmitrievsky:

No, estamos usando ktricks para proyectar características a espacios de otra dimensión, y necesitamos nuevas coordenadas de estas proyecciones como nuevos puntos de datos, entonces aprendemos RDF

Es un tensor y álgebra vectorial, pero soy un novato aquí, pero aprendo rápido )

Si conoces a alguien que sepa de álgebra vectorial, invítalo.

Me estoy acercando a entender lo que estás buscando... básicamente, las coordenadas de la dimensión superior para nuestro vector de entrada de la dimensión inferior.

Pronto investigaré el álgebra vectorial. Creo que todo lo que podemos conseguir fácilmente de google y youtube. Voy a publicar algunos enlaces si voy a encontrar.

Estudié álgebra vectorial hace mucho tiempo en mi universidad y por lo tanto, mirando rápidamente a través de ella.

 
FxTrader562:

Me estoy acercando a entender lo que estás buscando... básicamente, las coordenadas de la dimensión superior para nuestro vector de entrada de la dimensión inferior.

Pronto investigaré el álgebra vectorial. Creo que todo lo que podemos conseguir fácilmente de google y youtube. Voy a publicar algunos enlaces si voy a encontrar.

Estudié álgebra vectorial hace mucho tiempo en mi universidad y, por lo tanto, lo repasé rápidamente.

sí, necesitamos como en este video


por ejemplo, tenemos un espacio de características 2-d y no podemos separarlo linealmente, entonces añadimos características 3-d y ahora podemos separarlo por hiperplano

pero el kernel nos permite hacer la proyección de los puntos sin añadir la característica 3-d, por lo que podemos separarlo de la misma manera si tenemos 2 características en lugar de 3

pero... cómo podemos obtener características transformadas en 2D que están separadas linealmente en otra dimensión. Necesitamos una proyección 2D de nueva dimensión, es decir, nuevos puntos de otro espacio vectorial

Creo que es una magia, pero de todos modos )

 
Maxim Dmitrievsky:

sí, necesitamos como en este video


por ejemplo, tenemos un espacio de características 2-d y no podemos separarlo linealmente, entonces añadimos características 3-d y ahora podemos separarlo por hiperplano

pero el kernel nos permite hacer la proyección de los puntos sin añadir la característica 3-d, por lo que podemos separarlo de la misma manera si tenemos 2 características en lugar de 3

pero... cómo podemos obtener características transformadas en 2D que están separadas linealmente en otra dimensión. Necesitamos una proyección 2D de nueva dimensión, es decir, nuevos puntos de otro espacio vectorial

Bueno, como he dicho, estudié álgebra vectorial hace mucho tiempo y, por lo tanto, ya tengo los conocimientos básicos. Pero en este caso, lo encuentro un poco difícil.

Se trata del producto punto y el producto cruz.

El producto punto es la magnitud que viene determinada por A.BCos(ángulo entre A y B). Esto se llama producto interno

Un producto cruzado es el vector tras la multiplicación de los vectores A y B, y su magnitud es A.B.Sin(Ángulo entre A y B). Esto se llama producto exterior. Así que entendí esta línea de código y creo que tú también lo entenderás:

P = cvxopt.matrix(np.outer(y,y) * K)

Supongo que se trata de un producto cruzado.

Este es un vídeo relacionado con el mapeo del núcleo:

https://www.youtube.com/watch?v=7_T9AdeWY3k

 
FxTrader562:

Bueno, como he dicho, estudié álgebra vectorial hace mucho tiempo y, por lo tanto, ya tengo los conocimientos básicos. Pero en este caso, lo encuentro un poco difícil.

Se trata del producto punto y el producto cruz.

El producto punto es la magnitud que viene determinada por A.BCos(ángulo entre A y B). Esto se llama producto interno

Un producto cruzado es el vector tras la multiplicación de los vectores A y B, y su magnitud es A.B.Sin(Ángulo entre A y B). Esto se llama producto exterior. Así que he entendido esta línea de código y creo que tú también lo entenderás:

Supongo que se trata de un producto cruzado.

Este es un vídeo relacionado con el mapeo del núcleo:

https://www.youtube.com/watch?v=7_T9AdeWY3k

Sí, es de aquíhttp://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log

pero no puedo separar los kernels y el SVM del código fuente

 
Maxim Dmitrievsky:

Sí, es de aquíhttp://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log

pero no puedo separar los kernels y el SVM del código fuente

Por lo que puedo entender, la coordenada en el espacio dimensional superior tiene que ser el valor de la función del núcleo junto con el vector de 2 entradas. Significa que tenemos 2 vectores de entrada y necesitamos el 3er vector y se suma a la 3ª coordenada.

Por ejemplo, si se introducen 2 vectores x e y y se mapean en un espacio de 3 d se obtiene el valor del núcleo K(x,y),

Entonces, la coordenada del vector final en el espacio 3 D tiene que ser (x,y,k(x,y))

A continuación, si se mapea al espacio 4D y se obtiene el valor del núcleo k1(x,y,k(x,y)),

Entonces, la coordenada en el espacio 4D debería ser (x,y,k(x,y),k1(x,y,k(x,y))) y así ....

¿Tiene sentido o crea algún vínculo con su código fuente existente?

O bien, otra forma es obtener el ángulo del tensor con referencia a la coordenada de mapeo, luego tomar el coseno de ese ángulo y multiplicarlo por la magnitud del tensor.
 

Ya está, he encontrado al tipo adecuado, lo explica bien, lo recuerdo todo de golpe.