Interpolation, approximation et autres (paquet alglib) - page 14

 
Maxim Dmitrievsky :

Je ne comprends pas comment travailler avec Gram matrix maintenant ! Parce qu'il ne s'agit pas de nouvelles caractéristiques transformées, mais d'une matrice ITS avec le produit scalaire des anciennes caractéristiques.

Eh bien, dans ce cas, je pense que vous devez prendre la dérivée première de la représentation scalaire finale pour obtenir le vecteur. Je veux dire que j'ai juste besoin de calculer la pente de la fonction noyau finale.

Je suppose qu'il devrait y avoir une bibliothèque MQL5 intégrée pour calculer la dérivée première ou la pente de toute fonction.

Dans ce cas, si la pente est positive, il s'agit d'un signal d'achat et si la pente est négative, il s'agit d'un signal de vente.

 
FxTrader562:

Eh bien, dans ce cas, je pense que vous devez prendre la dérivée première de la représentation scalaire finale pour obtenir le vecteur. Je veux dire que j'ai juste besoin de calculer la pente de la fonction noyau finale.

Je suppose qu'il devrait y avoir une bibliothèque MQL5 intégrée pour calculer la dérivée première ou la pente de toute fonction.

Dans ce cas, si la pente est positive, il s'agit d'un signal d'achat et si la pente est négative, il s'agit d'un signal de vente.

) nono... nous en avons besoin comme de nouveaux points caractéristiques pour l'ajustement RDF, les mêmes 2 ou n vecteurs mais avec de nouveaux points je pense.

Je n'arrive pas à l'imaginer :D D'abord, nous devons le transformer avec un noyau et ensuite le retransformer en caractéristiques avec d'autres points de données.

ou peut-être le déterminant de la matrice Gramian - ces points

 
Maxim Dmitrievsky:

)) nono... nous en avons besoin comme de nouveaux points caractéristiques pour l'ajustement RDF, les mêmes 2 ou n vecteurs mais avec de nouveaux points je pense.

Je ne peux pas l'imaginer :D Nous devons d'abord le transformer avec un noyau et ensuite le retransformer en caractéristiques avec d'autres points de données.

ou peut-être le déterminant de la matrice Gramian - ces points

Je suis totalement confus ici :)))

La fonction noyau est une technique de classification permettant d'exécuter le processus de classification plus rapidement, n'est-ce pas ?

Pourquoi avons-nous besoin d'extraire les points caractéristiques de la fonction noyau en retour. Il suffit d'alimenter le réseau neuronal avec les points caractéristiques obtenus à partir de la spline et d'effectuer la classification à l'aide des fonctions RDF et du noyau. n'est-ce pas ?

D'après ce que j'ai compris, la transformation des caractéristiques doit être effectuée par une fonction spline. n'est-ce pas ?

Où est la confusion ? Je suis confus ou c'est vous qui l'êtes :))

 
FxTrader562:

Je suis totalement confus ici :)))

La fonction noyau est une technique de classification permettant d'exécuter le processus de classification plus rapidement, n'est-ce pas ?

Pourquoi avons-nous besoin d'extraire les points caractéristiques de la fonction noyau en retour. Il suffit d'alimenter le réseau neuronal avec les points caractéristiques obtenus à partir de la spline et d'effectuer la classification à l'aide des fonctions RDF et du noyau. n'est-ce pas ?

D'après ce que j'ai compris, la transformation des caractéristiques doit être effectuée par une fonction spline. n'est-ce pas ?

Où est la confusion ? Je suis confus ou c'est vous qui l'êtes :))

Non, nous utilisons les ktricks pour projeter des caractéristiques dans des espaces d'une autre dimension, et nous avons besoin de nouvelles coordonnées de ces projections comme nouveaux points de données, puis nous apprenons RDF.

C'est une algèbre tensorielle et vectorielle, mais je suis un noob ici, mais j'apprends vite ;)

Si vous connaissez quelqu'un qui connaît l'algèbre vectorielle, veuillez l'inviter.

ou ajoutons le sujet sur la version en forum
 
Maxim Dmitrievsky:

Non, nous utilisons les ktricks pour projeter des caractéristiques dans des espaces d'une autre dimension, et nous avons besoin de nouvelles coordonnées de ces projections comme nouveaux points de données, puis nous apprenons RDF.

C'est une algèbre tensorielle et vectorielle, mais je suis un noob ici, mais j'apprends vite ;)

Si vous connaissez quelqu'un qui connaît l'algèbre vectorielle, veuillez l'inviter.

Je commence à comprendre ce que vous recherchez... en fait, les coordonnées de la dimension supérieure pour notre vecteur d'entrée de la dimension inférieure, n'est-ce pas ?

Je me pencherai bientôt sur l'algèbre vectorielle. Je pense que tout ce que l'on peut trouver facilement sur google et youtube. Je posterai quelques liens si je trouve.

J'ai étudié l'algèbre vectorielle il y a longtemps dans mon collège et, par conséquent, je l'ai parcourue rapidement.

 
FxTrader562:

Je commence à comprendre ce que vous recherchez... en fait, les coordonnées de la dimension supérieure pour notre vecteur d'entrée de la dimension inférieure, n'est-ce pas ?

Je me pencherai bientôt sur l'algèbre vectorielle. Je pense que tout ce que l'on peut trouver facilement sur google et youtube. Je posterai quelques liens si je trouve.

J'ai étudié l'algèbre vectorielle il y a longtemps à l'université et je l'ai donc parcourue rapidement.

oui, nous avons besoin comme dans cette vidéo


par exemple, nous avons un espace de caractéristiques à 2 dimensions et nous ne pouvons pas le séparer linéairement, puis nous ajoutons des caractéristiques à 3 dimensions et maintenant nous pouvons les séparer par hyperplan.

mais le noyau nous permet de faire une projection de points sans ajouter de caractéristique tridimensionnelle, donc nous pouvons le séparer de la même manière si nous avons 2 caractéristiques au lieu de 3.

mais... comment obtenir des caractéristiques bidimensionnelles transformées qui sont linéairement séparées dans une autre dimension. Nous avons besoin d'une projection bidimensionnelle de nouvelles dimensions, c'est-à-dire de nouveaux points d'un autre espace vectoriel.

Je pense que c'est de la magie, mais bon...)

 
Maxim Dmitrievsky:

oui, nous avons besoin comme dans cette vidéo


par exemple, nous avons un espace de caractéristiques à 2 dimensions et nous ne pouvons pas le séparer linéairement, puis nous ajoutons des caractéristiques à 3 dimensions et nous pouvons maintenant les séparer par hyperplan.

mais le noyau nous permet de faire une projection de points sans ajouter de caractéristique tridimensionnelle, donc nous pouvons le séparer de la même manière si nous avons 2 caractéristiques au lieu de 3.

mais... comment obtenir des caractéristiques bidimensionnelles transformées qui sont linéairement séparées dans une autre dimension. Nous avons besoin d'une projection bidimensionnelle de nouvelles dimensions, c'est-à-dire de nouveaux points d'un autre espace vectoriel.

Eh bien, comme je l'ai dit, j'ai étudié l'algèbre vectorielle il y a longtemps et donc, j'ai déjà les connaissances de base. Mais dans ce cas, je trouve cela un peu difficile.

C'est une question de produit scalaire et de produit vectoriel.

Le produit scalaire est une grandeur qui est déterminée par A.BCos(angle entre A et B). C'est ce qu'on appelle le produit interne

Un produit en croix est le vecteur après multiplication des vecteurs A et B, et leur magnitude est A.B.Sin(Angle entre A et B). C'est ce qu'on appelle le produit extérieur. J'ai donc compris cette ligne de code et je pense que vous la comprendrez aussi :

P = cvxopt.matrix(np.outer(y,y) * K)

C'est juste un produit croisé je suppose.

Il s'agit d'une vidéo liée à la cartographie du noyau :

https://www.youtube.com/watch?v=7_T9AdeWY3k

 
FxTrader562:

Eh bien, comme je l'ai dit, j'ai étudié l'algèbre vectorielle il y a longtemps et donc, j'ai déjà les connaissances de base. Mais dans ce cas, je trouve cela un peu difficile.

C'est une question de produit scalaire et de produit vectoriel.

Le produit scalaire est une grandeur qui est déterminée par A.BCos(angle entre A et B). C'est ce qu'on appelle le produit interne

Un produit en croix est le vecteur après multiplication des vecteurs A et B, et leur magnitude est A.B.Sin(Angle entre A et B). C'est ce qu'on appelle le produit extérieur. J'ai donc compris cette ligne de code et je pense que vous la comprendrez aussi :

C'est juste un produit croisé je suppose.

Il s'agit d'une vidéo liée à la cartographie du noyau :

https://www.youtube.com/watch?v=7_T9AdeWY3k

Oui, il vient d'ici http://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log

mais je ne peux pas séparer les noyaux et les SVM du code source.

 
Maxim Dmitrievsky:

Oui, il vient d'ici http://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log

mais je ne peux pas séparer les noyaux et les SVM du code source.

D'après ce que je comprends, la coordonnée dans l'espace de dimension supérieure doit être la valeur de la fonction noyau avec les deux vecteurs d'entrée. Cela signifie que nous avons deux vecteurs d'entrée et que nous avons besoin du troisième vecteur, qui est ajouté à la troisième coordonnée.

Par exemple, si vous introduisez 2 vecteurs x et y et les mappez dans l'espace 3d, vous obtenez la valeur du noyau K(x,y),

Alors, la coordonnée du vecteur final dans l'espace 3 D doit être (x,y,k(x,y))

Ensuite, si vous le mappez dans l'espace 4D et obtenez la valeur du noyau k1(x,y,k(x,y)),

Ensuite, la coordonnée dans l'espace 4D devrait être (x,y,k(x,y),k1(x,y,k(x,y))) et ainsi de suite .....

Cela a-t-il un sens ou crée-t-il un lien avec votre code source existant ?

OU une autre méthode consiste à obtenir l'angle du tenseur par rapport à la coordonnée de cartographie, puis à prendre le cosinus de cet angle et à le multiplier par la magnitude du tenseur.
 

Ça y est, j'ai trouvé le bon gars, il explique bien, je me souviens de tout d'un coup.