Interpolazione, approssimazione e simili (pacchetto alglib) - pagina 14

 
Maxim Dmitrievsky :

Non capisco ma come lavorare con la matrice Gram ora! Solo, a causa di questo non è una nuova caratteristica trasformata, solo una matrice ITS con prodotto scalare di vecchie caratteristiche

Beh, in questo caso, penso che tu debba prendere la derivata prima della rappresentazione scalare finale per ottenere il vettore. Voglio dire che ho solo bisogno di calcolare la pendenza della funzione kernel finale.

Presumo che ci dovrebbe essere una libreria MQL5 integrata per calcolare la derivata prima o la pendenza di qualsiasi funzione.

In questo caso, se la pendenza è positiva, allora dovrebbe essere un segnale BUY e se la pendenza è negativa, allora dovrebbe essere un segnale SELL.

 
FxTrader562:

Beh, in questo caso, penso che tu debba prendere la derivata prima della rappresentazione scalare finale per ottenere il vettore. Voglio dire che ho solo bisogno di calcolare la pendenza della funzione kernel finale.

Presumo che ci dovrebbe essere una libreria MQL5 integrata per calcolare la derivata prima o la pendenza di qualsiasi funzione.

In questo caso, se la pendenza è positiva, allora dovrebbe essere un segnale BUY e se la pendenza è negativa, allora dovrebbe essere un segnale SELL.

) nono... ne abbiamo bisogno come nuovi punti caratteristici per l'adattamento RDF, gli stessi 2 o n vettori ma con nuovi punti penso

Non riesco proprio a immaginarlo :D Prima dobbiamo trasformarlo con il kernel e poi ritrasformarlo in caratteristiche con altri punti dati

o forse il determinante della matrice Gramian -questo punto

 
Maxim Dmitrievsky:

)) nono... ne abbiamo bisogno come nuovi punti caratteristici per l'adattamento RDF, gli stessi 2 o n vettori ma con nuovi punti penso

Non riesco proprio a immaginarlo :D Prima dobbiamo trasformarlo con il kernel e poi ritrasformarlo in caratteristiche con altri punti dati

o forse il determinante della matrice Gramian -questo punto

Mi sto confondendo completamente qui:))

La funzione kernel è una tecnica di classificazione per eseguire il processo di classificazione più velocemente, giusto?

Perché abbiamo bisogno di estrarre i punti caratteristici dalla funzione kernel indietro. Abbiamo solo bisogno di alimentare la rete neurale con i punti caratteristici ottenuti dalla spline e ottenere la classificazione utilizzando le funzioni RDF e kernel. giusto?

Secondo la mia comprensione, la trasformazione delle caratteristiche dovrebbe essere fatta dalla funzione spline. giusto?

Dov'è la confusione? Sono io che mi confondo o tu:))

 
FxTrader562:

Mi sto confondendo completamente qui:))

La funzione kernel è una tecnica di classificazione per eseguire il processo di classificazione più velocemente, giusto?

Perché abbiamo bisogno di estrarre i punti caratteristici dalla funzione kernel indietro. Abbiamo solo bisogno di alimentare la rete neurale con i punti caratteristici ottenuti dalla spline e ottenere la classificazione utilizzando le funzioni RDF e kernel. giusto?

Secondo la mia comprensione, la trasformazione delle caratteristiche dovrebbe essere fatta dalla funzione spline. giusto?

Dov'è la confusione? Sono io che mi confondo o tu:))

No, stiamo usando ktricks per proiettare le caratteristiche in spazi di un'altra dimensione, e abbiamo bisogno di nuove coordinate di queste proiezioni come nuovi punti dati, quindi impariamo RDF

È un'algebra tensoriale e vettoriale, ma sono un noob qui, ma imparo in fretta)

Se conosci qualcuno che conosce l'algebra vettoriale - invita

o aggiungiamo l'argomento sulla versione del forum
 
Maxim Dmitrievsky:

No, stiamo usando ktricks per proiettare le caratteristiche in spazi di un'altra dimensione, e abbiamo bisogno di nuove coordinate di queste proiezioni come nuovi punti dati, quindi impariamo RDF

È un'algebra tensoriale e vettoriale, ma sono un noob qui, ma imparo in fretta)

Se conosci qualcuno che conosce l'algebra vettoriale - invita

Mi sto avvicinando a capire cosa state cercando... fondamentalmente, le coordinate della dimensione superiore per il nostro vettore di input della nostra dimensione inferiore, giusto?

Guarderò presto l'algebra vettoriale. Penso che tutto ciò che possiamo ottenere facilmente da google e youtube. Pubblicherò alcuni link se troverò.

Ho studiato l'algebra vettoriale molto tempo fa nella mia università e quindi, guardando rapidamente attraverso di essa.

 
FxTrader562:

Mi sto avvicinando a capire cosa state cercando... fondamentalmente, le coordinate della dimensione superiore per il nostro vettore di input della nostra dimensione inferiore, giusto?

Guarderò presto l'algebra vettoriale. Penso che tutto ciò che possiamo ottenere facilmente da google e youtube. Pubblicherò alcuni link se troverò.

Ho studiato l'algebra vettoriale molto tempo fa nella mia università e quindi, guardando rapidamente attraverso di essa.

sì, abbiamo bisogno come in questo video


per esempio abbiamo uno spazio di caratteristiche 2-d e non possiamo separarlo linearmente, poi aggiungiamo caratteristiche 3-d e ora possiamo separarlo tramite iperpiano

ma il kernel ci permette di fare la proiezione dei punti senza aggiungere la caratteristica 3-d, quindi possiamo separarlo allo stesso modo se abbiamo 2 caratteristiche invece di 3

ma... come possiamo ottenere caratteristiche 2-d trasformate che sono linearmente separate in un'altra dimensione. Abbiamo bisogno di una proiezione 2-d di nuove dimensioni, cioè nuovi punti da un altro spazio vettoriale

Penso che sia una magia, ma comunque)

 
Maxim Dmitrievsky:

sì, abbiamo bisogno come in questo video


per esempio abbiamo uno spazio di caratteristiche 2-d e non possiamo separarlo linearmente, poi aggiungiamo caratteristiche 3-d e ora possiamo separarlo tramite iperpiano

ma il kernel ci permette di fare la proiezione dei punti senza aggiungere la caratteristica 3-d, quindi possiamo separarlo allo stesso modo se abbiamo 2 caratteristiche invece di 3

ma... come possiamo ottenere caratteristiche 2-d trasformate che sono linearmente separate in un'altra dimensione. Abbiamo bisogno di una proiezione 2-d di nuove dimensioni, cioè nuovi punti da un altro spazio vettoriale

Beh, come ho detto ho studiato l'algebra vettoriale molto tempo fa e quindi, ho già la comprensione di base. Ma in questo caso, lo trovo un po' difficile.

È tutta una questione di prodotto puntuale e prodotto incrociato.

Il prodotto di punti è la grandezza che è determinata da A.BCos (angolo tra A e B). Questo è chiamato prodotto interno

Un prodotto incrociato è il vettore dopo la moltiplicazione dei vettori A e B, e la loro grandezza è A.B.Sin (angolo tra A e B). Questo è chiamato prodotto esterno. Così ho capito questa linea di codice e penso che anche voi la capirete:

P = cvxopt.matrix(np.outer(y,y) * K)

Questo è solo un prodotto trasversale, credo.

Questo è un video correlato alla mappatura del kernel:

https://www.youtube.com/watch?v=7_T9AdeWY3k

 
FxTrader562:

Beh, come ho detto ho studiato l'algebra vettoriale molto tempo fa e quindi, ho già la comprensione di base. Ma in questo caso, lo trovo un po' difficile.

È tutta una questione di prodotto puntuale e prodotto incrociato.

Il prodotto di punti è la grandezza che è determinata da A.BCos (angolo tra A e B). Questo è chiamato prodotto interno

Un prodotto incrociato è il vettore dopo la moltiplicazione dei vettori A e B, e la loro grandezza è A.B.Sin (angolo tra A e B). Questo è chiamato prodotto esterno. Così ho capito questa linea di codice e penso che anche voi la capirete:

Questo è solo un prodotto trasversale, credo.

Questo è un video correlato alla mappatura del kernel:

https://www.youtube.com/watch?v=7_T9AdeWY3k

Sì, è da quihttp://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log

ma non riesco a separare kernel e SVM dal codice sorgente

 
Maxim Dmitrievsky:

Sì, è da quihttp://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log

ma non riesco a separare kernel e SVM dal codice sorgente

Per quanto posso capire, la coordinata nello spazio dimensionale superiore deve essere il valore della funzione kernel insieme al vettore di 2 input. Significa che abbiamo 2 vettori di ingresso e abbiamo bisogno del 3° vettore che viene aggiunto alla 3° coordinata.

Per esempio, se si alimentano 2 vettori x e y e li si mappa nello spazio 3 d si ottiene il valore del kernel K(x,y),

Allora, la coordinata del vettore finale nello spazio 3 D deve essere (x,y,k(x,y))

Poi, se lo si mappa nello spazio 4D e si ottiene il valore del kernel k1(x,y,k(x,y)),

Allora, la coordinata nello spazio 4D dovrebbe essere (x,y,k(x,y),k1(x,y,k(x,y))) e così via....

Ha senso o crea qualche legame con il vostro codice sorgente esistente?

O un altro modo è quello di ottenere l'angolo del tensore con riferimento alla coordinata di mappatura, poi prendere il coseno di questo angolo e moltiplicarlo per la grandezza del tensore.
 

Ecco, ho trovato la persona giusta, me lo spiega bene, me lo ricordo tutto in una volta.