L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1737

 
Maxim Dmitrievsky:

k-means, il più semplice

Beh, è la stessa cosa.

Prova dbscan, penso che sia meglio.

Vedi, posso anche vedere cosa stai raggruppando)) Sono pazzo di me stesso).

 
Alexander_K2:

Ho mostrato da qualche parte (non ricordo dove, perché non faccio trading da più di un mese) che la distribuzione di probabilità degli incrementi di mercato è il prodotto delle distribuzioni CB Gaussiana ed esponenziale (o in generale - Erlangiana).

La distribuzione Erlang è responsabile degli intervalli di tempo tra le quotazioni dei tick e il generatore di tali numeri si presenta così


Qui Lambda è l'intensità del flusso di eventi (citazioni).

Se Lambda=const, il processo è stazionario, ma l'intensità del flusso di mercato è diversa in diversi punti del tempo, cioè Lambda=f(t) che determina il processo non stazionario in generale.

Quindi, per distinguere un processo stazionario, è necessario considerare sezioni separate di BP con la stessa densità di flusso come un tutto.

Quindi, i tentativi di dividere BP in ore all'interno di un giorno, e poi "incollare" queste ore insieme - chiaramente hanno diritto alla vita.

P.S.

Secondo i miei calcoli, la stessa densità di flusso è osservata nelle ore successive in un giorno:

0

1, 23

2, 5, 22

3, 4, 8, 21

6, 7

9, 12, 19

10, 11, 15, 18

13, 14

16

17

20

Beh, questo è solo per informazione...

 
mytarmailS:

beh, è la stessa cosa

Prova dbscan, penso che sia meglio.

Vedi, posso anche vedere cosa stai raggruppando).

Perché ti stai agitando? L'ho scritto all'inizio

 
Maxim Dmitrievsky:

Perché ti agiti? L'ho scritto all'inizio.

Dove? Non l'ho visto.

 
mytarmailS:

Dove? Non l'ho visto.

è possibile estrarre le matrici con i centroidi per usarle separatamente in un altro programma con nuovi dati?

Forse R ha questa funzione, controlla.

 
Maxim Dmitrievsky:

è possibile estrarre le matrici con i centroidi per usarle separatamente in un altro programma con nuovi dati?

Forse R ha questa funzione, controlla.

se ho capito bene, sì, posso

 
mytarmailS:

Se ho capito bene, sì, posso.

insegnare a

 
Maxim Dmitrievsky:

insegnare a

scrivere di nuovo specificamente ciò che si vuole fare senza codificare inutilmente


fake.dt <- matrix(rnorm(100),ncol = 5)
kn <- kmeans(fake.dt,centers = 3)
kn$centers
 kn$centers
       [,1]        [,2]        [,3]        [,4]       [,5]
1 0.1491919 -0.82943057  1.00194753 -0.78824900  0.7330618
2 0.4543194 -0.01318233 -2.36800973  0.05477085  0.2706286
3 0.1478300  0.34991845 -0.04671528  0.33735489 -0.6789331
tre centriidi da tre cluster
 
mytarmailS:

scrivi di nuovo esattamente quello che vuoi fare in modo da non codificare inutilmente

dopo il modello fit dovrebbe esserci una matrice o qualcosa del genere, a seconda dell'algoritmo

che può essere usato per calcolare le previsioni sui nuovi dati... e sui vecchi dati...

per trasferirlo nel metaque e leggerlo nel tester

 
Allora, cosa ci faccio? Non sono ancora molto bravo a fare i cluster.