Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1923

 
mytarmailS:


¿Soy yo o estás reduciendo la dimensión sin maestro? Me refiero a "uwot" (umap).

 
Vladimir Perervenko:

¿Soy yo o te estás reduciendo dimensionalmente sin un maestro? Me refiero a "uwot" (umap).

Sí, sólo que yo uso el paquete "umap".

 
mytarmailS:

Sí, sólo que estoy usando el paquete "umap".

Eso no tiene sentido. El objetivo de la conversión es reducir la dimensionalidad a un espacio que coincida con el espacio objetivo. Además, estos son los dos únicos paquetes que proporcionan la capacidad de manejar nuevos datos (válidos/prueba) y no sólo entrenar como tSNE.

Después de la transformación, cluster con dbscan. Los conglomerados obtenidos son como un predictor adicional para las variables a introducir. Puede haber algunas variaciones.

Buena suerte

 
mytarmailS:

Sí, sólo que uso el paquete "umap"

¿Cómo se llama el método en sí? ¿Qué es? Me gustaría verlo en python.

algún tipo de ameba y vida celular en las fotos.

El mago mostró transformaciones similares, por cierto. Tenía puntos que se estiraban y encogían en elipses, recuerdo algo así.

 
Maxim Dmitrievsky:

¿Cuál es el nombre del método en sí? ¿Qué es? En Python me gustaría ver

algo de la vida de las amebas y las células en imágenes

En Python el paquete umap tiene el mismo nombre.

 
Vladimir Perervenko:

En Python el paquete umap del mismo nombre.

Gracias, voy a echar un vistazo

 
Vladimir Perervenko:

Reduzca la dimensionalidad a un espacio que coincida con su objetivo: ese es el propósito de la transformación.

Bueno, ¿cómo lo haces, de dónde sacas esa coincidencia de objetivos y qué quieres decir con eso?

Vladimir Perervenko:

Además, son los dos únicos paquetes que ofrecen la posibilidad de procesar nuevos datos (válidos/prueba) y no sólo entrenar como tSNE.

Lo sé, por eso los elegí.

Vladimir Perervenko:

Después de la transformación de la agrupación con dbscan. Clusters obtenidos como predictor adicional a las variables a introducir. Aquí hay variantes posibles.

Lo sé)) Escribí sobre dbscan en la página anterior )

Pero con él, también, será una molestia, en primer lugar, con los grupos de todos la misma necesidad de jugar y en segundo lugar, es demasiado lento para reconocer nuevos datos.

He leído en alguna parte - si el paquete está previsto o en p-studio truco debe aparecer - que el grupo será seleccionable manualmente, directamente con el ratón, no se enteró?

 
Maxim Dmitrievsky:

Gracias, voy a echar un vistazo.

Sólo lo estoy utilizando, o más bien su envoltorio en R

 
mytarmailS:

Entonces, ¿cómo lo haces, de dónde sacas esa coincidencia de objetivos y qué quieres decir con eso?

Lo sé, por eso elegí este paquete.

Lo sé)) escribió en la página anterior sobre dbscan )

Pero con él, también, sería un engorro, primero, con los clusters todo igual, hay que jugar y segundo, es demasiado lento para reconocer los datos nuevos.

He leído en alguna parte - o el paquete está previsto hacer o en p-studio chip tuvo que aparecer - que el grupo será seleccionable manualmente directamente con el ratón, no se enteró de ello?

En orden:

Se fijan las constantes:

#---const-------------------------------
 evalq({
  n_n <- 15 L
  min_d <- 0.1
  n_c <- 3 L
  metr <- "euclidean" #"euclidean" (the default) "cosine" "manhattan"
  lr <- 0.75
  scale <- "none" 
  #               "none"
  #               "scale" or TRUE ,
  #               "maxabs" Center each column to mean 0, then divide each element by the maximum 
  #                         absolute value over the entire matrix.
  #               "range"
  init <- "spectral" # "spectral" # "normlaplacian". # "random".
  # "lvrandom". # "laplacian".  # "pca". # "spca".
}, env)

Para enseñar con un profesor sólo tenemos que añadir el objetivo y a la fórmula y especificar que necesitamos devolver un modelo (ret_model = TRUE).

#-----superveised------------------
 evalq({
  y <- factor(denoiseX1pretrain$origin$y)
  origin.sumap <- umap(X = x, y = y, approx_pow = TRUE, n_neighbors = n_n, 
                       learning_rate = lr, min_dist = min_d, n_components = n_c, ret_model = TRUE,
                       metric = metr, init = init, n_threads = 4 L, scale = scale)
}, env)

Con el modelo en su lugar, podemos convertir el resto de los subconjuntos tren/prueba/prueba1 del grupo de datos de origen en tridimensionales también. A continuación se muestra el código

#---train--------------------------------
evalq({
  set.seed(1337)
  umap_transform(X = X1$train$x, model = origin.sumap, n_threads = 4 L, 
                 verbose = TRUE) -> train.sumap
}, env)
#---test--------------------------------
evalq({
  set.seed(1337)
  umap_transform(X = X1$test$x, model = origin.sumap, n_threads = 4 L, 
                 verbose = TRUE) -> test.sumap
}, env)
#---test1-------------------------------
evalq({
  set.seed(1337)
  umap_transform(X = X1$test1$x, model = origin.sumap, n_threads = 4 L, 
                 verbose = TRUE) -> test1.sumap
}, env)

Sustituya su x/y y obtendrá datos tridimensionales divididos en dos grupos. Extraído de un artículo inacabado. Tengo algunas fotos en alguna parte pero no las encuentro ahora. Si los necesito, los buscaré mañana. Pero creo que puedes conseguir el tuyo.

Buena suerte

 

Encontrado

resdimX1_origen