Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 850

 
Ilnur Khasanov:
¿Cuántos hay? Hay formas de hacerlo más rápido... La genética... También para llevarlos a la ns...

búsqueda heurística

 
Alexander_K2:

¿Cuál necesita? De todos modos, lo proceso con un exponente con p=0,5 para obtener el flujo más simple.

Si identificamos el flujo de la garrapata tenemos, por ejemplo, el k=4 de Erlang, pues bien, si descartamos a Cauchy, ¿por qué tenemos que repasarlo con el exponente? ¿Cuándo podemos pasar directamente a Erlang k=5 y así sucesivamente? Alinear más entre ticks en lugar de confundir y alinear primero?

 
elibrarius:

Probablemente, la forma más fiable sea recorrer las combinaciones de predictores. Pero es muy largo(

No a nuestra manera. Se puede hacer infinitamente. Hasta que sea completamente abrumador.
 
¡¡¡¡Mira quién habla!!!! Valió la pena recoger el hilo ..... Ya me he decidido. No es tan suave como me gustaría que fuera. Bueno, así es el mercado ahora..... Excesiva incertidumbre debido a los acontecimientos mundiales.... No hay estabilidad, por lo que tengo que rehacer las cosas casi cada dos días, por lo que espero a que la situación se estabilice en modo ocupado y sigo trabajando....
 
Yury Reshetov:

Al aumentar la complejidad de los modelos en jPrediction nos referimos a incrementar gradualmente el número de predictores. Porque en jPrediction el número de neuronas en la capa oculta es 2^(2*n+1), donde n es el número de predictores. En consecuencia, a medida que aumenta el número de predictores, aumenta la complejidad del modelo (el número de neuronas en la capa oculta). Por lo tanto, al aumentar gradualmente la complejidad del modelo, jPrediction alcanzará tarde o temprano el valor M, tras lo cual un mayor aumento de la complejidad del modelo conducirá a una mayor disminución de la generalizabilidad (aumento de los errores de generalización).

Me encontré con el post de Reshetov sobre el número de neuronas.
Si tengo 10 predictores obtengo 2^21 = 2097152 neuronas.
¿No es demasiado?
Incluso para 3 predictores hay 128 neuronas...

 
elibrarius:

Me encontré con el post de Reshetov sobre el número de neuronas.
Si hay 10 predictores, son 2^21 = 2097152 neuronas.
¿No es mucho?
Incluso para 3 predictores serían 128 neuronas...

Eres divertidísimo))
 
Vizard_:

N = 2^i - 1

1023 neuronas para 10 entradas es mejor.
Pero a juzgar por los artículos, en la práctica se utiliza mucho menos, por ejemplo n=sqrt(#inputs * #outputs)
Aparentemente N = 2^i - 1 - para la memorización exacta, y fórmulas con menos número - para la generalización.

 
SanSanych Fomenko:

La selección de predictores más elegante en caret: gafs - selección genética de predictores; rfe - selección inversa de predictores (más rápida); safs - estabilidad simulada de la selección de predictores (annealing) - más eficiente.

Probé rfe en una matriz de 12*6400 - unas 10 horas de lectura con la configuración por defecto (tamaños = 2^(2:4)), no esperé y lo apagué. Pensó en un fallo, reinició de nuevo con tamaños = ncol(x) - ya cuenta una hora.
Si rfe es el más rápido, ¿cuánto tiempo esperan los demás?
Los paquetes anteriores que probé no tardaron más de 5 minutos para los mismos datos.
¿Tanto tiempo te llevó?

Actualización: la segunda ejecución con tamaños = ncol(x) terminó el cálculo en 2,5 - 3 horas, los resultados se acercan a los paquetes que tardan 3-5 minutos en procesar los mismos datos.
Ajuste , rfeControl = rfeControl(número = 1,repeticiones = 1) - redujo el tiempo a 10-15 minutos, cambios - 2 pares de predictores intercambiados, pero en general similares.
 
elibrarius:

Probé rfe en una matriz de 12*6400, estuvo unas 10 horas con la configuración por defecto (tamaños = 2^(2:4)), no esperé y lo apagué. Pensó en un fallo, reinició de nuevo con tamaños = ncol(x) - ya cuenta una hora.
Si rfe es el más rápido, ¿cuánto tiempo esperan los demás?
Los paquetes anteriores que probé no tardaron más de 5 minutos para los mismos datos.
¿Te ha llevado tanto tiempo?

Actualización: la segunda ejecución con tamaños = ncol(x) terminó el cálculo en 2,5 - 3 horas, los resultados se acercan a los paquetes que tardan 3-5 minutos en procesar los mismos datos.

No lo recuerdo exactamente, fue hace mucho tiempo, pero pasiones como la suya no se me quedan grabadas en la memoria

La matriz es común para mí.

PERO

  • Objetivo: ¿cuántas clases? Siempre tengo dos clases.
  • Siempre cargo todos los núcleos de mi XEON 1620, y funciona un 20% más rápido que su homólogo de frecuencia.
  • ¿Cuál es la estimación?
En general, hay que tener mucho cuidado, es muy fácil cargar un ordenador hasta un día. Hay que entender lo que hace el algoritmo.
 
SanSanych Fomenko:

No lo recuerdo exactamente, fue hace mucho tiempo, pero pasiones como la suya no se me quedan grabadas en la memoria

La matriz es común para mí.

PERO

  • Objetivo: ¿cuántas clases? Siempre tengo dos clases.
  • Siempre cargo todos los núcleos de mi XEON 1620, y funciona un 20% más rápido que su homólogo de frecuencia.
  • ¿Cuál es la estimación?
En general, hay que tener mucho cuidado, es muy fácil cargar un ordenador hasta un día. Debes entender lo que hace el algoritmo.

2 clases
Cargado 1 núcleo

Configurando , rfeControl = rfeControl(número = 1,repeticiones = 1) - redujo el tiempo a 10-15 minutos. Cambios en los resultados - 2 pares de predictores intercambiados, pero en general similares a los predeterminados.