Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 910

 
Aleksey Vyazmikin:

¿Dónde obtener la documentación?

Instala RStudio y serás feliz: paquetes, documentación, ejemplos, teoría y publicaciones

 
Vladimir Perervenko:

Esto no puede ser así por definición. Cada ejecución de la red neuronal ELM genera una red con pesos iniciados aleatoriamente y no utiliza backprop. Lea la descripción de este modelo específico de red neuronal.

¿Y qué NS en R son entrenables? ¿Y en cuáles se pueden cambiar los parámetros de entrenamiento en el transcurso de la obra, por ejemplo para el recocido manual?

 
SanSan Fomenko:

Instale RStudio y será feliz con los paquetes, la documentación, los ejemplos, la teoría y las publicaciones.

Gracias. Ahora lo pondré y veré, que me hará feliz :)

 

Y si buscas buenos predictores en un conjunto de esta manera:

1. Reducir el número de predictores hasta que sea imposible entrenar el modelo (3-5), obtenemos un conjunto limitado de

2. Probar cada predictor con un conjunto inicial limitado, y fijar el resultado

Decidir qué modelos con predictor añadido dan el mejor resultado como bueno/útil.

¿Funcionará este método?

 
Vizard_:
Barabashkin, ¿has borrado tu post? Admítelo))))

Comuníquese culturalmente y se evitarán las sanciones :)

 
Vizard_:

Che Maestro, se obtienen cuatro modelos, por ejemplo con probabilidades 0,51, 0,55, 0,52, 0,59.
Los pasas por el umbral de 0,5 o algo similar y obtienes señales de 0 a 1 y te preguntas si todo es igual).
No estés triste Sensei, todo saldrá bien, pero no es exactamente)))))) hilarante...

Bueno, en realidad tengo modelos con R-score de al menos 0,71, eso en primer lugar, y en segundo lugar tomo la media de dos polinomios de la comisión. Y sí, al final las señales son todas iguales. Las señales cambian si cambio el intervalo de entrenamiento...

 
Yuriy Asaulenko:

¿Qué NS en R son enseñables? ¿Y en cuáles se pueden cambiar los parámetros de aprendizaje en el transcurso de la obra, por ejemplo para el recocido manual?

1. En el paquete darch(v0.12.0) el ajuste fino puede hacerse repetidamente en un nuevo lote de datos. No se ha probado cuánto tiempo funcionará.

En keras/tensorflow todos los modelos son entrenables desde cualquier etapa de entrenamiento previo. Por supuesto, hay que guardar los resultados intermedios de la formación.

2. ¿Qué tipo de juego quiere cambiar los parámetros de entrenamiento y cuáles? ¿Qué es el recocido manual?

Buena suerte

 
Mihail Marchukajtes:

Bueno, en realidad tengo modelos con R-score de al menos 0,71, eso en primer lugar, y en segundo lugar tomo la media de dos polinomios de la comisión. Y sí, al final las señales son todas iguales. Las señales cambian si cambio el intervalo de entrenamiento...

¿Puede comprobar la significación de mi conjunto de predictores en sus combinaciones en su script?

 
Vladimir Perervenko:

En keras, todos los modelos son entrenables, y desde cualquier etapa de entrenamiento previo. Por supuesto, es necesario guardar los resultados intermedios del aprendizaje.

¿Dónde puedo leer sobre el reentrenamiento en el interior? Pensaba que sólo los bayesianos eran reentrenables

 
Aleksey Vyazmikin:

¿Puede comprobar la significación de mi conjunto de predictores en sus combinaciones en su script?

No hay problema. Adelante. Sólo hay que advertir que el objetivo debe ser equilibrado...