Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 608

 
Dr. Trader:

suena igual que el conjunto de NS

si no me equivoco

 
Dr. Trader:

Luego elegimos los parámetros del modelo (función de activación, número de capas y sus tamaños, etc.), cada vez hacemos todos estos pasos (entrenar 5 modelos, predecir 5 trozos únicos para cada modelo, combinarlos, R2), logrando una estimación cada vez mejor.

Son cientos de redes que hay que construir y formar. Pero hasta ahora no veo ninguna otra opción(

 
Ahoratengo que ir a dormir:

Creo que si le escribes y le ofreces mil libras por hora, puedes recibir clases individuales de Perchik, Perepelkin te costará un poco más, pero vale la pena


Hombre, ¿hablas en serio de Perchik? Es duro).

Pagar mil dólares a un conductor contratado.

No sé nada del otro... y no quiero saberlo).

en fin, todo es interesante, pero me voy a acostar a terminar mis libros esta semana.

 
Maxim Dmitrievsky:

suena como un conjunto de NS

si no me equivoco.

Al final obtendrás un conjunto normal, sí. Pero el resultado será mucho mejor que "entrenar 5 neuronas en toda la hoja de cálculo".


Vizard_:

Pues sí, opción estándar, aunque yo lo prefiero sin qv, ya he escrito antes...
Doc, intenta fijar la inclinación con diferentes parámetros y prueba.

Yo tengo LibreOffice, que las neuronas no funcionaban en él.


elibrarius:

Son cientos de redes que hay que construir y formar. Pero hasta ahora no hay otra opción a la vista(

Por eso me gusta el paquete gbm en R, por ejemplo, su velocidad de aprendizaje es órdenes de magnitud más rápida. No es una neurona, es un andamiaje y una potenciación.

También es interesante que la validación cruzada k-fold me funcionó bien incluso con un pequeño número de épocas de entrenamiento de la red neuronal. El número de épocas fue uno de los parámetros de entrenamiento que seleccioné. Un pequeño número de épocas = aprendizaje rápido, eso es una ventaja. Pero la posible precisión del modelo es menor, eso es un punto negativo.

 
Dr. Trader:

Te sugiero que aprendas a hacer k-fold crossvalidation. He visto algunas formas diferentes, esta funciona bien -

...


También existe el matiz de que los pesos iniciales de la neuronaka se fijan de forma aleatoria, y el resultado final del entrenamiento puede depender mucho de ello, incluso para los modelos de bosque y otros.
Cada vez, antes de entrenar el modelo, pongo el valor del generador de números aleatorios en el mismo estado:

set.seed(12345)

De este modo, obtengo resultados reproducibles y estabilidad. También se puede recoger el valor del grano gpsch en lugar de 12345, que aunque suene bastante gracioso, a veces es necesario.

 
Dr. Trader:

Otro matiz es que los pesos iniciales de la neuronaka se establecen de forma aleatoria, y puede depender mucho del resultado final del entrenamiento, incluso para los modelos de bosque y otros.
Cada vez, antes de entrenar un modelo, pongo el valor del generador de números aleatorios en el mismo estado:

De este modo, consigo repetibilidad y estabilidad. También puede ajustar el valor del grano gpsh en lugar de 12345, que suena bastante gracioso, pero a veces es necesario.



Una red normal funciona y aprende con cualquier valor inicial, incluso con valores cero.


 
Sergey Chalyshev:

Si le das a esa neurona un montón de neuronas y capas e infinitas épocas de entrenamiento, no tiene ningún problema para entrenar hasta la precisión deseada con cualquier grano inicial.

Yo, por ejemplo, estoy aprendiendo a predecir el aumento del precio por barra. El problema es que hay mucho ruido en los precios (precio real +- algunos desplazamientos aleatorios), y es imposible predecir el ruido. Pero podemos utilizar la validación cruzada para elegir parámetros en los que el modelo no recuerde aún el ruido, sino que de alguna manera recopile esos datos y haga predicciones correctas al menos en un pequeño porcentaje de casos. Y con algunos valores iniciales de pesos el modelo inmediatamente comienza a recordar el ruido en lugar de tratar de generalizar estos datos, es malo, entonces usted debe buscar otro grano inicial para la inicialización de los pesos.

 
Sergey Chalyshev:


Tira tu red a la basura si reacciona tanto a los valores de gpsh. Una red normal funciona y aprende a cualquier valor inicial, incluso a cero.



Es una explicación más de que no se pueden utilizar métodos estáticos en sistemas dinámicos.

Esto es sólo otra explicación del hecho de que no deberías usar métodos estáticos para sistemas dinámicos.

 

Bueno, ahora veamos la arquitectura para el aprendizaje en las líneas de tiempo en lugar de las fotos de los SEAL, la primera opción:

 

Opción 2:

Es decir, combinar NS y autómatas parece una buena solución, con circuitos positivos y negativos, pero quién y cómo lo implementará es otra cuestión. Para mí, personalmente, este enfoque es el más obvio