Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 595

 
SanSanych Fomenko:

Cuando entras en un edificio llamado "Estadística", encima de la entrada pone"Basura que entra, basura que sale".




Cualquier indicador está en función del precio. Las redes neuronales no son indulgentes. Es capaz de derivar cualquier fórmula indicadora por sí misma si la red es lo suficientemente profunda. Si la red no puede aprender con los datos de los precios, no es por las entradas, sino por la imposibilidad de recibir datos de salida sobre los precios.

 
Grigoriy Chaunin:

Cualquier indicador está en función del precio. Las redes neuronales no tienen clemencia. Es capaz de derivar cualquier fórmula indicadora por sí misma si la red es lo suficientemente profunda. Si la red no puede aprender de los datos de los precios, entonces no se trata de los insumos, sino del hecho de que, en principio, no se pueden obtener datos de salida a partir de los precios.

Tanto tú como SanSanych tenéis razón.

Por un lado, la NS construirá automáticamente el indicador necesario y su totalidad. Por otro lado, si los datos no están limpios y hay demasiado ruido en ellos, ninguna SN podrá aprender nada. Así que también se trata de las entradas.

 

¿Qué importancia tiene mezclar la muestra cuando se entrena el NS? ¿Cuáles son las justificaciones matemáticas para ello?

¿La mezcla es relevante para todos los modelos de MOE o sólo para algunos específicos?

 
Maxim Dmitrievsky:

¿Qué importancia tiene mezclar la muestra cuando se entrena el NS? ¿Cuáles son las justificaciones matemáticas para ello?

¿La mezcla es relevante para todos los modelos de MdD o sólo para algunos específicos?

La mezcla es necesaria para evitar que el algoritmo de aprendizaje siga el mismo camino en cada bucle. Podemos llegar hasta allí y no salir del extremo local. Pero la mezcla tampoco es una panacea.
 
Yuriy Asaulenko:
Es necesario mezclar y combinar para que el algoritmo de aprendizaje no siga el mismo camino en cada ciclo. Podemos golpear y no salir del extremo local.

es decir, ¿hay que mezclar y entrenar unas cuantas veces y ver cómo se correlacionan los resultados?

 
Maxim Dmitrievsky:

Es decir, ¿barajar unas cuantas veces, entrenar unas cuantas veces y ver cómo se correlacionan los resultados?

Revuelve después de cada época de entrenamiento. Desgraciadamente, muchos algoritmos de aprendizaje no permiten pausas (véase Python - algunos paquetes (módulos)) y empiezan desde cero cada vez.

La agitación también es buena para combinarla con el recocido. Pero, de nuevo, es difícil hacerlo en la máquina. Siempre hay que fijarse en los resultados intermedios y luego planificar los pasos siguientes.

 
Yuriy Asaulenko:

Es necesario barajar cada vez que se aprende. Desgraciadamente, muchos algoritmos de aprendizaje no permiten pausas (véase Python - algunos paquetes (módulos)) y empiezan desde cero cada vez.

La agitación también es buena para combinarla con el recocido. Pero, de nuevo, es difícil hacerlo en la máquina. Siempre hay que observar los resultados intermedios y luego planificar los siguientes pasos.


wow... eso es... es decir, mezclarlo antes de entrenar no tiene sentido

 
Alexander_K2:Conozco gente que sacó el grial de NS, pero esos tipos son tan cerrados a la comunicación e incluso a las pistas sobre lo que hacen, que no tengo ninguna posibilidad como principiante. Sólo sé que todo es complicado, no es Vels, no es Metatrader e incluso no es S#, sino C++ y MatLab con unos chips que decodifican e interpretan los datos procedentes de los caliders, resulta que es una misma metodología, me enteré y me asusté, están trabajando con el tío que molía terabytes al día en el CERN, buscando nuevas partículas en el caos cuántico.

Y ya lo tienes) Rattlesnake es CatBoost.
---------
Si alguna vez te apetece coger un bosón...
https://www.kaggle.com/c/higgs-boson

Higgs Boson Machine Learning Challenge
Higgs Boson Machine Learning Challenge
  • www.kaggle.com
Use the ATLAS experiment to identify the Higgs boson
 

Darch se encarga por defecto de mezclar antes de cada época. Intenté apagarlo - no aprendió nada en absoluto.

Así que me preguntaba, si todo se baraja, ¿cómo puedo hacer que los datos frescos tengan un mayor efecto en el aprendizaje?

 
elibrarius:

Darch se encarga por defecto de mezclar antes de cada época. Intenté apagarlo - no aprendió nada en absoluto.

Así que me preguntaba, si todo se baraja, ¿cómo puedo hacer que los datos frescos tengan un mayor efecto en el aprendizaje?

Pruebe la validación cruzada (K-fold).