Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 595
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Cuando entras en un edificio llamado "Estadística", encima de la entrada pone"Basura que entra, basura que sale".
Cualquier indicador está en función del precio. Las redes neuronales no son indulgentes. Es capaz de derivar cualquier fórmula indicadora por sí misma si la red es lo suficientemente profunda. Si la red no puede aprender con los datos de los precios, no es por las entradas, sino por la imposibilidad de recibir datos de salida sobre los precios.
Cualquier indicador está en función del precio. Las redes neuronales no tienen clemencia. Es capaz de derivar cualquier fórmula indicadora por sí misma si la red es lo suficientemente profunda. Si la red no puede aprender de los datos de los precios, entonces no se trata de los insumos, sino del hecho de que, en principio, no se pueden obtener datos de salida a partir de los precios.
Tanto tú como SanSanych tenéis razón.
Por un lado, la NS construirá automáticamente el indicador necesario y su totalidad. Por otro lado, si los datos no están limpios y hay demasiado ruido en ellos, ninguna SN podrá aprender nada. Así que también se trata de las entradas.
¿Qué importancia tiene mezclar la muestra cuando se entrena el NS? ¿Cuáles son las justificaciones matemáticas para ello?
¿La mezcla es relevante para todos los modelos de MOE o sólo para algunos específicos?
¿Qué importancia tiene mezclar la muestra cuando se entrena el NS? ¿Cuáles son las justificaciones matemáticas para ello?
¿La mezcla es relevante para todos los modelos de MdD o sólo para algunos específicos?
Es necesario mezclar y combinar para que el algoritmo de aprendizaje no siga el mismo camino en cada ciclo. Podemos golpear y no salir del extremo local.
es decir, ¿hay que mezclar y entrenar unas cuantas veces y ver cómo se correlacionan los resultados?
Es decir, ¿barajar unas cuantas veces, entrenar unas cuantas veces y ver cómo se correlacionan los resultados?
Revuelve después de cada época de entrenamiento. Desgraciadamente, muchos algoritmos de aprendizaje no permiten pausas (véase Python - algunos paquetes (módulos)) y empiezan desde cero cada vez.
La agitación también es buena para combinarla con el recocido. Pero, de nuevo, es difícil hacerlo en la máquina. Siempre hay que fijarse en los resultados intermedios y luego planificar los pasos siguientes.
Es necesario barajar cada vez que se aprende. Desgraciadamente, muchos algoritmos de aprendizaje no permiten pausas (véase Python - algunos paquetes (módulos)) y empiezan desde cero cada vez.
La agitación también es buena para combinarla con el recocido. Pero, de nuevo, es difícil hacerlo en la máquina. Siempre hay que observar los resultados intermedios y luego planificar los siguientes pasos.
wow... eso es... es decir, mezclarlo antes de entrenar no tiene sentido
Y ya lo tienes) Rattlesnake es CatBoost.
---------
Si alguna vez te apetece coger un bosón...
https://www.kaggle.com/c/higgs-boson
Darch se encarga por defecto de mezclar antes de cada época. Intenté apagarlo - no aprendió nada en absoluto.
Así que me preguntaba, si todo se baraja, ¿cómo puedo hacer que los datos frescos tengan un mayor efecto en el aprendizaje?
Darch se encarga por defecto de mezclar antes de cada época. Intenté apagarlo - no aprendió nada en absoluto.
Así que me preguntaba, si todo se baraja, ¿cómo puedo hacer que los datos frescos tengan un mayor efecto en el aprendizaje?