Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3310
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
¿a ojo o mediante algún tipo de automatización?
A ojo. Si no, es p-hacking.
Sólo a ojo. De lo contrario es p-hacking.
potente ))))
Comenzó a rechazar tal cosa - completamente OOS (2023). En la segunda mitad, el carácter de la curva cambia.
¿Por qué? ¿Poco beneficio por operación?
El carácter ha cambiado. A grandes rasgos, es un orden jerárquico.
Algunos alfa están empezando a convertirse en beta.
Comenzó a rechazar tal cosa - completamente OOS (2023). El carácter de la curva cambia en la segunda mitad.
.
No he entendido todo. No lo hagamos en el foro.
¿Quién ha probado a utilizar el método"Perfil de compacidad"?
El propósito del método es excluir ejemplos inconsistentes de la muestra, lo que debería mejorar el aprendizaje y reducir el tamaño del modelo si se utilizan métodos de aprendizaje del tipo K vecinos más cercanos.
No he podido encontrar una implementación en python.....
¿Quién ha probado el método"Perfil de compacidad"?
El objetivo del método es eliminar los ejemplos incoherentes de la muestra, lo que debería mejorar el aprendizaje y reducir el tamaño del modelo si se utilizan métodos de aprendizaje de K vecinos más cercanos.
No he podido encontrar una implementación en python.....
¿Quién ha probado el método"Perfil de compacidad"?
El objetivo del método es eliminar los ejemplos incoherentes de la muestra, lo que debería mejorar el aprendizaje y reducir el tamaño del modelo si se utilizan métodos de aprendizaje de K vecinos más cercanos.
No he podido encontrar una implementación en python.....
El trabajo es experimental. He aquí una cita de http://www.ccas.ru/frc/papers/students/VoronKoloskov05mmro.pdf
El trabajo se realizó en el marco de los proyectos RFBR 05-01-00877, 05-07-90410 y el programa OMN RAS
Es poco probable que cada experimento se creó un paquete.
Sí y el experimento es artificial. Se añadió ruido al conjunto de datos claramente separados por clases. Y la separación clara es sólo por 1 característica - el eje Y. Si eliminamos el ruido (todos los datos de 0,2 a 0,8), resulta que dejamos ejemplos sólo con la distancia a otra clase no inferior a 0,6. Estoy hablando de la 3ª opción más difícil de la imagen:
Ir a la vida real y añadir tus 5000 predictores que serán ruido a esta única ficha de trabajo. En clustering calculas la distancia total entre puntos en este espacio de 5001 dimensiones. 0.6 trabajando nunca se encontrara en este caos.
creo que cualquier clasificador lo hara mejor, el mismo arbol encontrara esta unica caracteristica y dividira por ella, primero por 0.5 y luego llegara a divisiones de 0.2 y 0.8 seguidas por hojas con 100% de pureza.