Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3310

 
Andrey Dik #:
¿a ojo o mediante algún tipo de automatización?

A ojo. Si no, es p-hacking.

 
fxsaber #:

Sólo a ojo. De lo contrario es p-hacking.

potente ))))

 
fxsaber #:

Comenzó a rechazar tal cosa - completamente OOS (2023). En la segunda mitad, el carácter de la curva cambia.

¿Por qué? ¿Pequeño beneficio por 1 operación?
 
Forester #:
¿Por qué? ¿Poco beneficio por operación?

El carácter ha cambiado. A grandes rasgos, es un orden jerárquico.

Algunos alfa están empezando a convertirse en beta.

 
fxsaber #:

Comenzó a rechazar tal cosa - completamente OOS (2023). El carácter de la curva cambia en la segunda mitad.

Su propagación está infravalorado, de ahí el borde.
 
2saber: si las marcapas están okolule, puedo soltar un grial en las pruebas. Puedo entrenar en tu historia, 5 minutos. Te daré el modelo con las fuentes, puedes ajustar lo que necesites, por el bien de la ciencia. Dirigirse a las señales del modelo es simple, usted puede utilizar su propia lógica de órdenes.
A continuación, puede organizar un fondo de cobertura con un saldo negativo.
Usted puede darme cotizaciones a través de la exportación de la terminal estándar.
 
Maxim Dmitrievsky grial en las pruebas. Puedo entrenar en tu historia, 5 minutos. Te daré el modelo con las fuentes, puedes ajustar lo que necesites, por el bien de la ciencia. Dirigirse a las señales del modelo es simple, usted puede hacer su propia lógica de las órdenes.
.
A continuación, puede organizar un fondo de cobertura con un saldo negativo.
Usted me puede dar cotizaciones a través de la exportación de terminales estándar.

No he entendido todo. No lo hagamos en el foro.

 

¿Quién ha probado a utilizar el método"Perfil de compacidad"?

El propósito del método es excluir ejemplos inconsistentes de la muestra, lo que debería mejorar el aprendizaje y reducir el tamaño del modelo si se utilizan métodos de aprendizaje del tipo K vecinos más cercanos.

No he podido encontrar una implementación en python.....

 
Aleksey Vyazmikin #:

¿Quién ha probado el método"Perfil de compacidad"?

El objetivo del método es eliminar los ejemplos incoherentes de la muestra, lo que debería mejorar el aprendizaje y reducir el tamaño del modelo si se utilizan métodos de aprendizaje de K vecinos más cercanos.

No he podido encontrar una implementación en python.....

Tu mismo enlace habla de vincular el "perfil" a la validación cruzada, para lo que podría ser más fácil encontrar paquetes.
 
Aleksey Vyazmikin #:

¿Quién ha probado el método"Perfil de compacidad"?

El objetivo del método es eliminar los ejemplos incoherentes de la muestra, lo que debería mejorar el aprendizaje y reducir el tamaño del modelo si se utilizan métodos de aprendizaje de K vecinos más cercanos.

No he podido encontrar una implementación en python.....

El trabajo es experimental. He aquí una cita de http://www.ccas.ru/frc/papers/students/VoronKoloskov05mmro.pdf

El trabajo se realizó en el marco de los proyectos RFBR 05-01-00877, 05-07-90410 y el programa OMN RAS

Es poco probable que cada experimento se creó un paquete.

Sí y el experimento es artificial. Se añadió ruido al conjunto de datos claramente separados por clases. Y la separación clara es sólo por 1 característica - el eje Y. Si eliminamos el ruido (todos los datos de 0,2 a 0,8), resulta que dejamos ejemplos sólo con la distancia a otra clase no inferior a 0,6. Estoy hablando de la 3ª opción más difícil de la imagen:


Ir a la vida real y añadir tus 5000 predictores que serán ruido a esta única ficha de trabajo. En clustering calculas la distancia total entre puntos en este espacio de 5001 dimensiones. 0.6 trabajando nunca se encontrara en este caos.

creo que cualquier clasificador lo hara mejor, el mismo arbol encontrara esta unica caracteristica y dividira por ella, primero por 0.5 y luego llegara a divisiones de 0.2 y 0.8 seguidas por hojas con 100% de pureza.