Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3166

 
Forester #:

Los resultados del aprendizaje a través del corsé a menudo no son malos

De los años 10 a 21 un corsé se encontró con una fracción de 30% (30% de la historia al azar de este sitio participó en el aprendizaje), los otros años en general pura OOS

En el terminal se ve así


 

Existen muchos métodos para determinar el coreset. He aquí algunos de los métodos más populares:

  • Subconjunto aleatorio: basta con seleccionar un subconjunto aleatorio de puntos del conjunto de datos original. Es la forma más sencilla de obtener un coreset, pero no siempre proporciona la mejor calidad.
  • Puntos de referencia: seleccione puntos del conjunto de datos original que tengan un gran impacto en la predicción del algoritmo de aprendizaje automático. Esta es una forma más eficaz de obtener un conjunto central que un subconjunto aleatorio, pero puede ser más compleja.
  • Agrupación: Agrupe los puntos del conjunto de datos original en función de sus similitudes. Seleccione un punto de cada grupo como conjunto central. Esta es una forma eficaz de obtener un conjunto central que represente bien el conjunto de datos original, pero puede ser más compleja.
  • Núcleo hemométrico: Seleccione puntos del conjunto de datos de origen utilizando el núcleo hemométrico. Se trata de un potente método de obtención de coreset que puede utilizarse para mejorar la calidad de los algoritmos de aprendizaje automático.
  • Subconjunto aleatorio ampliado: Este método selecciona puntos aleatorios del conjunto de datos original, pero con mayor probabilidad selecciona puntos que tienen un alto impacto en la predicción del algoritmo de aprendizaje automático. Se trata de una forma eficaz de obtener un subconjunto que proporcione una buena calidad y pueda utilizarse para diversas tareas de aprendizaje automático.

Es importante señalar que no existe una forma universal de obtener un coreset que sea adecuado para todas las tareas de aprendizaje automático. La elección del método para obtener el coreset depende de la tarea específica y de los recursos computacionales disponibles.

*Bard

 
Maxim Dmitrievsky #:

Los resultados del aprendizaje a través del corsé no suelen ser malos

De los años 10 a 21 un corsé se encontró con una fracción de 30% (30% de la historia al azar de este sitio participó en el aprendizaje), los años restantes en general pura OOS

En el terminal se ve así


Bueno, también hay períodos de drawdowns que duran de seis meses a un año. ¿Está preparado para ello? ¿Especialmente si la reducción comienza inmediatamente después del lanzamiento en real?

 
Forester #:

También hay periodos de caídas que duran entre seis meses y un año. ¿Está preparado para ello? ¿Especialmente si la reducción empieza inmediatamente después de empezar en real?

Por lo general, diversificar.

Estas parcelas serán rentables en otros instrumentos. Y si la tendencia general de todos ellos será la misma que en el gráfico presentado, es una estabilidad de la inversión garantizada.

Sólo tiene que crear una cartera de instrumentos que crearán el mayor factor de recuperación
 
Forester #:

También hay periodos de caídas que duran entre seis meses y un año. ¿Está preparado para ello? ¿Especialmente si la reducción empieza inmediatamente después de empezar en real?

No estoy listo para apostar por 20 años :) esto es más bien un estudio de caso.

Estoy bien con 10 años de formación - 1 año de OOS, bien.

pero hay mucho ruido, a veces el modelo desecha casi todas las muestras como inútiles, quedan 3 transacciones

También hay trozos de historia que nunca se predicen con normalidad.

En definitiva, no es una actividad muy gratificante.

Es como hacer girar el viejo receptor y golpear accidentalmente alguna onda con ruido.

 

Una vez más estoy convencido de que para pronosticar se necesita un modelo.

El modelo elimina lo innecesario (ruido) dejando lo necesario (señal), si es posible amplificando lo necesario (señal), así como el modelo es más determinista, más repetibilidad en los patrones....

como ejemplo.

precios minutka alto-bajo.


Además construimos la simplificación más simple del precio (crear un modelo).

luego eliminamos el exceso (mejoramos el modelo) con la ayuda de un sencillo algoritmo conocido para la reducción de la dimensionalidad, el modelo se hizo más repetible.

y el último toque quizás decorativo.


Me pregunto cómo se entrenará el MO con estos datos.

Esta es una muestra de prueba.

Confusion Matrix and Statistics

          Reference
Prediction    -1     1
        -1 24130  2780
        1   4478 23613
                                          
               Accuracy : 0.868           
                 95% CI : (0.8652, 0.8709)
    No Information Rate : 0.5201          
    P-Value [Acc > NIR] : < 2.2e-16       
                                          
                  Kappa : 0.7363          
                                          
 Mcnemar's Test P-Value : < 2.2e-16       
                                          
            Sensitivity : 0.8435          
            Specificity : 0.8947          
         Pos Pred Value : 0.8967          
         Neg Pred Value : 0.8406          
             Prevalence : 0.5201          
         Detection Rate : 0.4387          
   Detection Prevalence : 0.4893          
      Balanced Accuracy : 0.8691          
                                          
       'Positive' Class : -1  

¿Habías visto antes números como estos?




 
СанСаныч Фоменко #:

¿Cuál es el nombre exacto? ¿O es casero?

Llevo muchos años utilizando diferentes modelos "de madera" y nunca he visto nada parecido.

¿Qué quiere decir con casero? Hay una justificación teórica, un buen artículo. Hay un paquete llamado RLTv3.2.6. Funciona bien. Usted debe prestar atención a la versión.

Sobre ONNX para modelos de madera en Python. Ver paquete skl2onnx.

Modelosscikit-learn soport ados. El último conjunto de opciones soportado es el 15.

Suerte

skl2onnx
  • 2023.05.09
  • pypi.org
Convert scikit-learn models to ONNX
 
Y el principal hecho a sí mismo y hecho a sí mismo es Breiman, porque él no escribió en R. Es un inútil.
 
mytarmailS #:

¿Has visto alguna vez esas cifras por ti mismo?

0,99 entrenamientos/prueba, con el modelo truncado a un par de iteraciones. Sólo quedan unas pocas reglas que predicen bien las clases.

 
Maxim Dmitrievsky #:

0,99 entrenamiento/prueba, con el modelo truncado a un par de iteraciones. Sólo quedan unas pocas reglas que predicen bien las clases.

TP=10 y SL=1000 ?)