Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2811

 

fijar fecha


las primeras 10 líneas son información sobre el precio, si desea crear nuevas características, si no se deben eliminar de la formación.

última línea - objetivo

dividir la selección en dos para entrenamiento y prueba.


en Forest sin ningun tuning obtengo en datos nuevos

Confusion Matrix and Statistics

          Reference
Prediction   -1    0    1
        -1 2428  453   23
        0   597 3295  696
        1    14  448 2046

Overall Statistics
                                         
               Accuracy : 0.7769         
                 95% CI : (0.7686, 0.785)
    No Information Rate : 0.4196         
    P-Value [Acc > NIR] : < 2.2e-16      
                                         
                  Kappa : 0.6567         
                                         
 Mcnemar's Test P-Value : 2.565e-16      

Statistics by Class:

                     Class: -1 Class: 0 Class: 1
Sensitivity             0.7989   0.7853   0.7400
Specificity             0.9316   0.7772   0.9361
Pos Pred Value          0.8361   0.7182   0.8158
Neg Pred Value          0.9139   0.8335   0.9040
Prevalence              0.3039   0.4196   0.2765
Detection Rate          0.2428   0.3295   0.2046
Detection Prevalence    0.2904   0.4588   0.2508
Balanced Accuracy       0.8653   0.7812   0.8381

en HGbusta con nuevas fichas que tengo Akurashi 0,83.


Me pregunto si es posible lograr 0,9 Akurasi ?

Archivos adjuntos:
dat.zip  4562 kb
 
mytarmailS #:
?? ¿Dónde dije eso?

Aquí.

 
Aleksey Vyazmikin #:

Aquí.

Hubo una conversación sobre el desequilibrio de clases, y aquí estamos hablando de correlaciones...
Está bien, olvídalo, olvídalo, olvídalo... No tengo energía ni ganas de masticar cosas masticables...
 
mytarmailS #:
Hubo una conversación sobre el desequilibrio de clases, y aquí hay una conversación sobre correlaciones....
Está bien, olvídalo. Olvídalo, olvídalo... No tengo energía ni ganas de masticar cosas masticables....

Para mí se trata de una muestra específica que no ha sido entrenada sin manipular los datos.

El filtrado por correlación es una forma sencilla de avanzar en el entrenamiento.
 
mytarmailS #:

fecha fijada

¿Qué nadie lo ha tocado? (
 
iwelimorn #:

Lo he intentado, no funciona, se trata de nuevo de los signos.


Si te interesa, estoy lanzando un constructor probador multidivisa con spread, lote primitivo y una pista de apertura de posiciones de cierre con lote fraccionario.

Para que el tester funcione, hay que preparar un dataframe con columnas ['open', 'spread], y además lanzar un array numpy de formato x (n,2) con previsiones de probabilidades de compra/venta para cada nueva barra en señal. El probador funciona a partir de un bucle, a continuación se muestra un ejemplo de inicialización del uso del probador

la lógica de negociación y el lote se pueden ajustar en el método transcript_sig del objeto Symbol


Los resultados de la prueba se encuentran en el diccionario trade_history_data, para la prueba global y trade_symbol_data de cada símbolo.

Hay listas allí, si alguien quiere optimizar o cambiar algo - bienvenido).

Usted necesita venir para arriba con algunas recompensas divertidas allí para capturar los patrones. De lo contrario, se martillará a la pseudo-óptimo de cualquier función
 
Maxim Dmitrievsky #:
Tienes que idear algunas recompensas divertidas para captar los patrones. De lo contrario, va a moler a la pseudo-óptimo de cualquier ph-i
Es todo acerca de la función q y críticos, tema interesante....
 
mytarmailS #:
Se trata de q la función y la crítica, un tema interesante....

se discutió aquí hace más de un año, cuando yo estaba escribiendo algoritmos RL.

No quiero volver todavía, y ya tengo cierta mezcla de RL + supervisado, hace tiempo que me pasé a los esquemas de autor.

Usa RL si no sabes marcar etiquetas, pero necesitas un mecanismo de semiling adecuado. Empiezas con aleatorio como en mis artículos, por ejemplo, luego añades condiciones. Aproximas con forest o NS, compruebas los resultados, corriges, y así vuelta y vuelta obtendrás los resultados y la explotación

Lo que está en el último artículo es esencialmente RL. Usted puede pensar en el segundo NS como una crítica, y usted mismo poner un valor en el mecanismo de semiling de ofertas. Los términos pueden ser inexactos, pero no cambia la esencia del enfoque.

Q-función no es necesario, hay otros métodos como reforzar y así sucesivamente, se me olvidó ya
 
Maxim Dmitrievsky #:

Se discutió aquí hace más de un año, cuando estaba escribiendo algoritmos RL.

Todavía no quiero volver atrás, y yo tampoco.
No estoy desde la posición de las etiquetas, sino desde la posición de, por ejemplo, algunas políticas muy complejas y multidetalladas del comportamiento de los agentes.
 
mytarmailS #:
No hablo desde la posición de las etiquetas, sino desde la posición de, por ejemplo, unas políticas muy complejas de varios pasos del comportamiento del agente
Te confundes con la RL tabular, donde en tablas se optimizan las direcciones de las transiciones de un estado a otro, son políticas. Estas tablas fueron sustituidas posteriormente por redes neuronales. Esto es cuando hay muchos estados del agente, por ejemplo en los juegos. Sólo tienes 2-3 estados de compra/venta, etc. Entonces optimizas las transiciones a estos estados a través de una función de recompensa, por ejemplo muestreando operaciones con alguna condición de rentabilidad, y las políticas se optimizan a través de NS. Una política es la relación entre el entorno y el estado al que se quiere transicionar. Por ejemplo, la relación entre los valores de los indicadores y la dirección de las operaciones.

No tiene sentido hacer un multipase de 100500 transiciones a través de la tabla cuando el NS ya ha aproximado todo y te ha mostrado el error de tus acciones. Esto es necesario si necesitas saltar primero, luego disparar, recargar, recoger botín, correr al otro lado, etc. Eso es realizar un montón de acciones, y sólo tienes 2-3. Aunque el jefe es el jefe :)

Olvidé añadir que allí el agente también afecta al entorno, lo cambia, y el entorno al agente. Por eso necesitas aprender miles de repeticiones para pasar por todas las combinaciones. En nuestro caso no es así, el entorno no cambia, por lo que podemos hacerlo en 1 vez. En un entorno así, el aprendizaje por refuerzo pierde totalmente su significado. Puedes encontrar el camino más corto a la meta en 1 pasada.