Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3323

 
Maxim Dmitrievsky #:

Sigue intentando poner una gota de yodo en tu absenta cuando has tomado otra bebida. Como, pruébalo, sabe mejor.

¿Quieres que encuentre lo que estaba escribiendo y te lo señale? Me gusta jugar con mi comida durante mucho tiempo antes de comerla.

No sé con quién estás hablando, pero adelante, mira si no tienes nada mejor que hacer. Pero no lo saques de contexto, por favor, nadie va a hojear cientos de páginas de posts buscándolo. Tuviste la oportunidad de confirmar o negar en un chat en vivo hoy, pero no pudiste. ¿Vas a agitar los puños después de una pelea? - Adelante.

 
Andrey Dik #:

No está claro con quién estás hablando, pero adelante, búscalo si no tienes nada mejor que hacer. Pero no lo saques de contexto, por favor, nadie va a hojear cientos de páginas de posts para averiguar si es cierto. Hoy has tenido la oportunidad de confirmarlo o desmentirlo en un chat en directo, pero no has podido. ¿Vas a agitar los puños después de una pelea? - Adelante.

¿Qué te hace pensar que has ganado?

La verdadera historia es que atacaste e hiciste que te mataran.

No acudí a ti por nada.
 
Maxim Dmitrievsky #:

¿Por qué siente que ha ganado?

La verdadera historia es que has atacado y te has dejado vencer.

No me he dirigido a ti en ningún tema.

¿Y a quién te dirigiste exactamente cuando dijiste que "los optimizadores no entienden"? Enuméralos por su nombre. ¿A quiénes consideras "optimistas" y por qué no te consideras uno? - ya lo hemos averiguado, optimizas perfectamente sin darte cuenta y sin querer admitirlo.

Incluso ahora escribes sin dirigirte a nadie en particular, como no a mí... -¿entonces estás troleando o qué? Luego dices que no te dirigiste a nadie, que no preguntaste a nadie....

 
Andrey Dik #:
¿A quién te referías exactamente cuando decías que "los optimizadores no lo entienden"? Enumérelos por su nombre. ¿A quiénes consideras "optimizadores" y por qué no te consideras uno de ellos? - Ya hemos comprobado que optimizas perfectamente sin darte cuenta y sin querer admitirlo.

Se han descrito 2 enfoques. Investigación y p-hack, la optimización se refiere al segundo. Todos los que estaban a favor del segundo son optimizadores.

Cuando los resultados se persiguen bajo FF.
 

Para usted, "todo es optimización". También podrías decir que todo son átomos, o que todo es nada.

Otra persona escribió que la optimización es investigación. También es una sustitución de conceptos.

 
Maxim Dmitrievsky #:

Se han descrito dos enfoques. Investigación y p-hack, optimización se refiere al segundo. Todos los partidarios del segundo son optimizadores.

Cuando los resultados se persiguen bajo FF.

¿Has olvidado sobre qué criterios de ruptura escribiste? ¿No me reconoces otra vez? Vamos, para, para.

Ambos enfoques utilizan la optimización con algún tipo de criterio de parada.

 
Andrey Dik #:
¿Has olvidado lo que escribiste sobre parar criterios? ¿No me reconoces otra vez? Vamos, para, para.

Eres tú el que está moviendo todos los hilos para parecer importante.

Yo no escribí sobre ningún criterio de parada en primer lugar.

Tienes el descaro de atribuirme cosas que yo no he dicho.

Básicamente, estás divagando y entreteniendo a tu audiencia.

y yo tengo que adivinar qué procesos aleatorios están ocurriendo en tu cabeza y en qué dirección se mueven.
 
Te limitas a lanzar información aleatoria y a exigir que todo el mundo esté de acuerdo con ella.
 
Andrey Dik #:

Sí, siempre se trata de garantizar la solidez del modelo con nuevos datos. Por eso he dicho que encontrar ese criterio es uno de los más importantes y difíciles.

Quiero decir que las métricas de evaluación de resultados que estamos acostumbrados a utilizar en el comercio y el aprendizaje automático son sólo una parte de la evaluación de la calidad del modelo/ajuste/aproximación resultante.

Lo importante es en qué condiciones lo hemos conseguido. Cuánta información fue necesaria para lograrlo. Tenemos que evaluar la estabilidad de las observaciones a lo largo del tiempo. La contribución de cada predictor.

El problema de los modelos complejos con un gran número de predictores y reglas de decisión (ya sean árboles o neuronas) es que crean patrones complejos que es poco probable que se repitan en su totalidad, de ahí el sesgo en la probabilidad de asignación a una de las clases. Anteriormente publiqué una imagen de "lo que zumban los árboles" que mostraba que la mayoría de las hojas simplemente no se activan ante nuevos datos.

Todo esto viene del hecho de que estamos tratando con una "función" (en realidad su suma) que no se puede explorar completamente para aproximarla. Lo que significa que tenemos que prestar especial atención sólo a aquellos que son más comprendidos/conocidos. Es mejor dejar que el modelo "guarde silencio" ante nuevos datos, ya que no está familiarizado con la situación, que operar sobre casos aislados del pasado.

Así que se plantea la cuestión de cómo hacer que el modelo guarde silencio si no está seguro, y dar confianza si la probabilidad de sucesos favorables es alta.

Necesitamos métodos para corregir los modelos prefabricados. Pueden aplicarse influyendo en el modelo después del entrenamiento, o aplicando modelos de dos clases: uno del tipo bousting y otro del tipo vecinos más próximos.

 
Aleksey Vyazmikin #:

Lo que quiero decir es que las métricas de evaluación de resultados que estamos acostumbrados a utilizar en el comercio y el aprendizaje automático son sólo una parte de la evaluación de la calidad del modelo/ajuste/aproximación resultante.

Lo importante es en qué condiciones lo hemos conseguido. Cuánta información fue necesaria para lograrlo. Tenemos que evaluar la estabilidad de las observaciones a lo largo del tiempo. La contribución de cada predictor.

El problema de los modelos complejos con un gran número de predictores y reglas de decisión (ya sean árboles o neuronas) es que crean patrones complejos que es poco probable que se repitan en su totalidad, de ahí el sesgo en la probabilidad de asignación a una de las clases. Antes publiqué una imagen de "lo que zumban los árboles" que mostraba que la mayoría de las hojas simplemente no se activan con nuevos datos.

Todo esto viene del hecho de que estamos tratando con una "función" (en realidad su suma) que no se puede explorar completamente para aproximarla. Lo que significa que tenemos que prestar especial atención sólo a aquellos que son más comprendidos/conocidos. Es mejor mantener el modelo "en silencio" sobre los nuevos datos, ya que no está familiarizado con la situación, que operar sobre casos aislados del pasado.

Así que se plantea la cuestión de cómo hacer que el modelo guarde silencio si no está seguro, y dar confianza si la probabilidad de que se produzcan acontecimientos favorables es alta.

Necesitamos métodos para corregir los modelos prefabricados. Puede llevarse a cabo mediante el impacto en el modelo después del entrenamiento, o aplicando modelos de dos clases -uno del tipo bousting y otro del tipo K vecinos más cercanos.

He hecho modelos anteriores que simplemente dejaron de dar señales de trading con el tiempo. Y sí, esto es mejor que cambiar la probabilidad de respuestas correctas a 50/50 en los nuevos datos. La cuestión - cuando se entrena para obtener las respuestas de la cuadrícula en un estrecho rango de números, con el tiempo las respuestas empiezan a salirse del rango y las señales desaparecen. Este es un proceso muy laborioso, no he logrado automatizar la formación y el comercio posterior.

Este es uno de los enfoques, probablemente hay otros, es necesario estudiar este tema.