Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 638

 
Mihail Marchukajtes:

Para encontrar la entropía cruzada, primero hay que encontrar la entropía condicional de dos eventos, que es lo que estoy haciendo ahora....

Y la estimación de la entropía del modelo es necesaria en el momento de la ejecución del modelo en la retroalimentación. Una vez emitida una señal, podemos calcular la entropía de esta señal y utilizarla para sacar conclusiones. La entropía de la señal ha aumentado. Bueno, a la mierda, ha caído - es nuestra locomotora de vapor....

Para el comercio de tendencia - sí, exactamente. Michael, vayamos más rápido, porque mi suegro ya me está retorciendo los puños en la cara en un afán de dinero del Forex, no me permite centrarme en la entropía/no entropía...

 
Mihail Marchukajtes:

Para hallar la entropía cruzada primero hay que hallar la entropía condicional de los dos eventos, que es lo que estoy haciendo ahora....

Tienes otra entropía cruzada que la mía, no puede ayudar. Aunque también tengo una bicicleta, no voy a discutir cuál es mejor :)

Echa un vistazo a los paquetes de R sobre el tema, parece quehttps://cran.r-project.org/web/packages/EMVC/EMVC.pdf te vendría bien para encontrar tanto la entropía como la entropía cruzada, y filtrar los predictores.

 
Dr. Trader:


No he estudiado la teoría de la información, pero tengo algo de experiencia con la entropía en R.

Básicamente, cuanto más alta es la entropía, más caos hay en los datos. Un predictor con alta entropía está bastante mal relacionado con el objetivo. Por el contrario, una entropía baja indica que el predictor es fácilmente identificable desde el predictor.

La no entropía es lo contrario de la entropía, no aporta ningún conocimiento nuevo respecto a la entropía, sólo se introduce por comodidad. Si el predictor tiene una gran entropía, la no entropía es pequeña. Si la entropía es pequeña, la no entropía es grande. Es como el calor y el frío, la luz y la oscuridad, etc., uno fluye perfectamente en el otro.

Pero eso no es todo, también hay entropía cruzada. Así es como los dos predictores juntos se relacionan con el objetivo, la entropía cruzada alta es mala, la baja es buena. En el aprendizaje automático suele ocurrir que dos predictores con alta entropía cuando se utilizan juntos dan una baja entropía cruzada, que es lo que todos necesitamos. Aunque cada uno de los predictores puede estar mal asociado al objetivo por sí mismo (alta entropía para ambos), pero juntos pueden dar en la diana (baja entropía cruzada). Así que no se puede simplemente medir la entropía de cada predictor por separado, y elegir un conjunto según la estimación. Hay que seleccionar todo el conjunto de predictores con baja entropía cruzada, yo por ejemplo no miro cuál es su entropía individualmente.

He aquí algunos ejemplos

1) Predictor con alta entropía. No hay manera de predecir la clase de objetivo en absoluto.

2) Predictor con baja entropía. Si se observa con atención, si el valor del predictor es de 0 a 0,25 o inferior a 0,4, entonces el valor de la clase = 1. En caso contrario, clase = 2. Este es un predictor muy útil para usar en MO.

3) Dos predictores, cada uno de los cuales tiene una alta entropía, y el modelo nunca será capaz de predecir el objetivo utilizando sólo el primer o el segundo predictor. Pero al dibujarlos juntos (el eje X es el valor del primero, y el valor Y del segundo) podemos ver inmediatamente que juntos dan muy buena información sobre la clase del objetivo (mismo signo para ambos predictores = clase1, distinto signo = clase2). Este es un ejemplo de baja entropía cruzada.


¿Tal vez sólo los componentes principales?

 
¡Ya me acuerdo! Dennis Kirichenko fue el primero en sugerir que se tuviera en cuenta la entropía/no entropía. Literalmente rompí a llorar ante la inminente felicidad del dinero.
 

http://padabum.com/d.php?id=223567

no gracias

leyendo de nuevo... ¿cuándo terminará?

Обучение с подкреплением
Обучение с подкреплением
  • votos: 1
  • padabum.com
Обучение с подкреплением является одной из наиболее активно развивающихся областей, связанных с созданием искусственных интеллектуальных систем. Оно основано на том, что агент пытается максимизировать получаемый выигрыш, действуя в сложной среде с высоким уровнем неопределенности. Дается исчерпывающее и ясное изложение идей...
 
Maxim Dmitrievsky:

http://padabum.com/d.php?id=223567

no gracias

Leyendo de nuevo... ¿cuándo terminará?

Gracias por el libro.

No, estos enlaces con el proceso de instalación no se descargan)).

 
Yuriy Asaulenko:

Gracias por el libro.

No, estos enlaces con el proceso de instalación no se descargan)).

Todo se está descargando normalmente, sin ninguna instalación

pdf está en blanco, puedo convertir a djvu y enviar
 
SanSanych Fomenko:

¿Tal vez sólo los componentes principales?

Los componentes principales se calculan sin análisis de objetivos. Es posible encontrar los componentes principales, pero no se sabe de antemano si son útiles para predecir el objetivo correcto.

Y la entropía cruzada puede calcularse en relación con un objetivo específico, y el resultado dirá qué predictores deben eliminarse porque interfieren.
Quería probar el paquete EMCV, me gustaría haberme fijado en él antes, si funciona, publicaré ejemplos de su uso aquí más adelante.

 
Maxim Dmitrievsky:

Todo se está descargando normalmente, sin ninguna configuración.

Lo siento, pulsé el botón de "descarga" equivocado y hay un exe.

Todo está bien.

 
Yuriy Asaulenko:

Lo siento, he pulsado el botón de "descarga" equivocado. Está bien.

Es sólo un botón de publicidad, es hora de tener más experiencia en sitios piratas ))