Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 488

 
Maxim Dmitrievsky:

Bueno es cuestión de acertar con las fichas y el objetivo, aunque parecería que lo que puede ser más sencillo que una tabla de multiplicar, pero ahí tampoco hay un pequeño error

No puedo asegurar que sean correctos, pero si no lo son, no se puede comprobar su formación, de ahí los errores.

Con respeto.
 
Andrey Kisselyov:
En forex, al menos de una manera u otra, hay repetición en la tabla de multiplicar, no hay repetición.

Con respeto.

Pues sí, dado que RF es incapaz de extrapolar nada

 
Vizard_:

puede...


(Está escrito en todas partes que, como, no... )

 
Vizard_:

También escribiste un sonajero)))) Pero decidiste hacer que produjera otro.
Póngalo en...
х = 1 0 1 0 1 0 1 0 1 0
objetivo = 1 0 1 0 1 0 1 0 1 0
entonces -
х = 1 0 1 0 1 0 1 0 1 1
objetivo = 1 0 1 0 1 0 1 0 1 0
etc...
Sobre un ejemplo interpretable, véase en breve.
precisión, pérdida, kappa...etc. lo que quieras. Bien y correctamente señalado antes -
hay mucho que ver en el bosque...


Vale, si es así, terminaré la estrategia y luego veremos qué es lo que hay :)

 

¡Saludos neuronautas! Grandes mentes ))

aquí hay una película sobre un neurólogo que creó un programa de software superpredictivo y "ayudó" a un banco a "hacerse rico" .



 
Alexander Ivanov:

¡Saludos neuronautas! Grandes mentes ))

hay una película aquí sobre un tipo de neurona que creó un motor de superpredicción y "ayudó" a un banco a "hacerse rico" .




ver "La matanza de Texas", una nueva y relajante película.

 

No puedo evitar pensar que una serie de problemas son comunes a los modelos de clasificación y de regresión.


Uno de estos problemas es la multicolinealidad, que suele interpretarse como una correlación entre las variables de entrada, pero que puede no ser del todo cierta.


La multicolinealidad en sentido general tiene una consecuencia muy desagradable que socava nuestros esfuerzos de modelización:

  • los parámetros del modelo se vuelven inciertos
  • Los errores estándar de estimación se vuelven infinitamente grandes.


Si la multicolinealidad se entiende como una relación lineal entre las variables de entrada (variables explicativas, predictores), entonces tenemos el siguiente cuadro

  • aunque las estimaciones OLS siguen siendo insesgadas, tienen una gran varianza y covarianza, lo que dificulta una estimación precisa
  • En consecuencia, los intervalos de confianza tienden a ser más amplios. Por lo tanto, es posible que no rechacemos la "hipótesis nula" (es decir, que la verdadera tasa de muestreo sea cero),
  • Debido al primer efecto de t la relación de uno o más coeficientes tiende a ser estadísticamente insignificante
  • Aunque algunos coeficientes de regresión sean estadísticamente insignificantes, el valor R^2 puede ser muy alto
  • Las herramientas de estimación OLS y sus errores estándar pueden ser sensibles a pequeños cambios en los datos


Aquí hay un artículo que proporciona herramientas de R para reconocer la presencia de multicolinealidad.

Multicollinearity in R
Multicollinearity in R
  • Bidyut Ghosh
  • www.r-bloggers.com
One of the assumptions of Classical Linear Regression Model is that there is no exact collinearity between the explanatory variables. If the explanatory variables are perfectly correlated, you will face with these problems: However, the case of perfect collinearity is very rare in practical cases. Imperfect or less than perfect...
 
SanSanych Fomenko:

No puedo evitar pensar que una serie de problemas son comunes a los modelos de clasificación y de regresión.


Uno de estos problemas es la multicolinealidad, que suele interpretarse como una correlación entre las variables de entrada, pero que puede no ser del todo cierta.


La multicolinealidad en sentido general tiene una consecuencia muy desagradable que socava nuestros esfuerzos de modelización:

  • los parámetros del modelo se vuelven inciertos
  • Los errores estándar de estimación se vuelven infinitamente grandes.


Si la multicolinealidad se entiende como una relación lineal entre las variables de entrada (variables explicativas, predictores), entonces tenemos el siguiente cuadro

  • aunque las estimaciones OLS siguen siendo insesgadas, tienen una gran varianza y covarianza, lo que dificulta una estimación precisa
  • En consecuencia, los intervalos de confianza tienden a ser más amplios. Por lo tanto, es posible que no rechacemos la "hipótesis nula" (es decir, que la verdadera tasa de muestreo sea cero),
  • Debido al primer efecto de t la relación de uno o más coeficientes tiende a ser estadísticamente insignificante
  • Aunque algunos coeficientes de regresión sean estadísticamente insignificantes, el valor R^2 puede ser muy alto
  • Las herramientas de estimación OLS y sus errores estándar pueden ser sensibles a pequeños cambios en los datos


Aquí hay un artículo que proporciona herramientas de R para reconocer la presencia de multicolinealidad.


gracias por la nueva palabra, ya glosada un par de veces hoy :)

¿Qué otros problemas hay?

 

Hoy he decidido comprobar, mi red basada en el percetrón. Optimizado para mayo-principios de junio de 2016, EURUSD, spread 15 pips.

La cola en sí.

Todavía estoy confundido por el resultado.

 
forexman77:

Hoy he decidido comprobar, mi red basada en el percetrón. Optimizado para mayo-principios de junio de 2016, EURUSD, spread 15 pips.

La cola en sí.

Hasta ahora estoy confundido por el resultado.

Yo también soy un mimado, incluso con un poco de sobresalto. Lo he probado en muestras aleatorias y los resultados son sorprendentes. Todavía no he hecho TC.

Maxim dice que es una larga curva de aprendizaje. Tengo unas 23 horas. Pero incluso si lo hago una vez cada 3 meses - que basura).

Y para 3 meses es suficiente seguro, no lo he probado más.