Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1604
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Ah, ¿entonces estamos hablando de la diferencia de rendimiento de la red en el entrenamiento y en la prueba?
Es inevitable que haya una pérdida, no hay manera de evitarlo.
Hay dos pruebas, la interna cuando se selecciona una parte del conjunto de datos para la validación, normalmente 0,2 y la externa cuando sólo se toma un trozo que el neuro no vio. Los resultados de la segunda es un mercado real, si no lo es, entonces hay un error en alguna parte.
Tengo que decepcionarte, pero de hecho tu "prueba a prueba" es parte de una muestra enseñable.
Escúpelo
No lo haré. Dispuesto a salvar a alguien que ahora se está dando la cabeza contra la pared tratando de resolver otro problema concreto. Lo he revisado, la información que doy puede ahorrar un mes de vagabundeo en la oscuridad.
Muy bien, derrame su "información".
Muy bien, derrame su "información".
Sólo la especulación para el público está en el canal de Telegram, se puede rastrear la historia del trabajo allí. Aquí me gustaría ser sustantivo.
De acuerdo, escupe los frijoles.
¿Alguien ha utilizado ya los scripts python incorporados y la biblioteca Metatrader5 para Python?
Hasta ahora funciona muy rápido. Lo conectaré a la base de datos, ya veré más adelante.
Hay dos pruebas, la interna cuando se comprueba una parte del conjunto de datos, normalmente 0,2 y la externa cuando se toma sólo una parte que el neuro no vio. Los resultados de la segunda es mercado real, si no es así, entonces hay un error.
Eugene Buenas tardes, muchas gracias, al menos por el hecho de que seas un practicante y no otro rubbishman de los que hay 95%.... Lo que se hace(probar en una "tercera" muestra) en términos de GMDH se llama "criterio de poder predictivo"http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%93%D0%A3%D0%90#.D0.9A.D1.80.D0.B8.D1.82.D0.B5.D1.80.D0.B8.D0.B9_absolute_noise-immune.
Recordemos que las primeras publicaciones sobre GMDH comenzaron en algún momento de la década de 1960 esos "su saber hacer" idea con la pruebaen "tercera" muestra es ya 60 años)))
Pero quiero señalar que el enfoque nunca envejece, por lo que recomiendo encarecidamente la lectura de las obrasde A.G. Ivakhnenko...
Por ejemplo, la regresión MSUA sólo se burla de la regresión del algoritmo moderno de bosque aleatorio y de todo tipo de boostings...
Ahora sobre los enlaces en Telegram... No he encontrado nada más que señales, pero es interesante leer su enfoque y su forma de pensar, Dmitry dice correctamente que hay que publicar aquí, aunque de forma abiertamente grosera...
Eugene Buenas tardes, muchas gracias, al menos por el hecho de que seas un practicante y no otro rubbishman de los que hay 95%.... Lo que se hace(probar en una "tercera" muestra) en términos de GMDH se llama "criterio de poder predictivo"http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%93%D0%A3%D0%90#.D0.9A.D1.80.D0.B8.D1.82.D0.B5.D1.80.D0.B8.D0.B9_absolute_noise-immune.
Recordemos que las primeras publicaciones sobre GMDH comenzaron en algún momento de la década de 1960 esos "su saber hacer" idea con la pruebaen "tercera" muestra es ya 60 años)))
Pero quiero señalar que el enfoque nunca envejece, por lo que recomiendo encarecidamente la lectura de las obrasde A.G. Ivakhnenko...
Por ejemplo, la regresión MSUA sólo se burla de la regresión del algoritmo moderno de bosque aleatorio y de todo tipo de boostings...
Ahora sobre los enlaces en Telegram... No encontré nada allí, salvo señales, pero es interesante leer su enfoque y forma de pensar, Dmitry dice correctamente que es necesario publicar aquí, aunque de forma abiertamente grosera...
JPrediction utiliza el método de Ivakhnenko de argumentación de grupos. Reshetov Yu. lo mencionó más de una vez... El método en sí mismo consume mucho tiempo en términos de horas de máquina porque agita los datos a fondo y no requiere grandes muestras para ajustarse a las realidades actuales.
Quien no me crea que lo compruebe :-)