Grupo de usuarios de MetaTrader 5 Python - cómo utilizar Python en Metatrader - página 83
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Bien - mal preparado....
¿Dónde puedo leer sobre esto? Preparo los datos para la NS según mi percepción de lo que es importante y lo que no.
Una cosa que me desconcierta es si el mismo tipo de datos debe recogerse "en un montón" o añadirse a medida que van llegando.
¿De qué lado deben recogerse los datos: de los "más viejos" o de los "más nuevos"?
Bien - mal preparado....
¿Dónde puedo leer sobre esto? Preparo los datos para la NS según mi percepción de lo que es importante y lo que no.
Una cosa que me desconcierta es si el mismo tipo de datos debe recogerse "en un montón" o añadirse a medida que van llegando.
¿Desde qué lado deben recogerse los datos: desde el "más viejo" o desde el "más nuevo"?
En el hilo de MoD pregunta, alguien te responderá. Este es el tema del conector
El problema es que la normalización es una causa perdida.
Déjeme explicarle. Hay algunos datos A, B, C...
Son diferentes en cuanto a su importancia, etc. Todo el mundo (google) dice que la normalización debe hacerse por columnas (A-A-A, B-B-B, C-C-C) y no por filas. Esto es lógicamente comprensible.
Pero cuando aparecen nuevos datos para la "predicción" ¿CÓMO normalizarlos si es sólo una fila? ¿Y cualquier término de esa fila puede superar la normalización en los datos de entrenamiento y de prueba?
¡Y la normalización por cadenas no tiene ningún efecto!
En realidad, después de comprobar estos matices, tuve este "grito del alma" ))))
Durante la normalización se guardan los coeficientes. Para evitar que se salgan del rango, debemos tomar una gran parte de la historia y normalizarla, para luego aplicar estos coeficientes a los nuevos datos
en datos no normalizados, la red no aprenderá, o lo hará de forma deficiente. Esa es su naturaleza.los coeficientes se conservan durante la normalización. Para evitar que se salgan del rango, tenemos que tomar una gran parte de la historia y normalizarla, y luego aplicar estos coeficientes a los nuevos datos
No aprenderá de los datos no normalizados, o aprenderá mal. Esa es su peculiaridad.Todo esto es lógico y comprensible, ¡pero la red se está formando! Además hay información de que usar datos no normalizados es más complicado para el aprendizaje, pero no es crítico.
¿Y cómo no salirse de las gamas? Por ejemplo, hay un precio. Hay un rango de precios en los datos de entrenamiento y de prueba: toma 123-324. Pero el precio sube a 421. ¿Cómo entra en ese mismo rango?
Pero nos estamos alejando del meollo de la cuestión: ¿por qué, con un entrenamiento y unas pruebas normales, la predicción es algo?
Queridos amigos, una vez más mis esquís no se mueven... Estoy pidiendo ayuda.
Decidí esbozar un pequeño probador para comprobar la predicción de la red entrenada.
Todo está bien aquí.
Y lo siguiente que sabes...
jura
¿Qué pasa?
Después de haber buscado en la web y haber mirado el artículo, en base al cual escribí mi código, llegué a la decepcionante conclusión de que todo autor de cualquier artículo "para principiantes" está obligado a olvidar mencionar algo importante...
Y aquí resultó queStandardScaler se utiliza en el entrenamiento de la red.Pero el artículo no dice ni una palabra sobre qué es y por qué es necesario.
Además,StandardScaler es estandarización. Además, quiero saber cómo puedo implementar la misma normalización para un solo vector de entrada e incluso menos.
Y lo que es peor, ¡la "normalización" se lleva a cabo por columnas del conjunto de datos! No, bueno, para las estadísticas, está bien. Pero para los pronósticos, es "***hole". Cuando llegan nuevos datos, ¿tengo que volver a entrenar la red sólo para que los nuevos datos estén en el rango de "normalización"?
¡Mentira!
Para cuando esta "nueva red" esté formada, la situación puede haber cambiado ya drásticamente. Entonces, ¿cuál es el puto objetivo de esto?
Hasta aquí Python con un montón de bibliotecas "afiladas" ....
Le agradecería mucho que me hiciera cambiar de opinión.
P.D. Sólo quiero creer que no he perdido mi tiempo en Python para nada.
Después de haber buscado en la web y haber mirado el artículo, en base al cual escribí mi código, llegué a la decepcionante conclusión de que todo autor de cualquier artículo "para principiantes" está obligado a olvidar mencionar algo importante...
Y aquí resultó queStandardScaler se utiliza en el entrenamiento de la red.Pero el artículo no dice ni una palabra sobre qué es y por qué es necesario.
Además,StandardScaler es una estandarización. Además, quiero saber cómo puedo implementar la misma normalización para un solo vector de entrada e incluso menos.
Y lo que es peor, ¡la "normalización" se realiza por columnas del conjunto de datos! No, bueno, para las estadísticas, está bien. Pero para los pronósticos, es "***hole". Cuando llegan nuevos datos, ¿tengo que volver a entrenar la red sólo para que los nuevos datos estén en el rango de "normalización"?
¡Mentira!
Para cuando esta "nueva red" esté formada, la situación puede haber cambiado ya drásticamente. Entonces, ¿cuál es el puto objetivo de esto?
Hasta aquí Python con un montón de bibliotecas "afiladas" ....
Le agradecería mucho que me hiciera cambiar de opinión.
P.D. Sólo quiero creer que no he perdido mi tiempo en Python para nada.
(Apenas puedo distinguirlo. )))
Pero ahora tengo otra pregunta (por la que empecé todo):
Cuando entrené la red obtuve los siguientes resultados
En otras palabras, ¡el resultado es una ganga!
He puesto en marcha mi probador. Tengo estos resultados
Bien, dime exactamente dónde puedes ver que la red está entrenada para obtener un 98% de resultados correctos????
Hola, leyendo algunas páginas de la discusión no encontré nada concreto sobre la siguiente pregunta :
- ¿Hay algo que funcione actualmente como los paquetes de MetaTraderR o MetaTrader5 para la integración de MT y R?
Saludos
Lo siento, continuaré mi epopeya... )))
Después de obtener un poco más de conocimiento del mismo google, llegué a conclusiones:
Cumpliendo estas dos condiciones, conseguí una notable reducción de la curva de aprendizaje de la red. Además, descubrí que
Además, había otra pregunta: ¿cuál debería ser la respuesta de la red?