Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2948
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Escucho esta leyenda sobre la importancia de la velocidad todo el tiempo, pero no puedo entender dónde es importante.
Teniendo en cuenta el spread y las comisiones de la bolsa/broker, necesitas pronosticar para un tiempo medido en decenas de minutos u horas. ¿Qué tienen que ver 50 milisegundos de diferencia con esto?
¿Cómo exactamente en la vida real vencer a MQ sobre fxsaber por 5 milisegundos te ayuda?
Como quieras, pero a mí no me importaría ni siquiera un pequeño aumento de velocidad. Tanto en las pruebas / optimización y en el comercio.
Tenga en cuenta que la ejecución nativa de los modelos onnx hace que sea fácil y muy rápido ejecutarlos en el probador y claudnet sin sobrecarga del sistema, lo que es casi imposible con integraciones de terceros.
.
Así que el entrenamiento sólo se puede hacer en el probador en la máquina del desarrollador.
Y no tiene sentido subir el modelo terminado a la nube.
Puede ser más sencillo... conectar Redis, obtener RedisAI con soporte PyTorch, ONNX, TensorFlow, y si se desea, distribuir la carga entre nodos y nubes.
Nuestro avión tiene a bordo una piscina, una pista de baile, un restaurante, acogedoras zonas de recreo, un jardín de invierno... Queridos pasajeros, abróchense los cinturones, ahora vamos a intentar despegar con toda esta mierda.
Me temo que la optimización en la nube no funcionará. El objetivo de la optimización es cambiar los parámetros del ST. Por ejemplo, la selección TP/SL. Cuando se cambian, cambian los datos para el entrenamiento. Es decir, es necesario entrenar el modelo con cada variante de los parámetros, y para ello debe instalarse el software de MO (Catbust, red neuronal, etc.). Es poco probable que en la nube alguien tenga instalado el software necesario, de la versión correcta.
.
Así que el entrenamiento sólo se puede hacer en el probador en la máquina del desarrollador.
Y no tiene sentido subir el modelo terminado a la nube.
Para ser justos, un modelo no es necesariamente una TS terminada. Por ejemplo, el modelo predice un incremento de precio, y en los parámetros del EA se establece un valor umbral para el incremento predicho, que el EA intenta negociar.
Nuestro avión tiene a bordo una piscina, una pista de baile, un restaurante, acogedores salones, un jardín de invierno... Queridos pasajeros, abróchense los cinturones, ahora vamos a intentar despegar con toda esta mierda.
IMHO esto es justo sobre el desarrollo actual de MQL. Un intento de meter todo de golpe en lugar de integraciones.
IMHO esto es justo sobre el desarrollo actual de MQL. Un intento de meter todo a la vez en lugar de integraciones.
+
IMHO esto es justo sobre el desarrollo actual de MQL. Un intento de meter todo a la vez en lugar de integraciones.
Los caminos para las integraciones siempre han estado abiertos:
Pero son las integraciones con lenguajes nativos las que permiten escribir aplicaciones completas.
Cuando se trata de ML, hemos trabajado e implementado vectores, matrices y operaciones con ellos como base para el aprendizaje automático:
Conseguimos crear soluciones completas y rápidas.
Las palabras sobre "intentar atiborrar" sólo indican una actitud negativa sin justificación racional. Sobre todo porque la disponibilidad de posibilidades no limita al escritor en modo alguno.Dame un enlace a la documentación pertinente, por favor. O no me vengas con patetismos. R es algo monstruoso en sí mismo. Sugieres estudiar una enciclopedia en lugar de una simple respuesta a una pregunta concreta.
Nadie en el mundo estudia una enciclopedia, estudia un artículo concreto. He dado enlaces a un artículo muy concreto. Pero no sólo obtendrás una respuesta a tu pregunta teórica, sino también un código de trabajo.
¿Es posible implementar el siguiente esquema en ONNX: