Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3236

 
Andrey Dik #:

Si lo he entendido bien, el esquema de trabajo con ONNX simplificadamente es el siguiente:

MQL5_Input_Data -> ONNX -> MQL5_TS, donde:

MQL5_Input_Data - datos recibidos

ONNX - modelo (red neuronal con coeficientes de peso)

MQL5_TS - manejador y sistema de comercio.


No está claro cómo se ejecuta el modelo ONNX, si es ejecutado directamente por MT5, o si se debe utilizar Python para ello.

MT5 lo ejecuta. La salida es sólo un exe del bot. Como recurso se archiva.
 
Andrey Dik #:

Si lo he entendido bien, el esquema de trabajo con ONNX simplificadamente es el siguiente:

MQL5_Input_Data -> ONNX -> MQL5_TS, donde:

MQL5_Input_Data - datos recibidos

ONNX - modelo (red neuronal con coeficientes de peso)

MQL5_TS - manejador y sistema de comercio.


No está claro cómo se ejecuta el modelo ONNX, si se ejecuta directamente por MT5, o si se debe utilizar Python para esto.

Mi entendimiento es el siguiente:. Onnx - modelo produce sólo
Señal (a grandes rasgos un número o conjunto de números), y el propio terminal MT5 realiza la operativa.
A través de la función OrderSend()
 
Andrey Dik #:

No está claro cómo se ejecuta el modelo ONNX, si lo ejecuta directamente MT5 o si para ello hay que involucrar a Python.

Al parecer, se ejecuta a través de onnxruntime de Microsoft, que se incluye en MT5. Hubo un breve momento en el que fue necesario añadir algunos dlls a la raíz del terminal para ejecutar el modelo.

GitHub - microsoft/onnxruntime: ONNX Runtime: cross-platform, high performance ML inferencing and training accelerator
GitHub - microsoft/onnxruntime: ONNX Runtime: cross-platform, high performance ML inferencing and training accelerator
  • microsoft
  • github.com
ONNX Runtime is a cross-platform inference and training machine-learning accelerator . ONNX Runtime inference can enable faster customer experiences and lower costs, supporting models from deep learning frameworks such as PyTorch and TensorFlow/Keras as well as classical machine learning libraries such as scikit-learn, LightGBM, XGBoost, etc...
 
Maxim Dmitrievsky #:
MT5 lo hace. Cómo se cose en el cuerpo bot después - Creo que Renat escribió sobre ello, no me acuerdo. La salida es sólo un exe del bot.

Si un EA con ONNX es sólo un exe, ¿cómo van a saber los organizadores que ONNX se utiliza en absoluto?

O, "¡no te preocupes, ellos lo sabrán!")))

 
Andrey Dik #:

Si un EA con ONNX es sólo un exe, ¿cómo sabrán los organizadores que se está utilizando ONNX?

O, "¡no te preocupes, lo sabrán!"))))

No, el modelo se añade como recurso. Puedes añadirlo como un archivo independiente; todo está descrito en el manual.
 
Andrey Dik #:

Si un EA con ONNX es sólo un exe, ¿cómo sabrán los organizadores que se está utilizando ONNX?

O, "¡no te preocupes, ellos lo sabrán!")))

🤷‍♂️
 
Aleksey Nikolayev #:
No, el modelo se añade como recurso.

Bueno, eso es lo que estoy diciendo, el modelo como un recurso está incrustado en el exe de EA, el exe se envía al organizador. cualquier cosa puede estar en el exe, hasta la ausencia del modelo ONNX en absoluto))))

 
Andrey Dik #:

Bueno, eso es lo que estoy diciendo, el modelo como un recurso está incrustado en el exe de EA, el exe se envía al organizador. cualquier cosa puede estar en el exe, hasta la ausencia del modelo ONNX en absoluto)))

))

No, hay algunos mensajes sobre el lanzamiento de onnx. Y aceptarán modelos, no exeshniks, y luego ejecutarán modelos en la misma plantilla para todos.

 
Pero mi tocayo, al parecer, tiene la intención de meter algo de su propia artesanía en el modelo) Lógicamente, por 15 mil dólares no está en el camino).
 
Se puede hacer en el mismo R, guardar el modelo, y a través de python en onnx en unas pocas líneas
O a través de c++ supongo que también habrá alguno.
Me interesa ver cuantos moshnikov reales hay y cuales son los resultados.