Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2948

 
Tenga en cuenta que la ejecución nativa de los modelos onnx le permite ejecutarlos fácil y rápidamente en el probador y claudnet sin sobrecarga del sistema, lo que es casi imposible con las integraciones de terceros.

Es durante las pruebas de estrategia cuando todos estos "¿qué importa perder 50 ms por llamada?" aumentarán miles de veces el tiempo de las pruebas.
 
Evgeny Dyuka #:
Escucho esta leyenda sobre la importancia de la velocidad todo el tiempo, pero no puedo entender dónde es importante.
Teniendo en cuenta el spread y las comisiones de la bolsa/broker, necesitas pronosticar para un tiempo medido en decenas de minutos u horas. ¿Qué tienen que ver 50 milisegundos de diferencia con esto?
¿Cómo exactamente en la vida real vencer a MQ sobre fxsaber por 5 milisegundos te ayuda?

Como quieras, pero a mí no me importaría ni siquiera un pequeño aumento de velocidad. Tanto en las pruebas / optimización y en el comercio.

 
Renat Fatkhullin #:
Tenga en cuenta que la ejecución nativa de los modelos onnx hace que sea fácil y muy rápido ejecutarlos en el probador y claudnet sin sobrecarga del sistema, lo que es casi imposible con integraciones de terceros.

Es durante las pruebas de estrategia cuando todos esos "qué más da perder 50 ms por llamada" multiplicarán por miles el tiempo de las pruebas.
Me temo que la optimización en la nube no funcionará. El objetivo de la optimización es cambiar los parámetros de TS. Por ejemplo, la selección TP/SL. Cuando se cambian, cambian los datos para el entrenamiento. Es decir, es necesario entrenar el modelo con cada variante de parámetros, y para ello debe instalarse el software de MO (Catbust, red neuronal, etc.). Es poco probable que en la nube alguien tenga instalado el software necesario, de la versión correcta.
.

Así que el entrenamiento sólo se puede hacer en el probador en la máquina del desarrollador.
Y no tiene sentido subir el modelo terminado a la nube.

 
Maxim Kuznetsov #:

Puede ser más sencillo... conectar Redis, obtener RedisAI con soporte PyTorch, ONNX, TensorFlow, y si se desea, distribuir la carga entre nodos y nubes.

Nuestro avión tiene a bordo una piscina, una pista de baile, un restaurante, acogedoras zonas de recreo, un jardín de invierno... Queridos pasajeros, abróchense los cinturones, ahora vamos a intentar despegar con toda esta mierda.

 
Forester #:
Me temo que la optimización en la nube no funcionará. El objetivo de la optimización es cambiar los parámetros del ST. Por ejemplo, la selección TP/SL. Cuando se cambian, cambian los datos para el entrenamiento. Es decir, es necesario entrenar el modelo con cada variante de los parámetros, y para ello debe instalarse el software de MO (Catbust, red neuronal, etc.). Es poco probable que en la nube alguien tenga instalado el software necesario, de la versión correcta.
.

Así que el entrenamiento sólo se puede hacer en el probador en la máquina del desarrollador.
Y no tiene sentido subir el modelo terminado a la nube.

Para ser justos, un modelo no es necesariamente una TS terminada. Por ejemplo, el modelo predice un incremento de precio, y en los parámetros del EA se establece un valor umbral para el incremento predicho, que el EA intenta negociar.

 
Aleksey Nikolayev #:

Nuestro avión tiene a bordo una piscina, una pista de baile, un restaurante, acogedores salones, un jardín de invierno... Queridos pasajeros, abróchense los cinturones, ahora vamos a intentar despegar con toda esta mierda.

IMHO esto es justo sobre el desarrollo actual de MQL. Un intento de meter todo de golpe en lugar de integraciones.

 
Maxim Kuznetsov #:

IMHO esto es justo sobre el desarrollo actual de MQL. Un intento de meter todo a la vez en lugar de integraciones.

+

 
Maxim Kuznetsov #:

IMHO esto es justo sobre el desarrollo actual de MQL. Un intento de meter todo a la vez en lugar de integraciones.

Los caminos para las integraciones siempre han estado abiertos:

  • DLL nativas
  • DLL .NET
  • HTTP/HTTPS
  • Sockets sin procesar
  • Archivos/Pipes
  • SQLite
  • Biblioteca Python


Pero son las integraciones con lenguajes nativos las que permiten escribir aplicaciones completas.

Cuando se trata de ML, hemos trabajado e implementado vectores, matrices y operaciones con ellos como base para el aprendizaje automático:

  • vectores, matrices y operaciones con ellos como base para el aprendizaje automático
  • integración con Python, incluyendo el lanzamiento de programas Python en el terminal como scripts ordinarios
  • uso de modelos ONNX nativos, lo que abre una puerta enorme a la aplicación práctica de neuromodelos

Conseguimos crear soluciones completas y rápidas.

Las palabras sobre "intentar atiborrar" sólo indican una actitud negativa sin justificación racional. Sobre todo porque la disponibilidad de posibilidades no limita al escritor en modo alguno.
 
Stanislav Korotky #:

Dame un enlace a la documentación pertinente, por favor. O no me vengas con patetismos. R es algo monstruoso en sí mismo. Sugieres estudiar una enciclopedia en lugar de una simple respuesta a una pregunta concreta.

Nadie en el mundo estudia una enciclopedia, estudia un artículo concreto. He dado enlaces a un artículo muy concreto. Pero no sólo obtendrás una respuesta a tu pregunta teórica, sino también un código de trabajo.

 

¿Es posible implementar el siguiente esquema en ONNX:

  • recibir el siguiente precio en el terminal
  • pasarlo al modelo
  • entrenar el modelo. Evidentemente, el modelo debe estar en un entorno informático en el que pueda entrenarse.
  • el modelo realiza una previsión para el paso siguiente
  • la previsión recibida se transfiere al terminal