
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Negociación algorítmica en los mercados de productos básicos
Negociación algorítmica en los mercados de productos básicos
Sunil Lani, vicepresidente adjunto de NCDEX (Bolsa Nacional de Productos Básicos y Derivados), aprovecha la oportunidad para profundizar en el mundo del comercio algorítmico en los mercados de productos básicos, centrándose específicamente en los productos básicos agrícolas. NCDEX, siendo la bolsa agrícola más grande de la India, ofrece una amplia gama de aproximadamente 20 productos básicos para el comercio.
Lani comienza presentando los tres estilos comerciales populares comúnmente empleados en los mercados de productos básicos: cobertura, arbitraje y comercio direccional. Destaca la cobertura como una estrategia de inversión utilizada para mitigar el riesgo asociado con una inversión principal. En el contexto de NCDEX, los agricultores a menudo cubren sus activos agrícolas subyacentes para minimizar la exposición al riesgo.
Continuando, el orador cambia la discusión hacia dos tipos de estrategias comerciales que prevalecen en los mercados de productos básicos: cobertura y arbitraje. Lani enfatiza la importancia de los activos subyacentes altamente correlacionados en las estrategias de cobertura. Para el comercio de arbitraje, profundiza en dos enfoques específicos: spread de calendario y comercio de pares, y señala que este último comparte similitudes con las estrategias de cobertura. Lani enfatiza la importancia de seleccionar productos altamente correlacionados y cointegrados para el comercio de pares, sugiriendo la aplicación de la prueba T Fuller para garantizar la validez de las correlaciones.
Además, Lani ofrece una descripción general de las diversas etapas involucradas en el comercio algorítmico. Explica que el proceso comienza con la identificación y el filtrado de scripts o instrumentos apropiados para aplicar el concepto comercial. Posteriormente, se visualiza el modelo, seguido de un riguroso backtesting y optimización de parámetros o del propio modelo. Los siguientes pasos implican el comercio en papel y, finalmente, la transición al comercio en vivo, donde está en juego dinero real.
Continuando con su discusión, Lani se enfoca en los pasos iniciales del comercio algorítmico. Él enfatiza la importancia de intercambiar ideas comerciales y finalizar una lógica comercial que se alinee con los objetivos del comerciante. Las consideraciones clave incluyen determinar la frecuencia de las operaciones, seleccionar el segmento apropiado para operar y establecer los períodos de backtesting. Para ilustrar los desafíos de comprender los datos para las estrategias comerciales, el orador presenta datos sobre la producción interna bruta (PIB) de la India en varios sectores. Convierte los datos en representaciones gráficas, lo que facilita una mejor comprensión y sugiere examinar las correlaciones con los movimientos de precios. Además, Lani muestra representaciones visuales de datos agrícolas históricos, enfatizando la importancia de analizar datos desde múltiples perspectivas.
El orador procede a discutir los recursos necesarios para el comercio algorítmico en los mercados de productos básicos. Clasifica las estrategias comerciales en dos áreas principales: arbitraje e impulso. Se emplean comúnmente técnicas como el comercio de pares, el análisis de correlación, los promedios móviles y la distribución de probabilidad. La infraestructura es un aspecto crucial del comercio algorítmico, incluida la conectividad con un corredor a través de una API y el alojamiento del algoritmo en la nube o en las instalaciones. Lani también destaca la importancia de la visualización de datos y los indicadores técnicos, que se pueden lograr con herramientas como Excel, Tableau, Power BI y TradingView.
Lani explora más a fondo varias herramientas y plataformas adecuadas para el comercio algorítmico en los mercados de productos básicos. Menciona que los no programadores o los semiprogramadores suelen optar por plataformas como Metatrader e Interactive Brokers. Para propósitos de programación pura, Python emerge como el lenguaje líder, con plataformas de comercio algorítmico basadas en Python como Quantopian, Blueshift, QuanTX y Zerodha ganando popularidad. Además, el orador destaca las bibliotecas esenciales para el procesamiento de datos y las pruebas retrospectivas, incluidas Pandas, Numpy, Beautifulsoup, Backtrader, así como bibliotecas de análisis de sentimientos como Stream Python, Feedparser, Peopie y NLP.
En el segmento subsiguiente, Lani explica el proceso de generar una idea comercial y diseñar un modelo utilizando productos básicos agrícolas como ejemplo. Dado que las materias primas agrícolas tienden a ser menos volátiles que las acciones o el Forex, propone aplicar una estrategia de reversión a la media utilizando como indicador las Bandas de Bollinger, específicamente establecidas en dos desviaciones estándar del rango de precio medio. Los criterios de filtrado para seleccionar un producto líquido implican elegir uno con un volumen de al menos 1080, y Lani recomienda operar con Jana en el NCDX. Para visualizar el modelo, Lani sugiere utilizar la página de inversión.com para dibujar las Bandas de Bollinger, con diferentes niveles que indican los puntos de compra y venta.
Cambiando el enfoque a backtesting, Lani enfatiza su importancia en la verificación de la lógica de un modelo de comercio algorítmico utilizando datos históricos. Este paso es crucial para evitar posibles pérdidas cuando el modelo se implementa en un entorno real. Lani explica los pasos involucrados en el backtesting, que incluyen descargar datos de un portal abierto, importar bibliotecas relevantes, escribir funciones de soporte, generar señales de compra y venta, visualizar el resultado y evaluar el retorno generado por la estrategia. También sugiere considerar parámetros como la rentabilidad, la reducción máxima, la ganancia máxima y el stop-loss durante el proceso de backtesting. Lani aconseja utilizar funciones de backtesting personales en lugar de depender únicamente de bibliotecas obtenidas de plataformas como Github.
El orador procede a explicar los diversos parámetros que toma una función para generar señales de compra y venta basadas en marcos de datos, tipos de estrategia, criterios de entrada y salida y alimentación posicional. Los comerciantes pueden configurar el precio de apertura o cierre para sus cálculos, así como establecer porcentajes de stop-loss y objetivos. Lani también analiza una función de informes estadísticos y otra función que crea niveles utilizando la desviación estándar para un indicador elegido. Finalmente, la función principal invoca estas otras funciones para devolver señales de compra y venta basadas en la estrategia elegida y generar un resumen.
En el futuro, Lani demuestra cómo generar informes de backtesting comerciales utilizando la habilidad posicional de práctica de BV. La salida incluye un marco de datos que contiene todas las operaciones, los cargos de transacción y los márgenes de deslizamiento. Se invoca la función de backtesting y se generan los informes. Estos informes proporcionan estadísticas y representaciones gráficas de la salida, mostrando los rendimientos porcentuales, los detalles de la transacción y los rendimientos acumulados durante un período de tiempo específico. Lani analiza el informe y sugiere establecer un stop-loss en torno a -1,5 para evitar pérdidas superiores al -2% o al -3%. El beneficio máximo obtenido de los resultados del backtesting fue del 8%, lo que indica que el stop-loss se puede fijar en un máximo del 8% o del 9%.
Luego, el orador analiza el proceso de optimización de un algoritmo. Lani explica que un enfoque de la optimización consiste en crear otro algoritmo que ejecute el algoritmo original varias veces utilizando diferentes conjuntos de parámetros. Para ilustrar esto, proporciona un ejemplo en el que se optimiza el período retrospectivo para un período retroactivo. Al crear una lista de varios valores para el período retrospectivo y utilizar una función de combinación, se puede generar una lista completa de todos los conjuntos de parámetros. Lani enfatiza la importancia de optimizar los algoritmos para mejorar su desempeño en los mercados de productos básicos.
Continuando con la discusión sobre la optimización, Lani explica el proceso de usar tres listas para evaluar cada par a través del método del codo con diferentes parámetros para el backtesting. Los resultados del backtesting se almacenan en un marco de datos llamado DF Optimizer, lo que permite identificar la combinación que produce los máximos rendimientos. Las variables optimizadas luego se almacenan en el rol optimizado. Lani advierte contra el sobreajuste de los datos durante el proceso de optimización y destaca la importancia de ejecutar los mismos parámetros en el próximo período para garantizar su precisión. Finalmente, el orador descarga el informe para examinar los resultados.
Lani procede a presentar el código utilizado para optimizar los parámetros comerciales y comparte las estadísticas resultantes, incluidos los rendimientos, los rendimientos medios, la reducción máxima y la relación entre ganancias y pérdidas. Los parámetros optimizados dieron como resultado un rendimiento del 22,8 %, una mejora significativa en comparación con el 9 % logrado con la combinación de parámetros anterior. Lani subraya la importancia del comercio en papel para probar algoritmos sin arriesgar dinero real y enfatiza la necesidad de diversificación, gestión de cartera y gestión de riesgos al hacer la transición al comercio en vivo. Concluye señalando las similitudes entre el proceso de desarrollo del comercio algorítmico y el ciclo de vida del desarrollo del producto de software, enfatizando la importancia de ejecutar todas las etapas con diligencia para garantizar el éxito del proyecto.
Predecir tendencias en los mercados bursátiles utilizando la programación AI y Python
Predecir tendencias en los mercados bursátiles utilizando la programación AI y Python
Esta sesión de seminario web ofrece un tutorial de aprendizaje práctico centrado en predecir tendencias utilizando IA en el mercado de valores. Los participantes participarán activamente en la creación de un modelo de árbol de clasificación utilizando un Jupyter Notebook. El objetivo principal es desarrollar un árbol de clasificación que pueda servir como una herramienta para establecer reglas comerciales basadas en los rendimientos futuros positivos o negativos anticipados.
La utilización de un modelo de árbol de decisiones en el comercio es una técnica esencial de aprendizaje automático que proporciona una experiencia de aprendizaje inmersiva e interactiva. Durante la sesión, los asistentes tendrán la oportunidad de trabajar directamente en un cuaderno de Python junto con un instructor.
El seminario web tiene como objetivo cubrir las siguientes áreas clave:
La sesión grabada profundiza en cómo se puede aprovechar el modelo de árbol de decisiones en el comercio para extraer reglas comerciales valiosas. Estas reglas sirven como base para tomar decisiones informadas sobre cuándo comprar o vender valores.
A lo largo del vídeo, los participantes adquirirán conocimientos sobre:
Para beneficiarse plenamente de este seminario web, los asistentes deben poseer:
En cuanto a las variables, las variables predictoras en este contexto se refieren a los indicadores técnicos empleados para predecir las tendencias del mercado. Por otro lado, la variable objetivo significa la tendencia esperada para el día siguiente, específicamente si será positiva o negativa.
Estrategias cuantitativas de gestión de carteras Por Prodipta Ghosh - 23 de julio de 2019
Estrategias cuantitativas de gestión de carteras Por Prodipta Ghosh - 23 de julio de 2019
Prodipta Ghosh, vicepresidente de Quantitative Portfolio Management, enfatiza que no existe una estrategia única para el comercio de acciones debido a la presencia de incertidumbres en los mercados financieros, la naturaleza dinámica del mercado a lo largo del tiempo y la variedad de objetivos. y apetitos de riesgo de los individuos. Destaca que incluso con una visión o modelo perfecto del mundo, sería imposible dar respuestas a las preguntas de los comerciantes, ya que cada persona opera dentro de un contexto único. Por lo tanto, no existe una estrategia perfecta para nadie en el mundo.
Durante su presentación, Prodipta Ghosh profundiza en cuatro estrategias cuantitativas de gestión de carteras. Estas estrategias incluyen la utilización de Bandas de Bollinger, el empleo de una estrategia de cruce de promedio móvil simple, el análisis del patrón de velas japonesas doji y la incorporación del Índice de Fuerza Relativa (RSI). Si bien un índice de Sharpe alto teóricamente puede sugerir la mejor estrategia, el rendimiento pasado no siempre puede garantizar resultados futuros. Por lo tanto, es crucial construir una cartera que abarque diversas estrategias y activos para mitigar el riesgo y evitar reducciones significativas. Ghosh demuestra los beneficios de asignar capital por igual a las cuatro estrategias, mostrando cómo una cartera diversificada puede resistir la volatilidad del mercado y evitar pérdidas sustanciales.
Prodipta Ghosh proporciona una explicación de los fundamentos de la gestión de carteras y la distingue de invertir en una sola acción. La gestión de cartera implica desarrollar una estrategia para múltiples estrategias o activos, teniendo en cuenta los riesgos, las incertidumbres, el paso del tiempo y los contextos específicos. El valor de una estrategia se deriva de los rendimientos subyacentes multiplicados por posiciones, mientras que el valor de la cartera está determinado por el flujo ponderado de rendimientos subyacentes. Para optimizar la gestión de la cartera, se resuelve un problema matemático definiendo una función U que depende del valor de la cartera P y encontrando los pesos W que maximizan U. Diferentes estrategias de optimización, como la optimización de la varianza media, la optimización de Kelly y la penalización por riesgo optimización, se puede emplear en función de cómo se define U y el enfoque de optimización.
El orador procede a discutir las estrategias de gestión de carteras cuantitativas y el papel de los problemas de optimización en el proceso. Explora las diversas restricciones que se pueden especificar en un problema de optimización, como limitar el rango de una cartera y los tipos de carteras que se pueden construir, incluidas las basadas en estrategias alfa, carteras de factores o colecciones de acciones individuales. El objetivo es definir una condición de maximización que resulte en una cartera con valor máximo o función del valor de la cartera. Además, el disertante aborda la cuestión de si una cartera igualmente ponderada es razonable, lo que depende de circunstancias específicas y puede verse como un problema de optimización con una penalización en el cuadrado de los errores.
Prodipta Ghosh profundiza en el concepto de riesgo y utilidad en la gestión de carteras, destacando los desafíos en la estimación de los rendimientos y riesgos esperados. Introduce la teoría moderna de la cartera y la utilidad cuadrática como enfoques para maximizar los rendimientos y minimizar el riesgo. El orador emplea el ejemplo de la paradoja de San Pittsburgh para ilustrar cómo la toma de decisiones humanas puede desviarse de los promedios matemáticos.
La relación entre utilidad y riesgo es explicada por Prodipta Ghosh, quien enfatiza su importancia en la construcción de una cartera sólida. Demuestra el concepto de prima de riesgo, que cuantifica la diferencia entre el pago o retorno esperado de una inversión riesgosa y la cantidad que un individuo está dispuesto a aceptar por un pago determinado. Además, explica que una función de utilidad es una representación matemática de la riqueza que informa cuánto se valora un dólar adicional, lo que ayuda a determinar las cantidades apropiadas para invertir. Comprender la interacción entre la utilidad y el riesgo permite a los inversores desarrollar carteras que logren un equilibrio entre el riesgo y la rentabilidad.
El ponente analiza la noción de aversión al riesgo en la inversión, lo que sugiere que los inversores prefieren ciertas inversiones a aquellas con rendimientos fluctuantes. La aversión al riesgo sirve como un supuesto común en la gestión cuantitativa de carteras, con la prima de riesgo representada por la letra griega Pi. Esta prima denota la cantidad que un inversor está dispuesto a pagar para aceptar un rendimiento fluctuante de media cero. Luego, el orador explica la función de utilidad cuadrática y cómo conduce a la optimización de la media y la varianza de una cartera. La construcción de una cartera basada en la Teoría Moderna de la Cartera implica encontrar un equilibrio entre la media y la varianza de la cartera.
Prodipta Ghosh procede a explicar el proceso de optimización de la utilidad esperada de la cartera logrando un equilibrio entre la media y la varianza. Utiliza Excel para simular rendimientos de diferentes activos y calcula la matriz de covarianza, que luego se utiliza para determinar los rendimientos, la varianza y el riesgo de la cartera en función de diferentes ponderaciones. Al variar los pesos y calcular el rendimiento y la varianza de la cartera para todos los escenarios posibles, se puede resolver un problema de optimización. El gráfico resultante muestra la relación de Sharpe, que representa la relación entre el rendimiento y el riesgo, para cada conjunto de ponderaciones.
A continuación, Prodipta Ghosh introduce el concepto de fronteras eficientes en la teoría moderna de carteras. Él describe la frontera eficiente como el rango en el que debe estar una cartera para lograr la máxima rentabilidad en función de una determinada tolerancia al riesgo. Explica además que la adición de un activo de bajo riesgo, como un activo libre de riesgo, agrega una dimensión interesante al concepto. El índice de Sharpe más alto se identifica a partir de la cartera tangente, que es la cartera formada por la combinación del activo libre de riesgo con la frontera eficiente. La línea que conecta el cero con la cartera tangente se denomina línea de mercado y presenta una opción entre invertir en la cartera de mercado u optar por un activo libre de riesgo al definir la asignación.
Prodipta Ghosh profundiza en el Modelo de fijación de precios de activos de capital (CAPM), que cambia la perspectiva del riesgo en las finanzas al medirlo como una contribución a la cartera de mercado en lugar de un riesgo independiente. CAPM captura la tasa de rendimiento requerida para un activo riesgoso, calculada como la tasa libre de riesgo más una contribución a la cartera de mercado en términos de riesgo multiplicada por la diferencia entre el rendimiento de mercado y el rendimiento libre de riesgo. Este concepto proporciona una base teórica para la inversión en valor. A través de varios modelos, como el flujo de efectivo descontado y los modelos de compresión, los inversores pueden estimar un precio justo utilizando CAPM y capitalizar una mejor comprensión del riesgo idiosincrático.
El orador analiza varias estrategias de gestión de carteras, con un enfoque específico en la inversión de factores. La inversión factorial implica considerar múltiples factores de riesgo, más allá del riesgo de mercado, al construir una cartera. Cada factor conlleva una prima asociada, lo que lleva a diferentes estilos de inversión, incluida la asignación de factores, el momento de los factores o una inversión de retorno al valor y la selección de acciones. La inversión factorial ayuda a explicar el riesgo idiosincrático y proporciona una nueva interpretación de alfa y beta, donde alfa y beta se convierten en el alfa total si el delta F en la ecuación es invariable en el tiempo y positivo.
Prodipta Ghosh destaca las principales diferencias entre la inversión en valor y la inversión en factores y considera qué enfoque tiene más sentido para los comerciantes minoristas. Señala que la inversión en valor requiere una investigación exhaustiva sobre empresas individuales y, a menudo, implica una concentración en el riesgo idiosincrásico, lo que puede no ser adecuado para los comerciantes minoristas a pequeña escala. Por otro lado, la inversión factorial implica investigar los impulsores de riesgo del mercado y aprovecharlos sistemáticamente para asignar inversiones en función de los rendimientos esperados. El orador aborda brevemente las distinciones entre la investigación discrecional y la cuantitativa, afirmando que la gestión cuantitativa puede ofrecer más oportunidades de rendimiento superior si se utiliza correctamente.
El orador compara a los inversores de valor con los estrategas cuantitativos, y señala que, si bien los inversores de valor tienen una menor probabilidad de éxito, tienen el potencial de generar rendimientos sustanciales. Los estrategas cuantitativos, por otro lado, tienen una mayor probabilidad de éxito pero generan rendimientos relativamente más bajos pero consistentes. La ley fundamental de la inversión describe el índice de información como el índice de rendimiento superior dividido por el riesgo de la cartera, igualándolo al coeficiente de información o nivel de habilidad multiplicado por la raíz cuadrada de n, donde n representa el número de apuestas independientes que se pueden realizar. Los inversores cuantitativos pueden tener un mayor número de n, lo que les permite optimizar una cartera de factores. Ghosh también elabora otros métodos de optimización, como las optimizaciones KD o las optimizaciones de paridad de riesgo, cuyo objetivo es maximizar la riqueza terminal durante múltiples períodos mediante la acumulación de riqueza.
Prodipta Ghosh pasa a analizar la estrategia de cartera de Kelly, enfatizando su dominio a largo plazo debido a su enfoque en maximizar la riqueza final. Sin embargo, advierte que la estrategia de Kelly también es la más agresiva en términos de riesgo y puede no ser adecuada para jubilados o personas que no pueden permitirse riesgos a corto plazo. Explica además la estrategia de paridad de riesgos, que tiene como objetivo igualar las contribuciones de riesgo individuales y garantiza que la suma de los riesgos de todos los activos permanezca equilibrada. Si bien no existe una justificación teórica para este enfoque, se considera una asignación sensata del riesgo. Al decidir entre la estrategia de Kelly, la paridad de riesgo y la optimización de la varianza media, se debe considerar su apetito por el riesgo y la precisión de su modelado, que se puede mejorar a través del modelado de factores. En última instancia, estas estrategias giran en torno al equilibrio entre riesgo y rendimiento, con un fuerte énfasis en medir y gestionar el riesgo de manera efectiva.
Prodipta Ghosh procede a discutir el tema de las estrategias alfa y cómo combinarlas para crear una cartera completa. Si bien las optimizaciones de varianza media se pueden emplear para las estrategias alfa, se encuentran con un problema en el que toda la asignación en la cartera se destina a una única y mejor estrategia basada únicamente en datos históricos. Para abordar esta preocupación, Ghosh introduce el concepto de estrategias dentro de la muestra, donde todas las estrategias reciben el mismo voto. Otro enfoque es la cartera de cambio de arrepentimiento, que emplea técnicas de análisis de cambios como modelos ocultos de Markov o análisis de puntos de cambio para asignar capital entre diferentes estrategias alfa. Una técnica notable es el enfoque sin arrepentimiento, que aborda el problema de exploración versus explotación explorando sistemáticamente cada estrategia alfa para identificar la que tiene el mayor potencial antes de invertir fuertemente en ella.
Prodipta Ghosh destaca que existen numerosos recursos disponibles para una mayor exploración de la optimización de la cartera, incluidas plataformas como Wikipedia y el curso recientemente lanzado de Contra sobre gestión cuantitativa de la cartera. Menciona varias oportunidades de aprendizaje y crecimiento en la industria a través de los programas de Contra, como su portal interactivo de aprendizaje a su propio ritmo y Blue Shift, que ofrece pruebas retrospectivas gratuitas. Ghosh expresa su agradecimiento a la audiencia por su participación y los alienta a visitar el sitio web de Contra para obtener información y recursos adicionales.
Comercio algorítmico | ¿Es adecuado para usted y cómo empezar?
Comercio algorítmico | ¿Es adecuado para usted y cómo empezar?
Damas y caballeros, me gustaría presentarles a Nathan, el cofundador de Elle Foam Advisory, quien compartirá información valiosa sobre el fascinante mundo del comercio algorítmico. Nathan comienza su presentación definiendo el comercio algorítmico y destacando su importancia en la industria financiera. Explica que el comercio algorítmico implica el uso de algoritmos informáticos para ejecutar operaciones automáticamente y desempeña un papel crucial en los mercados modernos.
Nathan continúa discutiendo la naturaleza evolutiva del comercio algorítmico y cómo su definición puede variar según la ubicación geográfica y los marcos regulatorios. En los Estados Unidos, cualquier forma de negociación sistemática cae bajo el paraguas de la negociación algorítmica. Sin embargo, en otras regiones, se considera específicamente negociación algorítmica cuando los algoritmos informáticos determinan de forma autónoma los parámetros de las órdenes. Esta distinción enfatiza los diversos enfoques y perspectivas dentro del campo.
Luego, el orador procede a arrojar luz sobre las tendencias actuales de la industria en el comercio algorítmico. Destaca la creciente prevalencia de comerciantes de bricolaje (hágalo usted mismo) que utilizan estrategias algorítmicas. Además, Nathan presenta datos que demuestran el importante crecimiento de la cuota de mercado del comercio algorítmico en Asia, Estados Unidos e India. A pesar de este crecimiento, reconoce que la participación minorista en el comercio algorítmico sigue siendo relativamente baja y promete explicar este fenómeno en las próximas diapositivas.
En el futuro, Nathan explora el impacto del comercio algorítmico en el mercado laboral. Explica cómo la automatización está reemplazando a los comerciantes humanos, y las empresas ahora buscan codificadores para desarrollar estrategias comerciales sofisticadas y aprovechar el poder de las máquinas. El orador enfatiza cuatro ventajas clave del comercio de máquinas sobre el comercio humano: tiempo de actividad, tiempo de reacción, escalabilidad y la capacidad de aprender y mejorar. Las máquinas pueden monitorear continuamente los riesgos, ejecutar transacciones rápidamente, adaptarse a los cambios del mercado de manera eficiente y aprender de sus experiencias de manera más efectiva que los comerciantes humanos.
Al abordar la baja participación minorista en el comercio algorítmico, Nathan describe varias razones para esta discrepancia. En primer lugar, el comercio algorítmico requiere una combinación de conocimientos técnicos, incluida la codificación y las estadísticas, con una sólida comprensión de las finanzas y la dinámica del mercado. En segundo lugar, el acceso a datos de mercado relevantes es crucial para realizar pruebas retrospectivas y desarrollar estrategias sólidas. Por último, la transición del comercio manual al comercio algorítmico puede ser un desafío sin la guía de profesionales del mercado experimentados que poseen experiencia práctica en el campo. A pesar de estos obstáculos, Nathan destaca los beneficios innegables del comercio algorítmico, como la escalabilidad, la gestión eficaz del riesgo y la eliminación del error humano, lo que lo convierte en una opción atractiva para los comerciantes.
Luego, Nathan presenta a la audiencia el curso EPAct ofrecido por Point Density. Habla de la dificultad de encontrar una plataforma que brinde soporte integral para el comercio algorítmico, que abarque la orientación de los profesionales del mercado, el conocimiento técnico y el contenido actualizado. El curso EPAct tiene como objetivo cerrar esta brecha al ofrecer contenido rico creado por profesionales de la industria que se actualiza continuamente para reflejar las últimas tendencias. El curso también brinda apoyo dedicado por parte de la facultad y adopta un enfoque orientado al mercado, lo que lo convierte en un recurso ideal tanto para principiantes que se aventuran en el comercio algorítmico como para aquellos que buscan avanzar en sus carreras en este campo.
Profundizando en el contenido del curso, Nathan describe los módulos cubiertos en el programa de comercio algorítmico. El curso comienza con un módulo básico que establece una base con estadísticas básicas, teoría de probabilidad y la aplicación de modelos financieros. Luego avanza para cubrir los conceptos básicos de Python y las estadísticas avanzadas, incluidos los modelos gaussianos utilizados para comprender estrategias complejas. El curso también incluye sesiones sobre la creación de currículums, la creación de una mesa de negociación personal y la realización de entrevistas simuladas para ubicaciones en más de 100 empresas asociadas. A lo largo del curso, el instructor brinda asistencia personal a los estudiantes, asegurándose de que cualquier pregunta o dificultad se aborde con prontitud. Además, unirse al curso de EPAct otorga beneficios exclusivos, incluido el acceso a eventos y funciones de la comunidad, que se analizarán con más detalle en las próximas secciones.
Continuando con su presentación, Nathan se sumerge en los detalles de cada módulo dentro del curso de comercio algorítmico. El curso comienza con el módulo de bloques de construcción, sentando las bases para comprender los efectos de equidad y las estrategias futuras. Los estudiantes participan en ejercicios prácticos para crear diversas estrategias comerciales. Luego, el programa profundiza en la microestructura y las implementaciones del mercado, explorando las complejidades de las ideas de prueba retrospectiva en datos históricos utilizando diferentes API y corredores. El aprendizaje automático también se presenta como un campo emergente dentro del comercio algorítmico. Se enfatiza la importancia de las operaciones comerciales y frontales, con un módulo dedicado que se enfoca en configurar una infraestructura comercial algorítmica. El curso también cubre el comercio de opciones, la optimización de carteras y la gestión de riesgos. Finalmente, los estudiantes emprenden un proyecto y, al aprobar con éxito el examen, reciben un certificado verificado que valida su experiencia en el comercio algorítmico.
Luego, Nathan dirige la atención de la audiencia al programa Algorithmic Trading ofrecido por QuantInsti. Destaca que al finalizar el programa, los participantes reciben un certificado de impacto verificado después de completar un curso integral de más de 300 horas. La facultad incluye profesionales de renombre en la industria que son accesibles y brindan experiencia práctica en diferentes clases de activos y roles. El curso cubre varios aspectos que van desde la preparación de CV hasta proporcionar acceso a API y redes de corredores para una implementación perfecta. Además, el equipo de QuantInsti ayuda a los participantes con oportunidades de recaudación de fondos, lo que lo convierte en una opción ideal para aquellos que buscan una educación integral en el comercio algorítmico.
Después de la discusión de Nathan, Nadine sube al escenario para informar a la audiencia sobre los beneficios de ser parte de la comunidad EPAT. Ella enfatiza la orientación de por vida disponible para los miembros de la comunidad, así como la oportunidad de conectarse con compañeros de estudios de más de 165 países. Eventos y sesiones exclusivos, acceso gratuito y subvencionado a corredores y acceso a herramientas de backtesting como BlueShift se encuentran entre los privilegios de la comunidad. Además, EPAT agrega una dimensión cuantitativa fundamental al conjunto de habilidades existentes de un individuo, mejorando su perfil profesional. En particular, el programa EPAT está reconocido bajo el esquema de capacitación financiera, y los profesionales que trabajan en Singapur pueden beneficiarse de un reembolso de 2000 dólares singapurenses.
Al concluir la presentación, Ben Magnano comparte su viaje personal en el comercio algorítmico. Relata sus primeros problemas con el comercio diario en 2005 hasta que encontró QuantInsti, donde recibió una formación rigurosa en los fundamentos del comercio algorítmico y cuantitativo. Ben destaca la importancia de aprender Python y poder escribir sus propios programas, y finalmente obtener su certificado como comerciante cuantitativo. Este logro le abrió las puertas y lo llevó a una oportunidad como consultor de investigación en WorldQuant, donde continúa refinando sus habilidades de codificación y manteniéndose actualizado con las últimas tendencias de la industria, como la inteligencia artificial.
En los momentos finales del video, el orador reconoce el tremendo crecimiento en el comercio algorítmico y cómo es cada vez más preferido por los comerciantes que buscan minimizar la necesidad de un monitoreo constante. El orador expresa su gratitud por el análisis excepcional proporcionado por los presentadores, reconociendo las valiosas ideas compartidas a lo largo de la presentación. Cuando concluye el video, el orador resume el programa ePAD, diseñado para equipar a los participantes con habilidades listas para la industria en el dominio cuantitativo y FinTech, asegurando que estén bien preparados para prosperar en el campo del comercio algorítmico.
Modelos de riesgo para operaciones cuantitativas Por Zura Kakushadze - 16 de mayo de 2019
Modelos de riesgo para operaciones cuantitativas Por Zura Kakushadze - 16 de mayo de 2019
Zura Kakushadze, en su discusión, se centra en los desafíos asociados con el cálculo de la inversa de la matriz de covarianza para optimizar carteras de 2000 acciones estadounidenses. Destaca que cuando el número de observaciones en la serie temporal de rendimientos es menor que el número de acciones en la cartera, la matriz de covarianza de la muestra se vuelve singular y no se puede invertir. Incluso si no fuera singular, los elementos fuera de la diagonal que representan las correlaciones serían muy inestables fuera de la muestra, a menos que haya un número significativamente mayor de observaciones en comparación con las existencias, lo que no suele ser el caso en las aplicaciones de la vida real.
Kakushadze explica que los modelos de riesgo para estrategias comerciales cuantitativas difieren de los modelos de riesgo tradicionales debido a períodos de tenencia más cortos y alfas efímeras. No son deseables largos periodos retrospectivos para estas estrategias, y se requieren métodos alternativos para calcular la matriz de covarianza. Un enfoque común es utilizar un modelo de factores que descomponga el riesgo en riesgo de factores y riesgo específico. La ventaja del modelo factorial es que representa la matriz de covarianza grande por una matriz de covarianza factorial mucho más pequeña, lo que lo hace computacionalmente eficiente. Sin embargo, Kakushadze señala que todavía hay detalles intrincados que deben abordarse en el modelo factorial.
El orador analiza más a fondo los desafíos asociados con el cálculo de la volatilidad de cada acción y sugiere centrarse en la matriz de correlación de muestra en lugar de la matriz de covarianza de muestra. Se prefiere la matriz de correlación de muestra debido a problemas como la singularidad, la inestabilidad y otras preocupaciones asociadas con la matriz de covarianza. Kakushadze propone factorizar las varianzas sesgadas y usar un modelo factorial para la matriz de correlación en lugar de la matriz de covarianza. Surge la cuestión de determinar los factores de riesgo y se sugieren dos posibilidades: usar los componentes principales de la matriz de correlación de la muestra o emplear factores de estilo como el tamaño, el impulso y la volatilidad.
Se exploran diferentes tipos de factores de riesgo adecuados para el comercio cuantitativo, incluidos los factores de estilo y las clasificaciones de la industria. El orador destaca la importancia de utilizar factores de horizonte corto que sean relevantes para el comercio y excluir los factores de horizonte más largo. También se discute el riesgo de neutralizar inadvertidamente los factores alfa deseables en el modelo de riesgo, enfatizando la necesidad de una cuidadosa selección y ponderación de los factores de riesgo.
Kakushadze explica que los modelos de riesgo estandarizados comprados a los proveedores no pueden eliminar los factores de riesgo indeseables o cubrir todas las direcciones relevantes del espacio de riesgo de un comerciante. Por lo tanto, el orador sugiere construir un modelo de riesgo personalizado desde cero. Un enfoque consiste en utilizar modelos estadísticos de riesgo, que implican tomar una serie temporal de rendimientos con un período retrospectivo limitado y crear cargas factoriales basadas en los componentes principales de la matriz de correlación de la muestra.
Se introduce el concepto de rango efectivo como una forma de determinar el número de componentes principales a utilizar como factores de riesgo. El rango efectivo mide la dimensionalidad efectiva de una matriz y se puede calcular utilizando la entropía espectral. Sin embargo, los modelos estadísticos de riesgo tienen limitaciones en cuanto al número de factores de riesgo, ya que está limitado por el número de observaciones, lo que da como resultado una cobertura limitada del espacio de riesgo. La inestabilidad de los componentes principales más altos fuera de la muestra también es motivo de preocupación.
Se analiza la inestabilidad de las correlaciones por pares fuera de la muestra y los elementos fuera de la diagonal en la matriz de correlación. Kakushadze explica que los componentes principales superiores calculados a partir de una matriz de correlación inestable se actualizan con frecuencia y son inestables, mientras que el primer componente principal tiende a ser relativamente estable. El orador también profundiza en la definición de factores de estilo adecuados para estrategias de tenencia más cortas y sugiere eliminar las correlaciones estadísticamente insignificantes, como las acciones en circulación, de las estrategias de negociación intradía.
Se analizan cuatro factores comunes utilizados en los modelos de comercio cuantitativo de horizonte corto: dirección (impulso), volatilidad, liquidez y precio. Kakushadze explica cómo se define cada factor y cómo se pueden calcular los rendimientos de los factores mediante una regresión transversal. El cálculo del índice de Sharpe anualizado para el rendimiento de cada factor se enfatiza al determinar su relevancia estadística y su idoneidad para las estrategias comerciales.
El disertante pasa a probar y verificar las cargas factoriales y la efectividad de los factores de estilo en el modelado de riesgo. Como una forma de probar las cargas factoriales, se sugiere realizar pruebas retroactivas en operaciones intradía o operaciones alfa más cortas en residuales después de eliminar los rendimientos históricos utilizando las cargas factoriales. Se destaca el valor de los grandes sectores en comparación con los factores de estilo, incluso en el nivel menos granular. Se recomienda construir modelos de riesgo basados en industrias o subindustrias utilizando clasificaciones industriales fundamentales, ya que cubren una porción más grande del espacio de riesgo. La estabilidad del primer componente principal fuera de la muestra afecta la efectividad de estos modelos de riesgo.
Se analiza la construcción de una matriz de cargas factoriales para un gran número de subindustrias y se proponen como solución clasificaciones jerárquicas de la industria. Este enfoque implica modelar subindustrias primero y luego usar el siguiente nivel granular de industrias para modelar los factores de riesgo, continuando hasta que el problema se reduzca a una matriz más pequeña que pueda calcularse correctamente.
Se explica el proceso de reducción de problemas paso a paso para calcular modelos de riesgo para operaciones cuantitativas. Al calcular inicialmente una matriz de cargas factoriales de un tamaño más pequeño, como 10 por 10, para la matriz de covarianza de la muestra, Kakushadze construye un modelo de un factor para el factor restante, que es el mercado. Esto reduce el problema de una matriz grande a una más pequeña. Se sugiere incluir factores de estilo en esta construcción, pero su contribución puede ser limitada en comparación con una mayor cantidad de factores de riesgo de varias industrias. Los factores de estilo pueden no ser sustitutos ideales para modelar correlaciones entre acciones.
Se explica la importancia de incluir un intercepto en el proceso de normalización de los factores de estilo. El ponente aclara que el logaritmo del precio, normalmente utilizado como factor de estilo, es en realidad el logaritmo del precio dividido por un factor de normalización. El factor de normalización es empírico y se puede personalizar según las preferencias del comerciante. Si bien los factores basados en la industria tienden a ser indicadores indirectos confiables para modelar las correlaciones, las combinaciones bilineales de factores de estilo se consideran indicadores indirectos deficientes. Por lo tanto, se recomienda a los comerciantes que se concentren en los factores basados en la industria y personalicen sus modelos de acuerdo con su estilo comercial y alfas comerciales cuantitativos.
El orador presenta el concepto de heterosis, que combina ideas poderosas como modelos de factores, clasificaciones de la industria y componentes principales en una construcción que puede ser muy efectiva en el modelado de riesgos. Las técnicas de agrupamiento también se analizan como una forma de construir factores de riesgo utilizando esquemas de agrupamiento de múltiples niveles que pueden reemplazar las clasificaciones fundamentales de la industria. Sin embargo, los algoritmos de agrupamiento no deterministas pueden producir diferentes agrupamientos cada vez que se ejecutan, lo que genera ruido en el sistema. Para reducir el ruido, se puede promediar una gran cantidad de agrupaciones o se pueden emplear otras técnicas como la reducción de la dimensionalidad o el análisis de componentes principales.
Se exploran diferentes enfoques para la agrupación en modelos de riesgo comercial cuantitativo. El orador explica que, si bien el agrupamiento de k-medias puede ser no determinista, las alternativas deterministas, como el agrupamiento jerárquico, pueden ser subjetivas y más lentas. El ponente sugiere utilizar los propios modelos de riesgo para la agregación en lugar de confiar únicamente en la agrupación. En el caso de k-medias, la naturaleza no determinista surge de la inicialización de los centros de conglomerados, pero no siempre es necesario encontrar el mínimo global. Para mejorar el enfoque ingenuo de utilizar rendimientos históricos, se propone normalizar los rendimientos frente a las volatilidades históricas.
Se analizan la normalización de clústeres y el agrupamiento multinivel para el comercio cuantitativo. Se recomienda realizar la agrupación dividiendo los rendimientos por la varianza en lugar de normalizar los rendimientos con dos desviaciones estándar para optimizar las carteras y mejorar el rendimiento. Se presentan dos enfoques para la agrupación en clústeres de varios niveles: ascendente, donde se crea primero el nivel más granular, seguido de la agrupación de clústeres sucesivamente, y descendente, donde se crea primero el nivel menos granular, seguido de la agrupación de tickers sucesivamente. Los algoritmos no deterministas, como los algoritmos jerárquicos, no son ventajosos en términos de rendimiento en comparación con los algoritmos deterministas, y el orador sugiere utilizar técnicas de agrupación y agregación.
El disertante aborda el tema de determinar el número de clusters en modelos de riesgo basados en clustering. Se mencionan métodos tradicionales como el método del codo o el análisis de la silueta, pero es posible que no siempre brinden resultados confiables. En su lugar, el orador sugiere utilizar el análisis de estabilidad, que implica crear múltiples soluciones de agrupamiento y medir la estabilidad de los agrupamientos resultantes. La estabilidad se puede evaluar utilizando técnicas como la estabilidad de pares de clústeres o la estabilidad de arranque.
Kakushadze enfatiza la importancia de la estabilidad en los modelos de riesgo basados en agrupaciones, ya que las agrupaciones inestables pueden conducir a estimaciones de riesgo poco confiables. Sugiere que los clústeres estables deberían usarse para el modelado de riesgos, mientras que los clústeres inestables deberían descartarse o combinarse con otros clústeres para mejorar la estabilidad. El ponente también menciona el uso de técnicas de aprendizaje automático, como el agrupamiento jerárquico utilizando algoritmos de aprendizaje automático, como alternativa a los métodos tradicionales de agrupamiento.
Luego, la discusión pasa a la construcción de modelos de riesgo basados en los clústeres seleccionados. El disertante propone utilizar la matriz de correlación muestral dentro de cada conglomerado para estimar las cargas factoriales. Al descomponer la matriz de correlación muestral de cada conglomerado en sus valores propios y vectores propios, se pueden obtener las cargas factoriales. La matriz de cargas factoriales para todo el portafolio se puede construir luego combinando las cargas factoriales de cada conglomerado.
El ponente destaca la importancia de normalizar adecuadamente las cargas factoriales para asegurar que representan contribuciones de riesgo. Él sugiere usar el inverso de los valores propios como pesos para las cargas factoriales para lograr la paridad de riesgo. Esto garantiza que cada acción contribuya por igual al riesgo general de la cartera. El modelo de riesgo se puede mejorar aún más al incluir factores adicionales, como factores de estilo o factores basados en la industria.
Zura Kakushadze analiza los desafíos y enfoques en la construcción de modelos de riesgo para estrategias comerciales cuantitativas. Enfatiza la importancia de abordar cuestiones como la singularidad y la inestabilidad en la matriz de covarianza, así como la selección de factores de riesgo y técnicas de agrupamiento apropiados. Al combinar modelos de factores, clasificaciones de la industria y agrupaciones, los comerciantes pueden crear modelos de riesgo personalizados que capturan de manera efectiva las características de riesgo de sus carteras.
Comercio de divisas para principiantes | Negociación algorítmica en los mercados de divisas por el Dr. Alexis Stenfors
Comercio de divisas para principiantes | Negociación algorítmica en los mercados de divisas por el Dr. Alexis Stenfors
El Dr. Alexis Stenfors profundiza en un análisis integral del mercado de divisas (FX), con un enfoque particular en la liquidez y su importancia. Comienza enfatizando el inmenso tamaño del mercado de divisas y su escala comparativa en relación con el mercado de valores mundial. A pesar de posibles crisis o desastres naturales, la liquidez en el mercado de divisas tiende a mantenerse sólida.
El Dr. Stenfors arroja luz sobre la naturaleza competitiva del mercado FX profesional, destacando su alcance internacional. No es posible operar con un solo par de divisas en este mercado sin operar simultáneamente con otro par de divisas. Esta característica distingue al mercado de divisas del mercado de valores, donde la compra de acciones es más común y directa. Además, los bancos centrales pueden intervenir en el mercado de divisas influyendo en el valor de una moneda a través de acciones como la impresión de dinero o la intervención directa, mientras que dichas intervenciones son menos comunes en el mercado de valores. Además, el mercado de divisas opera sin regulaciones, disyuntores ni transparencia, lo que dificulta el acceso a datos confiables con fines de investigación.
El núcleo de la liquidez en el mercado de divisas lo explica el Dr. Stenfors, quien destaca la importancia de las relaciones y convenciones entre bancos. A diferencia de los mercados tradicionales de valores y acciones, los creadores de mercado en el mercado de divisas no pueden cotizar precios ni proporcionar liquidez a menos que sepan que otra parte está lista para corresponder. En el mercado de intercambio de divisas, los diferenciales de oferta y demanda de los competidores tienden a agruparse en torno a dígitos específicos y, curiosamente, los competidores suelen cotizar exactamente los mismos diferenciales en lugar de ofrecer diferenciales variados.
El Dr. Stenfors analiza las convenciones del mercado en la industria del comercio de divisas, centrándose en las convenciones basadas en el precio y el volumen. Estas convenciones dictan un comportamiento comercial adecuado y facilitan relaciones sólidas entre bancos y clientes. Las encuestas indican que solo un pequeño porcentaje de comerciantes sigue las convenciones principalmente con fines lucrativos, mientras que la mayoría las percibe como un medio para fomentar las relaciones y mantener una imagen de mercado positiva. El auge del comercio algorítmico ha provocado cambios en estas convenciones, y el comercio algorítmico representa más del 70 % del comercio en plataformas como EBS.
El Dr. Stenfors debate las implicaciones del comercio algorítmico para el mercado de divisas. Los defensores argumentan que el comercio de alta frecuencia puede mejorar la eficiencia del mercado, reducir los costos de transacción y mejorar la liquidez. Sin embargo, los escépticos sostienen que los algoritmos no son adecuados para adherirse a las convenciones que se diseñaron originalmente para las relaciones humanas. Los comerciantes que utilizan plataformas electrónicas pueden enfrentar desafíos cuando el mercado se mueve rápidamente mientras intentan ejecutar operaciones. La liquidez ahora se percibe como compleja y difícil de determinar. A pesar de los diferentes puntos de vista sobre los algoritmos, ambas partes están de acuerdo en que la liquidez de FX está experimentando cambios que requieren un examen más detenido. El Dr. Stenfors presenta datos de una plataforma de operaciones que indican una división equitativa entre operaciones humanas y algorítmicas en 2010.
Al examinar el volumen y la liquidez del mercado de divisas, el Dr. Stenfors se centra en el par de divisas euro-dólar como ejemplo. Él revela que durante tres días de negociación, la cantidad total de órdenes limitadas para eurodólares fue de 1,8 billones, con un diferencial estrecho de solo 0,08 por ciento. Esto indica un mercado altamente líquido con diferenciales ajustados. Sin embargo, menos del uno por ciento de todas las órdenes limitadas en realidad resultaron en transacciones, y la duración media de la orden limitada fue de apenas 2,5 segundos. Estos hallazgos sugieren que si bien el mercado puede parecer líquido, su verdadera liquidez podría ser menos significativa de lo que parece. El Dr. Stenfors plantea la cuestión de si se puede acceder rápidamente a la liquidez y realiza una prueba para determinar si el mercado reacciona rápidamente a los intentos de negociación.
El Dr. Stenfors comparte su investigación sobre el impacto de las presentaciones de órdenes limitadas en la liquidez del mercado de divisas. Al analizar 1,4 millones de envíos de órdenes limitadas, descubre que una nueva orden limitada agrega inmediatamente liquidez al otro lado del libro de órdenes, lo que beneficia a los operadores de alta frecuencia. Sin embargo, la liquidez desaparece en 0,1 segundos, lo que sugiere que el comercio algorítmico solo contribuye a la liquidez a corto plazo. El Dr. Stenfors destaca un cambio significativo en la voluntad de respaldar la liquidez en el mercado de divisas durante la última década, subrayando la importancia de considerar varios aspectos de la liquidez, como la liquidez basada en el precio, la liquidez basada en el volumen, la liquidez basada en la comunidad y liquidez basada en la velocidad al analizar el mercado.
El Dr. Stenfors explica el concepto de diferentes tipos de órdenes en el comercio de divisas y sus implicaciones éticas. Aclara que las órdenes divididas se emplean para dividir órdenes grandes en órdenes más pequeñas para evitar que otros comerciantes cancelen sus órdenes y para ocultar órdenes ricas en información. Sin embargo, los pedidos de cuchara, que crean una falsa impresión del estado del mercado, suelen ser ilegales en la mayoría de los mercados. Por otro lado, las órdenes de ping, destinadas a extraer información de mercado oculta, son menos controvertidas pero están sujetas a interpretación. El Dr. Stenfors también presenta su definición conservadora de órdenes divididas, y revela que representaron entre el 15 y el 20 % de las órdenes en euros y dólares y en dólares yenes entre los cinco pares de divisas examinados.
El Dr. Stenfors profundiza en el uso de órdenes divididas y su agresividad en el mercado de divisas. Contrariamente a la creencia popular, las órdenes grandes a menudo exhiben una gran agresividad, y las órdenes divididas sirven no solo para enmascarar cantidades más grandes, sino también para permitir que los comerciantes algorítmicos envíen órdenes más agresivas. Sin embargo, la respuesta del mercado a las órdenes divididas es mucho más pronunciada en comparación con las típicas órdenes humanas, y los algoritmos se adaptan rápidamente a esta estrategia, lo que hace que las órdenes divididas sean menos efectivas. La discusión también aborda la suplantación de identidad y el ping, lo que indica que los principales pares de divisas, como el euro dólar y el dólar yen, son muy sensibles a la información, lo que los hace susceptibles a la suplantación de identidad, mientras que el ping se utiliza para extraer información oculta probando el mercado con órdenes y observando cualquier reacción. .
El Dr. Stenfors presenta un proxy que desarrolló para analizar la prevalencia del "pinging" en varios mercados de divisas. Una orden de ping se cancela antes de que ocurra cualquier cambio en el mercado, lo que la convierte en un indicador potencial de actividad de ping. Usando una base de datos integral, el Dr. Stenfors estima que alrededor del 10 % de los pedidos en los mercados amarillo y eurodólar pueden ser pedidos de ping potenciales. Sin embargo, en mercados como el euro sueco y el dólar rublo, este porcentaje aumenta significativamente, alcanzando el 50% y el 80% respectivamente. En particular, el ping parece ser más prominente en los mercados menos negociados en la plataforma. El Dr. Stenfors sugiere que el estudio de la liquidez requiere la consideración de diversas estrategias y tiempos de vida de las órdenes, ya que la función de creación de mercado, particularmente en el mercado emergente de FX, se lleva a cabo cada vez más mediante algoritmos.
El Dr. Stenfors analiza la naturaleza evolutiva de la liquidez en el mercado de divisas y enfatiza la necesidad de una gama más amplia de métricas para evaluarla. Subraya el impacto de las barreras en las estrategias de pedido, como escisiones, suplantación de identidad y ping. Si bien estos problemas se han estudiado ampliamente en los mercados de valores, sus efectos en la liquidez de divisas pueden ser significativamente diferentes, a pesar del mayor tamaño del mercado de divisas. El Dr. Stenfors recomienda que los comerciantes sean conscientes de estas complejidades independientemente de sus métodos de envío de pedidos y proporciona recursos adicionales para aquellos interesados en una mayor exploración.
El Dr. Alexis Stenfors ofrece un análisis detallado del mercado de divisas, centrándose específicamente en la liquidez y sus diversas dimensiones. Su investigación destaca las características únicas del mercado de divisas, incluido su tamaño, naturaleza competitiva y alcance internacional. Enfatiza la importancia de las convenciones del mercado, las implicaciones del comercio algorítmico y el impacto de los diferentes tipos de órdenes en la liquidez. A través de sus estudios, el Dr. Stenfors revela las complejidades y la naturaleza evolutiva de la liquidez de divisas, subrayando la necesidad de una evaluación y comprensión integrales en este mercado dinámico.
Desarrolle y realice pruebas retrospectivas de sus estrategias comerciales | Tutorial completo
Desarrolle y realice pruebas retrospectivas de sus estrategias comerciales | Tutorial completo
El video comienza presentando a un experto en cuantificación que brindará orientación sobre el desarrollo y la ejecución de estrategias comerciales utilizando Blueshift, una plataforma basada en la nube. Blueshift ofrece conjuntos de datos completos, incluidos los mercados de valores de EE. UU. e India, así como datos detallados de Forex. La sesión cubre estrategias sistemáticas, una introducción a Python, una introducción a Blueshift, la creación de plantillas reutilizables para backtesting, indicadores técnicos, la construcción de una estrategia simple utilizando un solo indicador y la gestión de estrategias de cartera. Es importante destacar que la sesión no ofrece recomendaciones comerciales ni pretende proporcionar estrategias infalibles.
El orador destaca los diferentes enfoques de los estilos de negociación, como el fundamental, el técnico y el cuantitativo, y cómo tratan las tendencias, la reversión a la media, las rupturas y el acarreo de formas únicas. El diseño de una estrategia comercial sistemática implica la selección de valores, la generación de señales de compra y venta, el cálculo de carteras objetivo, la ejecución de operaciones y la mejora continua del proceso. El orador explica las entradas necesarias para las estrategias sistemáticas, incluidos los datos de precios y sus transformaciones, la información fundamental y no relacionada con el mercado y las reglas/lógica de negociación. Estas reglas se pueden desarrollar en función de la hipótesis de un comerciante o mediante técnicas basadas en datos como el aprendizaje automático y la inteligencia artificial.
El orador enfatiza la importancia de probar las estrategias comerciales a través de backtesting y forward testing. El backtesting ayuda a los comerciantes a verificar la validez de sus hipótesis, mientras que el forward testing protege contra sesgos y trampas como sesgos de minería de datos, sesgos de supervivencia, modelado de impacto de mercado y sesgos de anticipación. Una plataforma de backtesting flexible es esencial para ajustar y modificar estrategias, y la gestión de riesgos y la creación de carteras son cruciales, ya que no todas las estrategias funcionan bien en todos los mercados. El orador brinda una breve introducción al uso de código basado en Python en la plataforma Blueshift para la creación y prueba de estrategias.
El video explica las cuatro funciones esenciales requeridas para las estrategias comerciales de backtesting en Blueshift. Estas funciones son "inicializar", que configura los parámetros iniciales, "before_trading_start", que se llama antes de cada sesión de negociación, "handle_data", que se ejecuta en cada llegada de una nueva barra de precios, y "analyze", que se utiliza para el análisis de estrategias. El orador demuestra el orden en que se llaman estas funciones y cómo los comerciantes pueden colocar su código dentro de cada función. La sección concluye con una introducción básica al uso de Python en la plataforma Blueshift.
Para los espectadores que no están familiarizados con Python, el video ofrece una introducción a los conceptos básicos de Python. Cubre variables, cadenas, enteros, flotantes y estructuras de datos como diccionarios y listas. También se introduce la creación de funciones y clases en Python. Luego, el video profundiza en el flujo de trabajo de Blueshift y explica los pasos de "inicialización", "before_trading_start", "handle_data" y "analyze". Se destaca la utilidad de las funciones de programación y pedidos.
El presentador analiza las tres funciones principales de pedidos en Blueshift. La primera función, "order_percent_target", permite a los operadores tomar posiciones en activos subyacentes en función del peso de la cartera objetivo. La segunda función, "get_open_orders", proporciona el número de pedidos pendientes y la tercera función, "cancel_order", permite la cancelación de pedidos. El presentador enfatiza la importancia de controlar el entorno comercial y demuestra funciones como "set_commission", "set_slippage" y "set_account_currency". Se explican los objetos de "contexto" y "datos" en Blueshift, mostrando su función en la captura del estado del algoritmo y el acceso a los datos. Un ejemplo ilustra el acceso a la cartera y los datos para una estrategia simple de compra y retención utilizando la función "historial". Se introduce el concepto de programación utilizando la función "programar", lo que permite a los usuarios definir cuándo se deben llamar funciones específicas.
El tutorial se centra en la creación de una plantilla para agilizar el desarrollo de estrategias y evitar el código repetitivo. Se importan bibliotecas de indicadores técnicos como TLE y bibliotecas estándar como Pandas y Numpy. El universo de valores se reduce a los principales índices y la variable "contexto" se inicializa como un diccionario para almacenar parámetros de estrategia. Estos parámetros incluyen retrospectiva del indicador, umbrales de compra/venta, períodos de promedio móvil, RSI, bandas B, ATR y frecuencia comercial. Esta plantilla tiene como objetivo minimizar el código repetitivo y estandarizar los parámetros para facilitar las modificaciones.
El ponente introduce una variable para controlar el trading y crear una cartera con pesos para cada instrumento del universo. Establecieron la comisión y el deslizamiento en cero con fines de demostración. La función "handle_data" está definida para ejecutar transacciones cada 15 minutos. La función "run_strategy" se convierte en la función principal para ejecutar la estrategia. Recupera precios anteriores y calcula pesos antes de reequilibrar utilizando la función "context.universe.prices". La función de "reequilibrio" itera a través de todos los valores del universo y coloca órdenes para alcanzar las ponderaciones objetivo. Se define una función anónima para imprimir la cartera de contexto y los pesos, y se crea una clase de "asesor" para calcular el objeto de peso.
El orador explica cómo definir las entradas para la clase "asesor", incluido el nombre y la función de la señal, y cómo pasar el universo de selección de valores. Cubren la inicialización y el almacenamiento del rendimiento del asesor, así como la definición de la función principal que llama a la función de señal para generar señales de compra/venta. El ponente hace hincapié en definir la función de la señal en función de indicadores técnicos, a menudo expresados como funciones ponderadas de precios pasados. Recomiendan consultar artículos teóricos de expertos como Cliff Asness de AQR Capital Management.
Los indicadores técnicos y su correlación con el mercado se analizan con base en el análisis estadístico utilizando el análisis de componentes principales. Los indicadores técnicos actúan como filtros de precios o rendimientos pasados, capturando tendencias a largo o corto plazo mediante el filtrado de datos de alta o baja frecuencia. Sin embargo, los indicadores técnicos pueden ser profecías autocumplidas y son susceptibles a ciertos tipos de algoritmos comerciales que pueden conducir a la búsqueda de impulso o stop-loss. Es importante tener una cartera de diferentes indicadores al desarrollar y realizar pruebas retrospectivas de estrategias comerciales.
El instructor explica cómo importar la biblioteca de análisis técnico y enumera los indicadores técnicos disponibles. Usando el ejemplo de las Bandas de Bollinger, el instructor demuestra la función "Bbands" para recuperar el valor de la última fila. También se muestran otras funciones como RSI, MACD, soporte de Fibonacci, resistencia, etc. El instructor explica la función "get_price" y la función "handle_data", que verifica si es hora de operar para cada período. La función "run_strategy" busca argumentos adecuados utilizando la función "advisor_compute_signal_price", seguida de la función "rebalance" para realizar pedidos de porcentajes objetivo. Finalmente, la función "analizar" se utiliza para el análisis de la estrategia.
El orador se centra en la gestión de carteras estratégicas para mejorar las ganancias comerciales algorítmicas. En lugar de confiar en una sola estrategia, se recomienda ejecutar múltiples estrategias simultáneamente o en diferentes períodos. Se analizan cuatro métodos para gestionar carteras de estrategia: crear un comité, usar un modelo de cambio de régimen, asignación dinámica e inversión basada en factores. El promedio puede mejorar la estabilidad de la señal. El código de la estrategia implica agregar un agente responsable de seleccionar asesores y asignar capital. El agente utiliza una función de pesaje para actualizar los pesos del asesor, lo que afecta la función de reequilibrio.
El ponente explica cómo definir y ponderar carteras en función del número de asesores, con igual asignación para cada uno. Demuestran la creación de asesores expertos separados y un agente para asignar capital entre ellos. Un backtest con QuickBacktest muestra un rendimiento significativamente mejorado en comparación con casos individuales. El orador enfatiza la importancia de la reducción en una estrategia comercial y sugiere observar el índice de Sortino y la estabilidad de la curva de pérdidas y ganancias. La cartera de insumos de promedio ponderado igual mejora significativamente el rendimiento, pero hay espacio para mejoras adicionales.
El orador presenta el concepto de "comercio sin arrepentimiento", que consiste en determinar la estrategia de inversión de mejor desempeño en un mercado difícil de predecir. En lugar de depender de una sola inversión, la estrategia implica variar los pesos de cada inversión. El ponente recomienda utilizar el algoritmo de gradiente exponencial para determinar los pesos, ajustándolos en función de la respuesta de la cartera a los escenarios del mercado. El criterio de Kelly también se sugiere para la asignación de capital, maximizando el rendimiento frente a la varianza en función del movimiento browniano geométrico.
El orador explica la salida de pesos y cómo difieren para diferentes asesores. Prueban una señal aleatoria que idealmente recibe menos asignación en comparación con otras señales si es genuinamente aleatoria. El orador analiza la función de agente, que toma una lista de asesores y un parámetro de tasa de aprendizaje, y calcula la función de ponderación. Recorre en iteración la lista de asesores, calcula la señal del asesor, los agrega por sectores y actualiza las ponderaciones de contexto en función de la ponderación calculada. La sección concluye con pautas sobre el desarrollo de estrategias, que incluyen evitar el sobreajuste, controlar el apalancamiento de la cuenta y proporcionar una lista de estrategias de demostración para que los espectadores las exploren.
El orador analiza diferentes métodos de prueba a plazo, como el comercio en papel o el comercio con una pequeña cantidad de capital en mercados reales. Mencionan que BlueShift actualmente no es compatible con PI torch o Jupiter Notebook, pero planea admitir Keras y TensorFlow. La plataforma no se limita a los mercados indios y puede acceder a datos de acciones de EE. UU. e India, así como a datos de divisas. El orador señala que BlueShift no tiene herramientas de depuración integradas en este momento, pero considera agregarlas en el futuro.
El orador habla sobre el backtesting de opciones y menciona que la mayoría de las plataformas que lo ofrecen no son confiables o requieren una extensa limpieza y arreglo de datos. También señalan que Indian Gravitons solo admite futuros líquidos y no permite fuentes de datos de terceros. El período mínimo recomendado de backtesting depende de la frecuencia de negociación y, aunque se dispone de datos de un minuto para los mercados indios, las ejecuciones de optimización no son eficientes debido a las limitaciones tecnológicas. BlueShift no tiene tarifas y no hay restricciones en la cantidad de backtests simultáneos, siempre que el tráfico del sitio web pueda manejarlos. Es posible realizar pruebas retroactivas para PSA y usar paquetes de Python, pero hay una lista restringida de paquetes disponibles por razones de seguridad.
El orador explica que el backtesting es un paso crucial en el desarrollo y evaluación de estrategias comerciales. Ayuda a determinar si una estrategia es viable y rentable antes de implementarla en mercados reales. Resaltan la importancia de considerar los costos de transacción, el deslizamiento y otros factores del mundo real al realizar pruebas retrospectivas para garantizar resultados realistas.
El orador presenta la plataforma BlueShift, que proporciona un entorno para realizar pruebas retrospectivas e implementar estrategias comerciales. BlueShift admite pruebas retrospectivas en los mercados de acciones indias, estadounidenses y de divisas. Los usuarios pueden escribir y probar sus estrategias usando Python y aprovechar varias funciones y bibliotecas integradas. La plataforma también permite a los usuarios operar en papel sus estrategias o operar con capital real, según sus preferencias.
El orador enfatiza la importancia de las pruebas a futuro, que implican implementar una estrategia con una pequeña cantidad de capital en mercados reales. Esto ayuda a validar el rendimiento y el comportamiento de la estrategia en condiciones de tiempo real. Mencionan que BlueShift actualmente admite pruebas avanzadas para los mercados indios, y los usuarios pueden operar en papel con un capital virtual de hasta 1 crore (10 millones) de rupias indias.
También se analiza el backtesting de opciones, y el orador menciona que muchas plataformas existentes para el backtesting de opciones no son confiables o requieren una limpieza y preparación de datos extensa. Señalan que BlueShift actualmente no admite la opción de backtesting, pero puede considerar agregarla en el futuro.
Con respecto a la disponibilidad de datos, el orador menciona que BlueShift proporciona datos históricos para los mercados de acciones indias, estadounidenses y de divisas. Sin embargo, señalan que la optimización de estrategias con datos de un minuto para los mercados indios puede no ser eficiente debido a las limitaciones tecnológicas.
El orador aclara que BlueShift no tiene ninguna tarifa por backtesting o uso de la plataforma. Los usuarios pueden realizar tantas pruebas retrospectivas como deseen, siempre que el tráfico del sitio web pueda manejar la carga. También mencionan que BlueShift tiene una lista restringida de paquetes de Python disponibles por razones de seguridad, pero los usuarios aún pueden aprovechar paquetes populares como pandas y numpy.
El orador destaca la importancia de realizar backtesting y forwardtesting exhaustivos en el desarrollo de la estrategia. Animan a los usuarios a aprovechar la plataforma BlueShift para realizar pruebas retrospectivas e implementar sus estrategias comerciales, teniendo en cuenta las limitaciones y consideraciones discutidas durante la presentación.
Estrategias de comercio de divisas | Desarrollar y realizar pruebas retrospectivas de ideas comerciales | Tutorial completo de efectos
Estrategias de comercio de divisas | Desarrollar y realizar pruebas retrospectivas de ideas comerciales | Tutorial completo de efectos
Durante este seminario web informativo, el orador brinda una descripción general completa de Quanciacs BlueShift, una poderosa plataforma de desarrollo de estrategias para la investigación sistemática de estrategias comerciales y pruebas retrospectivas. La plataforma ofrece una gama de características y funcionalidades que la convierten en una herramienta ideal para los comerciantes.
BlueShift es una plataforma basada en la nube, lo que significa que los usuarios pueden acceder a ella desde cualquier lugar, lo que les permite desarrollar y analizar estrategias sobre la marcha. Proporciona a los usuarios conjuntos de datos financieros incorporados, lo que facilita el acceso a datos de mercado relevantes para el desarrollo de estrategias.
Si bien el seminario web se enfoca principalmente en el mercado de divisas (FX), la plataforma BlueShift también admite el comercio de acciones y futuros en varios mercados. Destaca que la propiedad intelectual de las estrategias de backtesting desarrolladas en la plataforma pertenece enteramente al usuario, asegurando la confidencialidad y titularidad.
El orador profundiza en la naturaleza del mercado de divisas, destacando su estatus como el mercado descentralizado más grande con un asombroso volumen diario de negociación de aproximadamente 5 billones de dólares. Dentro de este volumen, alrededor de 300 mil millones de dólares se pueden atribuir al comercio minorista. El orador analiza varios factores que diferencian el mercado de divisas del mercado de valores, como un mayor apalancamiento, oportunidades de venta en corto más fáciles y una volatilidad relativamente menor.
Para comprender qué impulsa el mercado de divisas, el orador señala la importancia de los factores macroeconómicos, como la balanza de pagos, las tasas de interés, la inflación, el crecimiento económico y las políticas fiscales. También mencionan que los flujos corporativos y de cobertura, así como los cambios políticos y geopolíticos repentinos, pueden tener un impacto considerable en el mercado. Sin embargo, es importante tener en cuenta que no existe una metodología estándar o ampliamente aceptada para valorar el mercado de divisas. El orador menciona brevemente métodos como la paridad del poder adquisitivo y el tipo de cambio efectivo real, con técnicas más avanzadas preferidas por las grandes instituciones y el Fondo Monetario Internacional (FMI). Además, el orador enfatiza la importancia de los mercados de financiamiento a corto plazo para impulsar la liquidez y determinar los costos de reinversión de un día para otro.
Cuando se trata de desarrollar y realizar pruebas retrospectivas de estrategias de compraventa de divisas, el orador presenta varios enfoques. Los modelos económicos, como el modelo monetario y el modelo de tipo de cambio de equilibrio de comportamiento, utilizan métodos econométricos para analizar los datos. Los modelos basados en datos, incluidos los pronósticos de series temporales, las series temporales no lineales y las redes neuronales, también se analizan como opciones viables para el comercio de divisas de corta duración. La plataforma BlueShift se presenta como una interfaz fácil de usar que facilita el desarrollo y la prueba de estrategias. Los usuarios pueden ingresar conjuntos de datos, capital inicial y descripciones de metadatos, entre otros detalles. La plataforma proporciona herramientas para realizar pruebas retrospectivas completas, así como para ejecutar pruebas retrospectivas rápidas. Basado en la API Zipline de Python, BlueShift ofrece una plantilla de estrategia estándar para que los usuarios comiencen su proceso de desarrollo.
El orador profundiza en la estructura básica de las estrategias de compraventa de divisas y las funciones clave requeridas para el backtesting. Explican la función de "inicialización", que configura los parámetros de Baptist y los parámetros de contabilidad. La función "antes del inicio de la negociación" se llama una vez al día al comienzo de la sesión de negociación, seguida de la función "manejar datos", que se llama cada minuto para el mini conjunto de datos. Finalmente, la función de "estrategia" se programa utilizando la API para una hora y fecha específicas, y las reglas las define el usuario. Después de ejecutar una prueba retrospectiva rápida, los usuarios pueden acceder a la pestaña Baptist para ver diferentes conjuntos de datos, incluida la curva de equidad, las hojas de lágrimas y otras estadísticas.
La hoja de lágrimas, explicada por el orador, proporciona un conjunto de informes para analizar estrategias comerciales. Incluye parámetros como la relación Omega máxima, la relación Sortino, la asimetría, la curtosis, la estabilidad de la serie temporal y más. El orador demuestra el flujo de trabajo usando BlueShift, que implica inicializar, pasar por "antes del inicio de la negociación" y "manejar datos", y utilizar varias funciones API, como programación, configuración de comisiones, configuración de deslizamiento y configuración de la moneda de la cuenta. El orador menciona la disponibilidad de una plantilla estándar para estrategias de compraventa de divisas.
El orador menciona la disponibilidad de una plantilla estándar para estrategias de compraventa de divisas en la plataforma BlueShift. Esta plantilla proporciona un punto de partida para que los usuarios desarrollen sus estrategias definiendo sus reglas de entrada y salida, parámetros de gestión de riesgos y otras opciones de personalización.
La plataforma BlueShift también ofrece una amplia gama de indicadores técnicos integrados, incluidos promedios móviles, osciladores e indicadores de seguimiento de tendencias, que se pueden utilizar para crear reglas y señales comerciales. Los usuarios pueden combinar estos indicadores con su propia lógica personalizada para crear estrategias únicas y personalizadas.
Para validar y evaluar el desempeño de una estrategia comercial, el orador enfatiza la importancia de realizar pruebas retrospectivas rigurosas. BlueShift permite a los usuarios realizar una prueba retrospectiva de sus estrategias utilizando datos históricos para simular escenarios comerciales del mundo real. La plataforma proporciona métricas de rendimiento integrales, que incluyen rentabilidad, análisis de reducción, rendimientos ajustados al riesgo y varios índices como el índice de Sharpe, el índice de Sortino y el índice de Calmar.
Una vez que una estrategia ha sido probada y validada, el orador sugiere que el siguiente paso es implementarla en un entorno comercial en vivo. BlueShift brinda integración con múltiples corredores, lo que permite a los usuarios ejecutar sus estrategias directamente desde la plataforma. Esta integración perfecta garantiza una transición fluida del desarrollo de la estrategia al comercio en vivo.
El orador concluye el seminario web destacando los beneficios de usar BlueShift para el desarrollo de estrategias de divisas y el backtesting. La plataforma ofrece una interfaz fácil de usar, acceso a diversos conjuntos de datos financieros y un conjunto completo de herramientas e indicadores. Permite a los comerciantes desarrollar, probar e implementar sus estrategias de compraventa de divisas con facilidad y eficiencia.
El seminario web proporciona una descripción detallada de la plataforma BlueShift, sus capacidades y su aplicación en el desarrollo de estrategias de negociación de divisas. Ofrece información valiosa sobre el mercado de divisas, diferentes enfoques de modelado y la importancia de un backtesting sólido. Los operadores que buscan mejorar sus estrategias de compraventa de divisas pueden encontrar que BlueShift es una herramienta valiosa en su arsenal.
Las estrategias siempre son mejores que una. El orador también menciona diferentes métodos para la asignación de capital de riesgo, como los criterios LE, las estrategias ponderadas por igual y ponderadas por impulso. Además, proporciona una estrategia de ejemplo utilizando el indicador técnico de las Bandas de Bollinger y muestra las impresionantes estadísticas de los resultados del backtest. Concluye destacando la importancia de medir la estabilidad del retorno de la estrategia en el tiempo para asegurar la consistencia y evitar el sobreajuste.
¡Cómo puede ayudarte EPAT! por Nitesh Khandelwal - 28 de junio de 2018
¡Cómo puede ayudarte EPAT! por Nitesh Khandelwal - 28 de junio de 2018
Nitesh Khandelwal, el orador, se presenta a sí mismo y a su empresa, ConTeSt, como proveedor de educación comercial algorítmica y cuantitativa durante los últimos ocho años. Comienza compartiendo su experiencia personal, desde sus días de ingeniería hasta su experiencia en la industria bancaria. Luego destaca el lanzamiento del Programa Ejecutado de Comercio Algorítmico (EPAT), un programa de seis meses que ofrece consultoría, capacitación y una transición sin problemas hacia el comercio en el dominio de comercio de alta frecuencia (HFT). Khandelwal menciona su experiencia en Singapur, donde estableció pruebas para intercambios en todo el mundo y expandió el negocio a escala global.
Continuando, Khandelwal analiza el comercio algorítmico y su crecimiento en comparación con el comercio de bricolaje (hágalo usted mismo). Comparte estadísticas que indican el aumento significativo del comercio algorítmico en Asia, Europa y los EE. UU., destacando cómo los comerciantes ahora prefieren tomar sus propias decisiones comerciales en lugar de depender de los corredores. Sin embargo, señala que, si bien el comercio algorítmico constituye una parte importante de la actividad del mercado en la India, la participación minorista sigue siendo relativamente baja. Khandelwal hace referencia a un artículo de Bloomberg que explora el papel cada vez mayor de los robots en la sustitución de los trabajos financieros.
Khandelwal continúa explicando por qué los comerciantes minoristas no han podido adoptar el comercio algorítmico y sugiere formas de garantizar que se convierta en un facilitador en lugar de una amenaza. Hace hincapié en la necesidad de conocimientos estadísticos y técnicos, acceso a datos de mercado de calidad y corredores eficientes, y orientación de los profesionales durante la transición a la automatización. Explica cómo se creó EPAT para abordar estas necesidades y brindar orientación a las personas interesadas en el comercio de algoritmos o en la automatización de sus estrategias.
A continuación, Khandelwal analiza las características de EPAT. Menciona que el programa ofrece contenido enriquecido creado por profesionales, expertos en dominios y administradores de fondos líderes. El plan de estudios se actualiza continuamente para alinearse con los requisitos del mercado y se proporciona acceso de por vida a contenido actualizado. EPAT incluye un equipo de soporte dedicado para resolver consultas, orientación de la facultad para ex alumnos y una célula profesional que ayuda en las oportunidades laborales, configurando mesas de negociación, buscando corredores y proveedores de datos relevantes, y más. Además, los participantes de EPAT obtienen acceso a funciones exclusivas disponibles solo para ellos.
Khandelwal destaca la importancia del módulo básico en EPAT, que garantiza que todos los participantes comiencen el curso en la misma página. El primer módulo cubre los conceptos básicos de Excel, Python, estadísticas y mercados financieros, que son componentes fundamentales del comercio algorítmico. Él explica cómo el módulo básico evoluciona con el tiempo para proporcionar la máxima extracción de valor del programa. Además, Khandelwal analiza la relevancia de Python como el lenguaje de programación más utilizado en el comercio algorítmico y de empeño, lo que llevó a su inclusión en el programa EPAT.
Luego, el orador profundiza en los diferentes módulos cubiertos en EPAT y cómo se abordan. El programa cubre análisis y modelado de datos en Python, metodologías estadísticas avanzadas, efectos de equidad y estrategias de futuros, y aprendizaje automático para el comercio. Khandelwal enfatiza la importancia de comprender la infraestructura y las operaciones detrás de las estrategias comerciales, así como las estrategias comerciales de opciones, la optimización de la cartera y el riesgo operativo en el comercio algorítmico. También destaca la importancia de completar un proyecto bajo la tutoría de un experto en el dominio y realizar el examen EPAT para obtener un certificado verificado.
Khandelwal brinda una descripción general del programa de certificación EPAT, que abarca más de seis meses e incluye más de 100 horas de conexión en el aula, experiencia práctica y más de 300 horas de cursos. Menciona a los distinguidos miembros de la facultad que enseñan el programa, incluidos profesionales, académicos y comerciantes exitosos. El programa ofrece oportunidades de colocación y ayuda a los participantes en la preparación de CV y entrevistas, identificación de brechas de habilidades y acceso a socios de colocación, como corredores y bancos de inversión. Los participantes de EPAT también obtienen acceso a datos de corretaje privilegiados y proveedores de API, así como a herramientas avanzadas de backtesting como el simulador Contra Blue.
Además, Khandelwal analiza los beneficios de EPAT y cómo agrega valor a los participantes. Menciona el acceso a datos de nivel minuto para los mercados indios y las acciones del S&P 500, oportunidades de aprendizaje continuo, asistencia profesional y reuniones de ex alumnos. Él enfatiza que EPAT va más allá de un certificado y brinda una dimensión cuantitativa fundamental a los conjuntos de habilidades existentes. Khandelwal aclara que EPAT se enfoca en enseñar a los participantes cómo crear y validar estrategias comerciales en lugar de proporcionar estrategias de trabajo listas para usar. Reconoce que la tasa de éxito de las estrategias varía según factores como el acceso a la infraestructura, la gestión del riesgo y el apetito por el riesgo.
Khandelwal aborda una pregunta sobre si los analistas técnicos pueden automatizar sus operaciones utilizando estrategias como cruces MACD, promedios móviles y RSI después de estudiar EPAT. Confirma que el programa cubre estas estrategias, asegurando que los participantes tengan el conocimiento y las herramientas para automatizar sus operaciones.
Luego, el orador pasa a discutir las inversiones requeridas para iniciar su propia mesa de negociación algorítmica y explica que el impuesto para los analistas depende de la frecuencia de la mesa. Menciona que EPAT se enfoca principalmente en el comercio de baja y media frecuencia, pero también cubre aspectos de estrategias de alta frecuencia. El programa combina Python, Excel, R y MATLAB y requiere habilidades de programación y claridad conceptual. EPAT proporciona orientación para que los estudiantes establezcan sus propias mesas de negociación. Si bien EPAT no garantiza la colocación laboral, ofrece orientación a los ex alumnos que la buscan.
Khandelwal aclara que, si bien EPAT no brinda garantías de colocación, sí ofrece asesoramiento para garantizar que los candidatos tengan una comprensión básica del comercio algorítmico antes de inscribirse en el programa. Destaca el éxito de muchos estudiantes de EPAT que buscan activamente empleos o cambios de carrera debido a la extensa red de socios de colocación del programa. Menciona que el sistema de gestión de aprendizaje de EPAT brinda acceso de por vida a todas las sesiones y contenido actualizado, y el curso requiere un compromiso de tiempo de aproximadamente 300 horas, que se pueden distribuir en tres meses dedicando una hora diaria. Khandelwal enfatiza que el enfoque de EPAT en la implementación práctica lo distingue de los cursos más teóricos.
Khandelwal analiza la estructura de tarifas para el curso EPAT, que es de $ 4720 para los mercados desarrollados y de INR 189 000 más GST para la India. También menciona la necesidad de corredores y API para codificar estrategias y explica que los participantes pueden esperar asistencia profesional en Hong Kong, aunque el equipo de EPAT ha tenido más éxito en India y Singapur. Él advierte que si bien los módulos EPAT son interdependientes y deben tomarse como un todo, una o dos horas de esfuerzo diario deberían ser suficientes para aquellos con conocimientos comerciales limitados. Concluye mencionando que el curso EPAT cubre todo tipo de paradigmas de estrategia comercial y ofrece oportunidades de trabajo remoto para participantes y ex alumnos.
En los comentarios finales, el orador destaca que el programa EPAT es completo y brinda acceso completo a todos los módulos, lo que lo hace valioso para las personas con experiencia en tecnología que buscan ingresar al campo del comercio algorítmico. Mencionan las diversas oportunidades de trabajo disponibles en el dominio, con muchos casos de participantes de EPAT que inician sus propias empresas o aseguran trabajos en firmas destacadas después de completar el programa. El orador enfatiza la importancia de comprender las estadísticas básicas, la correlación y la regresión para tener éxito en este campo. Por último, enfatizan que las estrategias comerciales automatizadas generan ganancias y representan casi el 50% de los volúmenes totales en la India, lo que indica el potencial significativo para aquellos interesados en el comercio algorítmico.
AMA sobre comercio algorítmico | Por Nitesh Khandelwal
AMA sobre comercio algorítmico | Por Nitesh Khandelwal
En esta sesión de "pregúnteme cualquier cosa" sobre el comercio algorítmico, Nitesh Khandelwal, cofundador de la firma de comercio algorítmico Eragy, da la bienvenida a la audiencia y comparte su experiencia sobre el tema. La sesión tiene como objetivo cubrir varios aspectos del comercio algorítmico, incluidas las plataformas y los corredores, las estrategias comerciales, los datos de mercado, las oportunidades laborales, la creación de una mesa de comercio algorítmico, las regulaciones, el futuro del comercio algorítmico y las oportunidades de aprendizaje y educación. Khandelwal menciona que la sesión logrará un equilibrio entre preguntas preparadas previamente y preguntas en vivo, y también ofrecen sesiones de seguimiento individuales para consultas sin respuesta.
El presentador comienza explicando las diferentes estrategias comerciales, como el comercio de baja, media y alta frecuencia. Estas estrategias se definen en función de la latencia de la infraestructura comercial y el tiempo de procesamiento de pedidos. La atención se centra en enfatizar que la latencia de la estrategia comercial es más importante que la cantidad de operaciones ejecutadas por segundo. Luego, la sección profundiza en dónde obtener datos económicos y de mercado, analizando diferentes proveedores de datos como Yahoo Finance, Google Finance, Quandl, Alpha Vantage y FXCM. Estos proveedores ofrecen datos descargables o datos que se pueden usar en sus plataformas.
A continuación, el orador analiza las fuentes de datos para el comercio algorítmico, incluidas las descargas manuales, la obtención de API y los proveedores pagos como Quandl, Global Data Feed, Trading Economics, Thomson Reuters y Active Financial. También abordan la cuestión de si los comerciantes de alta frecuencia (HFT) generalmente superan a los comerciantes de día manuales, explicando que depende del tipo de comerciantes de día que se analice. Si los comerciantes aprovechan las oportunidades de arbitraje o las ineficiencias del mercado, las máquinas pueden ser más rápidas que los comerciantes manuales. Sin embargo, si los comerciantes analizan datos y ejecutan órdenes manuales después de una investigación exhaustiva, las máquinas no son necesariamente más eficientes. El orador descarta la idea de que un mercado con exceso de transacciones algorítmicas sea contraproducente y aclara que la automatización no siempre requiere transacciones de alta frecuencia.
Se explica el concepto de usar algoritmos en el comercio, conocido como "codos". Implica comerciar con más eficiencia y puede automatizarse y cuantificarse mediante fórmulas matemáticas. Sin embargo, encontrar las ineficiencias del mercado puede ser un desafío, y la competencia en la infraestructura tecnológica y de comercio de alta frecuencia se está volviendo más costosa. El orador también aborda la cuestión de cómo manejar múltiples estrategias en una cuenta de corretaje para un FBI.
Se discuten los requisitos previos para el comercio algorítmico, lo que implica conocimientos de estadística y econometría, computación financiera y comercio cuantitativo. El presentador menciona que aquellos que comienzan desde cero pueden aprender sobre estos pilares a través de recursos disponibles gratuitamente en el sitio web de Quant. Para los comerciantes que ya están familiarizados con las estrategias comerciales y buscan automatizar, pueden comenzar usando una API de corredor y eventualmente construir su propia plataforma. El orador también explica los diversos proveedores de datos de ticks y menciona que, si bien la mayoría de los proveedores brindan datos instantáneos, los proveedores de gama alta pueden proporcionar datos de ticks reales a un costo mayor. Por último, se observa que para los comerciantes que ya tienen éxito con sus estrategias comerciales actuales, puede que no sea necesario aprender a operar algorítmicamente a menos que quieran seguir actualizando y experimentando.
Se analizan los beneficios de automatizar las estrategias comerciales, incluido el control de las emociones, la escalabilidad y el ancho de banda para trabajar en estrategias mientras las máquinas manejan la ejecución. El orador enfatiza la importancia de tener experiencia en programación para tener éxito en el comercio algorítmico y destaca que Python es ampliamente utilizado por la mayoría de las empresas a nivel mundial. Sin embargo, el orador advierte que el comercio de alta frecuencia no es adecuado para los comerciantes minoristas, y algunas estrategias pueden requerir una cantidad razonable de capital antes de tener éxito. No obstante, incluso con conocimientos básicos de Python, uno puede iniciarse en el comercio algorítmico.
Se analizan las habilidades necesarias para convertirse en un operador algorítmico, incluido el conocimiento de estadísticas, econometría y estrategias comerciales. El orador también explica las diversas oportunidades de carrera en el comercio algorítmico, que van desde roles administrativos hasta roles comerciales de atención al cliente. Mencionan que las personas con experiencia en software y ciencia de datos pueden aventurarse en el comercio de algoritmos, ya que su experiencia ya proporciona una base sólida y elegir el lado del mercado financiero debería ser relativamente más fácil. El orador también menciona un blog sobre un ex alumno de QuantInsti de 40 años que realizó una transición exitosa al comercio algorítmico sin experiencia comercial previa. QuantInsti se destaca como una institución que ofrece una célula profesional dedicada a ayudar a las personas a adquirir las habilidades necesarias y conectarse con las personas adecuadas para avanzar en sus carreras.
El orador procede a discutir los lenguajes comerciales algorítmicos y su importancia en la investigación y el análisis. Si bien las empresas comerciales de alta frecuencia prefieren usar C ++ para una latencia más baja, para el backtesting y la evaluación de estrategias, R y Python son opciones más populares. En respuesta a la pregunta de un usuario sobre la mejora de la tasa de aciertos y la gestión de pérdidas consecutivas, el orador sugiere optimizar los parámetros en las pruebas retrospectivas y utilizar el comercio dentro y fuera de la muestra para verificar la reducción. También se aborda la saturación del mercado, y el orador afirma que la relación HFT sirve como un indicador de la competencia y que las estrategias simples de arbitraje pueden no tener éxito en mercados altamente saturados.
Se exploran más a fondo diferentes estrategias comerciales algorítmicas, destacando la necesidad de una infraestructura tecnológica sólida para estrategias simples de arbitraje y creación de mercado. El orador se involucra con varias preguntas de la audiencia, incluido el significado de la cantidad total de bits, el impacto de los HFT en los comerciantes tradicionales en India y el horizonte de tiempo utilizado para analizar los datos para el comercio de algoritmos. Explican que el horizonte temporal depende de la frecuencia de negociación. Además, el orador alienta a las personas con experiencia en software y ciencia de datos a aventurarse en el comercio de algoritmos, afirmando que su experiencia ya proporciona una base sólida y que aprender del lado del mercado financiero debería ser relativamente más fácil.
Nitesh Khandelwal aborda varias preguntas relacionadas con la posibilidad de establecer una plataforma comercial con su empresa, la aprobación legal para la automatización, los costos y las regulaciones del mercado indio. Aclaran que su empresa brinda orientación y apoyo de por vida a los participantes y ex alumnos pero no ofrece servicios de consultoría. La automatización es posible y los costos dependen de la infraestructura requerida. En países como India, cada estrategia comercial necesita aprobación antes de la automatización, y solo el corredor puede hacerlo en nombre del comerciante. Se discute el uso de indicadores estocásticos y fundamentales en las estrategias, mencionando que pueden ser utilizados de forma manual o mediante software. El ponente también menciona la disponibilidad de herramientas de lectura de noticias y datos económicos legibles por máquina para crear algoritmos.
La sesión profundiza en si las personas en la India pueden participar en el comercio de alta frecuencia (HFT) para los mercados no indios y si HFT aleja a los comerciantes minoristas de los mercados. Con respecto a los mercados fuera de la India, se explica que el envío de dinero para productos de margen comercial que cotizan en bolsas extranjeras no está permitido bajo el esquema LRS a menos que uno tenga la aprobación del RBA. Sin embargo, si una empresa global subcontrata parte de su comercio a una empresa india, entonces podría ser posible. Con respecto al impacto de HFT en los comerciantes minoristas, se menciona que la presencia de HFT agrega liquidez al mercado y reduce los diferenciales, lo que beneficia a los comerciantes minoristas. Sin embargo, no deberían permitirse actividades ilegales como el front-running, independientemente del dominio.
El orador enfatiza que el comercio de alta frecuencia (HFT) no daña a los comerciantes minoristas individuales, ya que generalmente usan navegadores basados en la web que inherentemente tienen una latencia incorporada de unos pocos cientos de milisegundos. Incluso si las empresas de HFT utilizan métodos ilegales para obtener un acceso más rápido, no afectaría al comerciante minorista, pero sí perjudicaría a otras empresas de HFT que siguen las reglas. El orador enfatiza que los comerciantes minoristas generalmente se benefician del mercado eficiente creado por HFT, ya que elimina las oportunidades de arbitraje. El orador también aborda una pregunta sobre el aprendizaje del comercio algorítmico en inglés y analiza algunos componentes importantes para el comercio consistentemente rentable.
El video subraya la importancia de las estrategias comerciales en constante evolución en la industria del comercio algorítmico, ya que los mercados cambian constantemente. Si bien no muchos corredores en India admiten el comercio algorítmico, algunos ofrecen opciones de comercio programático como semi-algo o el-go. El ponente también analiza el mercado laboral de los analistas cuantitativos, destacando que no es exclusivo de los doctores, sino que depende del conocimiento y la capacidad de resolución de problemas de las personas. También se abordan los requisitos de hardware e infraestructura para el comercio algorítmico. Para el comercio de baja frecuencia, una computadora portátil decente o las opciones de computación en la nube proporcionadas por compañías como Amazon y Google son suficientes. El comercio de frecuencia media requiere una plataforma de negociación algorítmica y un servidor especializado, que puede costar unos miles de dólares. El comercio de alta frecuencia exige un servidor especializado que oscila entre $ 10,000 y $ 25,000.
El orador explica las aprobaciones requeridas antes de comenzar a funcionar, que dependen del intercambio y la ubicación. Aclaran que el programa EPAT cubre una amplia gama de temas y se enfoca en el aprendizaje práctico, aunque no garantiza estrategias rentables. Se analizan los diferentes tipos de algoritmos utilizados en el comercio automatizado, incluidos los algoritmos de baja, media y alta frecuencia. Los algoritmos de alta frecuencia se utilizan para el arbitraje, la creación de mercado y las estrategias direccionales que requieren una computación más rápida. Los algoritmos de baja y media frecuencia pueden automatizar varias estrategias, incluida la inversión fundamental. También se mencionan estrategias populares como impulso, arbitraje estadístico y estrategias basadas en opciones, con algoritmos que brindan beneficios como escalabilidad, control emocional y un mejor análisis de big data.
Para los comerciantes minoristas interesados en el comercio algorítmico pero que carecen de experiencia en programación, el orador sugiere comenzar con el aprendizaje de estadísticas básicas y estrategias comerciales. Proporcionan recursos para el aprendizaje a su propio ritmo. Nitesh Khandelwal enfatiza la idea de crear una estrategia comercial propia en lugar de depender de las preexistentes. También abordan el papel del comercio de algoritmos en el mercado de criptomonedas, afirmando que, si bien algunos participantes usan herramientas de automatización para el comercio de criptomonedas, el comercio de algoritmos no es la única razón detrás del auge de las criptomonedas. Se menciona el impacto potencial de la inteligencia artificial y el aprendizaje automático en el comercio de algoritmos, y el orador destaca que empoderará a los comerciantes individuales y minoristas junto con las grandes instituciones debido a la asequibilidad de la potencia informática requerida para los algoritmos de entrenamiento.
El orador analiza además el aumento esperado en la participación minorista en el comercio algorítmico debido a los cambios y la automatización que ocurren en el sector financiero. Abordan las preguntas de la audiencia sobre los recursos para los datos del balance, la transición de una empresa no financiera a un comerciante algorítmico, y los números ideales para CAGR (tasa de crecimiento anual compuesta) y la relación ganadora en el comercio algorítmico. El orador advierte contra centrarse únicamente en los rendimientos porcentuales y, en cambio, enfatiza la escalabilidad, la infraestructura sólida y la tecnología como consideraciones importantes.
La sesión concluye con el orador discutiendo la importancia de considerar el riesgo cuando se analizan los rendimientos y la inversión requerida para iniciar un negocio de comercio de algo, que puede variar desde unos pocos miles de dólares hasta cientos de miles, según la frecuencia y el tipo de infraestructura necesaria. El orador menciona que la automatización y la gestión de riesgos son factores clave a considerar al iniciar un negocio de comercio de algoritmos. También brindan información sobre la disponibilidad de datos en tiempo real en la India y el proceso de aprobación de estrategias comerciales, enfatizando que los intercambios priorizan la gestión de riesgos sobre los detalles de la estrategia. Finalmente, el orador reconoce la escasez de buenos sitios web para realizar pruebas retrospectivas y escribir estrategias zurdas (apalancadas e intradía) en los mercados indios.
En el último segmento, el disertante discute el desarrollo de herramientas para diferentes mercados en Horn Insights, con el objetivo de brindar una mejor exposición y beneficios a los participantes y usuarios. Abordan una pregunta sobre el rango de salario de los quants en India, y señalan que depende de factores como la experiencia y los antecedentes. El orador enfatiza que la colocación no es manipulación y la compara con pagar un viaje aéreo para llegar a un destino más rápido en comparación con viajar en tren. También mencionan que la mayoría de las estrategias técnicas basadas en indicadores se pueden desarrollar utilizando Python y destacan que, si bien los programas avanzados en el dominio del comercio algorítmico no están ampliamente disponibles, se brinda orientación de por vida a través del programa ANNIE pat.
En los momentos finales del video, el orador alienta a las personas a realizar transacciones algorítmicas y menciona que el mercado ha evolucionado significativamente a lo largo de los años, volviéndose más accesible para los comerciantes minoristas. Invitan a los espectadores a explorar los recursos disponibles en QuantInsti y Horn Insights para ampliar su conocimiento y comprensión del comercio algorítmico.