Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Cómo usar Python trading Bot para inversión
Cómo usar Python trading Bot para inversión
Únase a nosotros en este seminario web informativo mientras nos adentramos en el mundo de los bots comerciales de Python con fines de inversión. Diseñado para atender tanto a comerciantes novatos como experimentados, este video sirve como un recurso valioso para las personas interesadas en aprovechar Python para el comercio algorítmico.
A lo largo del seminario web, obtendrá ideas y conocimientos prácticos que elevarán sus estrategias comerciales de algo. Python, con sus amplias bibliotecas y capacidades de automatización, ofrece un inmenso potencial para agilizar y optimizar su enfoque comercial. Al aprovechar el poder de Python, puede mejorar su eficiencia comercial y capitalizar las oportunidades del mercado.
Ya sea que esté comenzando su viaje en el comercio algorítmico o buscando perfeccionar sus habilidades existentes, este video proporciona una descripción general completa del comercio algorítmico con Python. Sirve como un recurso imprescindible para los comerciantes e inversores que aspiran a mantenerse a la vanguardia en el dinámico panorama financiero actual. Prepárese para ampliar su comprensión del papel de Python en el comercio algorítmico y desbloquear nuevas posibilidades para el éxito.
Tópicos cubiertos:
Asignación óptima de cartera mediante aprendizaje automático
Asignación óptima de cartera mediante aprendizaje automático
Esta sesión tiene como objetivo enseñarle sobre los métodos de asignación óptima de cartera mediante el aprendizaje automático. Aprenda a usar algoritmos que aprovechan el aprendizaje automático en su núcleo para tomar la decisión de asignación de capital. Presentado por Vivin Thomas, vicepresidenta de investigación cuantitativa, modelos de acciones (EDG), JPMorgan Chase & Co.
En esta discusión, exploraremos el fascinante reino del comercio algorítmico, centrándonos específicamente en la utilización de algoritmos de aprendizaje automático. Nuestro objetivo principal es diseñar algoritmos sofisticados que aprovechen el aprendizaje automático en su núcleo para tomar decisiones óptimas de asignación de capital.
Para lograr esto, desarrollaremos una estrategia de baja frecuencia que sobresalga en la asignación de su capital disponible entre un grupo cuidadosamente seleccionado de activos subyacentes, también conocidos como canasta de activos, a intervalos regulares. Al incorporar técnicas de aprendizaje automático, nuestro objetivo es mejorar la precisión y la eficiencia del proceso de asignación de capital.
Además, construiremos algoritmos de asignación de activos de baja frecuencia y solo largos que operen dentro de este marco. Estos algoritmos se diseñarán para superar una estrategia de asignación estándar que se basa únicamente en indicadores de impulso empíricos para la toma de decisiones. Al comparar el rendimiento de estos algoritmos con la estrategia de referencia, podemos evaluar el valor y la eficacia de aprovechar el aprendizaje automático en el proceso de asignación de activos.
A través de esta exploración, obtendremos información sobre los posibles beneficios y ventajas de incorporar algoritmos de aprendizaje automático en las estrategias de asignación de capital. Únase a nosotros mientras nos adentramos en el emocionante mundo del comercio algorítmico y descubra cómo estos algoritmos avanzados pueden revolucionar la forma en que abordamos la asignación de activos y las decisiones de inversión.
Tutorial de análisis de sentimiento | Aprenda a predecir las tendencias de las acciones y utilice el arbitraje estadístico
Tutorial de análisis de sentimiento | Aprenda a predecir las tendencias de las acciones y utilice el arbitraje estadístico
Durante este seminario web, el presentador presenta a tres personas consumadas, Design Vetii, Javier Cervantes y Siddhantu, que se han embarcado en su viaje en el comercio algorítmico a través del programa E-PAT. Compartirán sus presentaciones y proyectos de E-PAT con los espectadores, cubriendo varios temas y sus experiencias en el programa E-PAT.
El presentador enfatiza que el programa insignia E-PAT ofrece a los participantes la oportunidad de especializarse en su clase de activo preferida o paradigma de estrategia para su proyecto. Este enfoque personalizado permite a los participantes explorar y desarrollar experiencia en su área de enfoque elegida.
Se destaca que esta sesión se grabará y compartirá en YouTube y su blog, lo que brinda una valiosa oportunidad de aprendizaje para los aspirantes a quant y las personas interesadas en el comercio algorítmico. El presentador alienta a los espectadores a aprovechar el conocimiento compartido por estos comerciantes experimentados y las ideas obtenidas de sus proyectos E-PAT.
La primera presentación corre a cargo de Design Vetii, un distribuidor de renta fija de Sudáfrica. Design Vetii comparte su proyecto sobre la predicción de tendencias de stock mediante análisis técnico. Recopilaron datos de las 10 principales acciones en el índice de las 40 principales de Sudáfrica durante un período de 10 años. Python se utilizó para derivar seis indicadores técnicos comunes a partir de estos datos, que luego se incorporaron a un modelo de aprendizaje automático para el análisis de tendencias de acciones. El presentador analiza su motivación y fascinación con el campo del aprendizaje automático a lo largo del proyecto.
A continuación, el orador analiza la estrategia de inversión empleada y presenta los resultados de su algoritmo de aprendizaje automático. Utilizaron una cartera igualmente ponderada que constaba de 10 acciones e implementaron estrategias de reequilibrio tanto diarias como semanales. La cartera de reequilibrio diario arrojó un rendimiento del 44,69 % en los últimos dos años y medio, superando el rendimiento del 21,45 % de los 40 principales índices de referencia. Del mismo modo, la cartera de reequilibrio semanal mostró un rendimiento superior significativo, produciendo una rentabilidad del 36,52 % por encima del índice de referencia. El orador reconoce el tiempo y el esfuerzo necesarios para ajustar los parámetros del modelo de aprendizaje automático y destaca la experiencia de aprendizaje obtenida de este proceso. Sin embargo, también reconocen las limitaciones y los defectos potenciales al comparar únicamente la estrategia con indicadores técnicos como la fuerza relativa, las Bandas de Bollinger y el MACD.
El orador reflexiona sobre las lecciones aprendidas de su proyecto y contempla formas de mejorarlo en el futuro. Mencionan el interés en explorar un índice que comprende las 10 principales acciones y reconocen un error cometido al usar el atributo de reproducción aleatoria en su algoritmo de aprendizaje automático en una serie de tiempo financiera. El orador expresa orgullo por su capacidad para codificar en Python y desarrollar una estrategia que combina aprendizaje automático e indicadores técnicos. Proponen incorporar factores fundamentales como las proporciones P, el análisis de sentimientos y otros marcadores en proyectos futuros, así como explorar modelos alternativos de aprendizaje automático. Además, el orador responde preguntas de la audiencia con respecto a su elección de indicadores técnicos y la implementación del algoritmo de bosque aleatorio.
Después de la presentación, el presentador participa en una sesión de preguntas y respuestas con los espectadores. Se abordan varias preguntas, incluidas consultas sobre estrategias comerciales intradía y libros recomendados para aprender el aprendizaje automático en el contexto del análisis financiero. El presentador sugiere un libro de análisis técnico para comprender los indicadores convencionales y también menciona el enfoque potencial para incorporar vistas no convencionales de indicadores y factores fundamentales en algoritmos de aprendizaje automático para futuras investigaciones.
Después de la sesión de preguntas y respuestas, el presentador presenta al siguiente orador, Javier Cervantes, un operador de bonos corporativos de México con más de ocho años de experiencia en los mercados de negociación y crédito. Javier comparte su investigación sobre el uso del arbitraje estadístico para predecir tendencias bursátiles en el mercado mexicano, que se caracteriza por su capitalización de mercado pequeña y concentrada. Explica el atractivo de esta oportunidad debido a la ausencia de fondos dedicados, la generación limitada de liquidez de los participantes y el panorama competitivo para las estrategias de arbitraje.
Javier analiza el proceso de creación de una base de datos para recopilar información sobre las acciones mexicanas, destacando los desafíos encontrados, como datos incompletos y defectuosos, problemas de filtrado y limpieza, y los supuestos subyacentes a la estrategia. Para hacer frente a estos desafíos, se eliminó alrededor del 40% del universo de emisores y se excluyeron las acciones con bajos volúmenes de negociación diarios.
Luego, el presentador analiza los resultados de la estrategia de arbitraje estadístico de Javier aplicada a seis pares de acciones diferentes, que arrojó resultados positivos. Los rendimientos de los pares mostraron correlaciones bajas y en su mayoría negativas, lo que sugiere que la diversificación podría beneficiar significativamente la implementación de la estrategia como una cartera agregada. Al analizar los resultados de una cartera que comprende los seis pares, el presentador destaca una tasa de crecimiento anual del 19 %, una reducción máxima de solo el 5 % y un índice de Sharpe agregado de 2,45, lo que demuestra una superioridad significativa en comparación con los pares individuales. Además, el presentador enfatiza varios riesgos que deben considerarse antes de desplegar capital real, incluidos los costos de negociación, los diferentes horizontes temporales, las condiciones del mercado y la necesidad de implementar una estrategia de límite de pérdidas.
El orador enfatiza la importancia de probar regularmente una estrategia de arbitraje estadístico para garantizar su confiabilidad en el tiempo, ya que las relaciones a largo plazo entre pares pueden romperse incluso si se observa la estacionariedad inicial. Sugieren la posibilidad de utilizar algoritmos de aprendizaje automático para seleccionar pares elegibles para la estrategia comercial, en lugar de seleccionarlos manualmente en función de suposiciones sobre diferentes sectores del mercado. El orador concluye mencionando que hay un amplio margen para futuras investigaciones para mejorar la eficiencia del modelo y mejorar la confiabilidad de los retornos. Durante la sesión de preguntas y respuestas, abordan preguntas sobre el período de tiempo utilizado en los datos, las conclusiones clave de las correlaciones negativas entre los rendimientos de los pares y la viabilidad de implementar una estrategia intradía.
Finalmente, el presentador presenta a Siddhantu, un comerciante que comparte su experiencia en proyectos. Siddhantu comienza discutiendo sus antecedentes como comerciante y relata un incidente relacionado con las acciones de una cadena de hoteles medcap que los llevó a cuestionar el impacto de las noticias y el sentimiento en los precios de las acciones. Describen su proyecto, que se divide en tres partes: extracción de noticias, análisis de sentimiento y estrategia comercial. Se elige Nvidia Corporation como acción para el proyecto debido a su liquidez y volatilidad.
Siddhantu explica el proceso de recopilación de artículos de noticias utilizando la base de datos newsapi.org y la extracción de puntajes de opinión utilizando la biblioteca de periódicos en Python. Luego, los puntajes de sentimiento se utilizan para generar un esquema comercial largo o corto basado en puntajes extremos. El ponente comparte los desafíos que se enfrentaron durante la fase de programación, pero enfatiza la importancia de seleccionar las herramientas adecuadas y recibir el apoyo de los mentores para lograr el éxito. Si bien los resultados son alentadores, el orador destaca la necesidad de abordar las pruebas retrospectivas con cautela y reconoce que hay espacio para mejorar en cada paso del proyecto. Recomiendan la herramienta de análisis de sentimientos Vader en Python por su precisión en la generación de puntajes de sentimiento.
El ponente aborda el análisis de sentimiento y sus limitaciones cuando se aplica a los artículos periodísticos. Señalan que, si bien el análisis de sentimientos puede ser eficaz para detectar sentimientos en tuits y comentarios en redes sociales, es posible que no sea adecuado para artículos de noticias debido a las diferencias en la notificación de eventos negativos. También responden a las preguntas de la audiencia sobre las fuentes utilizadas para el análisis de sentimientos, el proceso de convertir las puntuaciones de Vader en señales comerciales, la utilización del aprendizaje profundo en el análisis de sentimientos (que aún no han explorado pero reconocen su potencial) y otros temas relacionados. .
Finalmente, el ponente profundiza en los datos utilizados para el backtesting en el programa de análisis de sentimiento. Explican que se recopilaron alrededor de 10 a 15 artículos de noticias impactantes diariamente para calcular un puntaje de sentimiento promedio para cada día. El programa utilizó aproximadamente seis meses de estos artículos. Para la rentabilidad de las acciones, se incorporaron datos a nivel de día de las acciones de Nvidia durante seis meses. El orador aclara que no se consideraron aspectos fundamentales o técnicos de las acciones durante las transacciones o pruebas retrospectivas, con señales comerciales derivadas únicamente del puntaje de sentimiento.
Comercio cuantitativo | Estrategias explicadas por Michael Harris
Comercio cuantitativo | Estrategias explicadas por Michael Harris
En este tutorial, se presentan y discuten los conceptos de complejidad y reflexividad del mercado. La atención se centra en los cambios de régimen específicos que se han producido en los mercados de valores de EE. UU. y otros mercados. El presentador, Michael Harris, explora cómo estos cambios de régimen pueden afectar el desarrollo de la estrategia y brinda información sobre cómo minimizar sus efectos ajustando los datos y la combinación de estrategias.
El tutorial está diseñado para ser práctico, permitiendo a los asistentes replicar el análisis en sus propios sistemas. Amibroker se utiliza para el análisis durante el seminario web y los asistentes pueden descargar el código de Python para seguir practicando después de la sesión.
Michael también comparte un indicador recientemente desarrollado que mide el impulso y los cambios de estado dinámico de reversión a la media en el mercado. Se proporciona el código para este indicador, lo que permite a los asistentes incorporarlo en sus propias estrategias comerciales.
Michael Harris, el orador, tiene una gran experiencia en el comercio de futuros de divisas y productos básicos que abarca 30 años. Es autor de varios libros sobre negociación, incluidos "Negociación a corto plazo con patrones de precios", "Técnicas de negociación de acciones basadas en patrones de precios", "Rentabilidad y negociación sistemática" y "Engañados por el análisis técnico: los peligros de los gráficos, Backtesting y minería de datos". También es autor del blog Price Action Lab y desarrollador del software DLPAL. Michael tiene dos maestrías, una en Ingeniería Mecánica con énfasis en sistemas de control y optimización, y otra en Investigación de Operaciones con énfasis en pronóstico e ingeniería financiera de la Universidad de Columbia.
El tutorial está dividido en capítulos, que cubren diferentes aspectos de la complejidad del mercado y los cambios de régimen. La introducción del orador prepara el escenario para el tutorial, seguida de una descripción general de los temas que se tratarán. Se explica la estrategia de negociación del índice, destacando sus limitaciones en una afirmación cuantitativa. Luego se analiza la estrategia de reversión a la media, lo que lleva a una exploración más profunda de los cambios de régimen y cómo ocurren. Se analiza la dinámica de reversión a la media en el mercado S&P, enfatizando la complejidad presente en los mercados financieros.
Se abordan los efectos adversos de la complejidad del mercado, destacando los desafíos que plantea a los comerciantes. El tutorial concluye con una discusión sobre complejidades adicionales en los mercados financieros y proporciona recursos para una mayor exploración. Sigue una sesión de preguntas y respuestas, que permite a los asistentes aclarar cualquier duda o buscar más información.
Este tutorial proporciona información valiosa sobre la complejidad del mercado, los cambios de régimen y sus implicaciones para las estrategias comerciales, presentado por un comerciante experimentado y autor en el campo.
Capítulos:
00:00 - Introducción del orador
02:23 - Descripción general del tutorial
03:54 - Explicación de la estrategia comercial de índices
07:30 - Limitaciones de la Reclamación Cuantitativa
10:45 - Estrategia de reversión a la media
11:38 - Cambio de régimen
16:30 - Cómo sucede
18:17 - Dinámica de reversión a la media de S&P
24:35 - Complejidad en los Mercados Financieros
26:42 - Efectos adversos
36:56 - Más complejidad en los mercados financieros
42:17 - Recursos
43:35 - Preguntas y respuestas
Comercio algorítmico | Tutorial completo | Ideación para Mercados Vivos | Dr. Hui Liu y Aditya Gupta
Comercio algorítmico | Tutorial completo | Ideación para Mercados Vivos | Dr. Hui Liu y Aditya Gupta
En este video, el orador brinda una descripción general completa de la clase magistral sobre cómo idear, crear e implementar una estrategia comercial automatizada. El orador, Aditya Gupta, presenta al Dr. Hui Liu, fundador de fondos de cobertura y autor de un paquete de python que interactúa con la API de Interactive Brokers. También menciona un desarrollo sorpresa relacionado con la API que discutirá el Dr. Liu.
El video comienza explicando la definición de comercio automatizado y destacando los tres pasos principales involucrados en el comercio algorítmico. El orador comparte su viaje personal de transición de la negociación discrecional a la sistemática utilizando el análisis técnico.
Se enfatiza la importancia del análisis en el comercio algorítmico, con un enfoque en tres tipos de análisis: cuantitativo, técnico y fundamental. Los diversos aspectos del análisis implican el estudio de gráficos históricos, estados financieros, factores micro y macroeconómicos, así como el uso de modelos matemáticos y análisis estadísticos para crear estrategias comerciales. Estas estrategias son esencialmente algoritmos que procesan datos y generan señales para comprar y vender. El proceso incluye el desarrollo de estrategias, las pruebas y el comercio en papel antes de pasar al comercio en vivo. Para conectarse con el comercio en vivo, se necesita la conectividad del corredor y una API, con iBridge PI discutido como una solución potencial. También se presenta el concepto del espectro de estrategias, que muestra diferentes impulsores de ganancias y tipos de análisis.
Los ponentes profundizan en el análisis cuantitativo y su papel en la creación de estrategias comerciales y gestión de carteras. Explican que el análisis cuantitativo implica el uso de modelos matemáticos y análisis estadísticos para obtener información a partir de datos históricos, que se pueden aplicar para desarrollar estrategias comerciales cuantitativas. El análisis cuantitativo es especialmente útil para la gestión de riesgos y el cálculo de los niveles de obtención de beneficios y stop loss para una estrategia. Proceden a demostrar el proceso de creación de una estrategia de cruce de promedio móvil simple utilizando bibliotecas como pandas, numpy y matplotlib, y calculan el rendimiento de la estrategia.
Se analizan diferentes métricas de rendimiento utilizadas en el comercio algorítmico, como la relación de Sharpe, la tasa de crecimiento anual compuesta (CAGR) y la reducción máxima. Se enfatiza la importancia de evitar sesgos de backtesting y errores comunes en el proceso. Los oradores también describen el conjunto de habilidades requeridas para el análisis cuantitativo, que incluye conocimiento de matemáticas y estadísticas, interés en el manejo de datos, dominio de la codificación de Python y comprensión de las finanzas. Describen el proceso de creación de estrategias comerciales automatizadas, desde fuentes de datos y análisis, hasta la ejecución de señales, y lo vinculan a la interfaz de programación de aplicaciones (API). El Dr. Hui Liu se presenta a sí mismo, brinda una breve reseña y brinda una descripción general de los próximos temas sobre el comercio algorítmico con TD Ameritrade e Interactive Brokers usando Python.
Luego, el orador se enfoca en los tres pilares del comercio algorítmico utilizando la plataforma iBridgePy: visualización de precios en tiempo real, recuperación de datos históricos y colocación de pedidos. Estos tres pilares sirven como bloques de construcción para construir estrategias complejas. El orador presenta tres ejemplos de estrategias: reequilibrio de la cartera, una estrategia de compra baja y venta alta, y una estrategia de captación de tendencias que utiliza cruces de medias móviles. Se destacan los beneficios del comercio algorítmico, como la presión reducida y menos errores humanos. El orador recomienda invertir tiempo en investigar buenas estrategias en lugar de gastar un esfuerzo excesivo en la codificación, utilizando una plataforma comercial como iBridgePy. También se enfatiza la flexibilidad para cambiar sin problemas entre backtesting y operaciones en vivo dentro de la plataforma iBridgePy.
El video procede a discutir varios corredores y opciones de plataforma Python disponibles para el comercio algorítmico. TD Ameritrade se presenta como una firma de corretaje con sede en los EE. UU. que ofrece una plataforma de negociación electrónica sin comisiones. Interactive Brokers se destaca como proveedor líder de soluciones API, comúnmente utilizadas por fondos de cobertura pequeños y medianos para automatizar el comercio. Robinhood, otra agencia de corretaje con sede en los EE. UU., se menciona por sus capacidades de comercio libre de comisiones y comercio de algoritmos. Se exploran las ventajas de utilizar la plataforma de comercio de Python iBridgePy, incluida la protección de la propiedad intelectual de los comerciantes, el soporte para backtesting y comercio en vivo simultáneos, y la compatibilidad con varias opciones de paquetes. iBridgePy también facilita el comercio con diferentes corredores y la gestión de múltiples cuentas.
Los presentadores discuten la necesidad de herramientas efectivas para que los administradores de fondos de cobertura manejen varias cuentas al mismo tiempo y presenten la plataforma de negociación híbrida llamada Average Pi. Average Pi se describe como una combinación de Contopian y Quantopian, lo que permite el control de algoritmos y el comercio basado en Python. Se demuestra el proceso de descarga y configuración de Average Pi en un sistema Windows, incluida la configuración de la plataforma de negociación de Interactive Brokers a través de Integrity Broker. Se muestra el archivo de entrada principal del paquete, runme.py, que requiere solo dos modificaciones: el código de cuenta y la estrategia seleccionada para ejecutar.
El Dr. Hui Liu y Aditya Gupta brindan un tutorial sobre el comercio algorítmico, demostrando cómo mostrar una cuenta usando un ejemplo. Explican el uso de las funciones de inicialización y manejo de datos dentro de Average Pi, que ofrece varias funciones diseñadas específicamente para el comercio algorítmico. Ilustran lo fácil que es codificar usando la plataforma Average Pi.
El orador se sumerge en dos temas: mostrar precios en tiempo real y recuperar datos históricos. Para precios en tiempo real, se presenta una demostración donde el código está estructurado para imprimir la marca de tiempo y pedir precio cada segundo usando la función de manejo de datos. Para obtener datos históricos con fines de investigación, el orador explica la función de solicitud de datos históricos y demuestra cómo se puede usar para recuperar un marco de datos de pandas que contiene datos históricos, incluidos apertura, alto, bajo, cierre y volumen. Se examina la estructura del código y se muestra una demostración en la que se actualiza el código para recuperar datos históricos e imprimir el resultado en la consola.
El orador demuestra cómo colocar una orden de límite para comprar 100 acciones de SPY a $99,95 cuando el precio de venta supera los $100,01 en iBridgePy. Se definen las cantidades de contratos y acciones para negociar, y la función de "pedido" se utiliza para colocar el pedido límite. El orador también demuestra cómo colocar un pedido al precio de mercado usando la función de 'monitor de estado del pedido' para rastrear el estado del pedido. Después de mostrar estos pasos básicos, el orador explica que la siguiente fase consiste en determinar los contratos para negociar y la frecuencia de las decisiones comerciales para construir estrategias comerciales.
Se discuten los pasos involucrados en la ejecución de una estrategia comercial algorítmica. Se explica la necesidad de manejar datos regularmente y programar tareas usando funciones como la función de programación. Se explora el proceso de cálculo de indicadores técnicos, lo que implica solicitar datos históricos de un corredor y utilizar las capacidades del marco de datos de pandas para los cálculos. Se examinan los tipos de órdenes, como las órdenes de mercado y las órdenes limitadas, y se menciona brevemente la incorporación de órdenes stop en el código o los algoritmos.
Luego, el orador procede a explicar una estrategia de demostración para reequilibrar una cartera basada en instrucciones comerciales, un enfoque popular entre los administradores de fondos. Se demuestra la ejecución manual de instrucciones comerciales utilizando diccionarios de Python, y se presenta un código simple que programa una decisión comercial diariamente y reequilibra automáticamente la cuenta utilizando porcentajes objetivo de orden. Se proporciona una demostración en vivo para mostrar el proceso de reequilibrio de una cuenta y ver su posición.
Se describen tres estrategias comerciales diferentes que se pueden implementar usando Python. La primera es una estrategia de reequilibrio simple que permite a los usuarios monitorear su posición, acciones y base de costos. La segunda es una estrategia de reversión a la media utilizada para identificar oportunidades comerciales cuando el precio de cierre es más bajo que el precio del día anterior. Por último, se discute una estrategia de cruce de promedio móvil, enfocándose en el uso de datos históricos para calcular el punto de cruce para posibles oportunidades de compra y venta. Las tres estrategias implican tomar decisiones comerciales antes de que el mercado cierre en momentos específicos y usar órdenes de mercado para ejecutar operaciones. El código para implementar todas las estrategias es sencillo y fácil de implementar usando Python y funciones de programación.
El Dr. Hui Liu y Aditya Gupta explican cómo usar los promedios móviles para determinar cuándo comprar o vender acciones en una cartera. Demuestran la implementación de esta estrategia utilizando la plataforma Average Pi y luego proceden a realizar una prueba retrospectiva aplicando datos históricos para evaluar su rendimiento. El tutorial cubre el uso de la función Test Me Py dentro de Hybrid Pi para ingresar datos históricos para la simulación y obtener resultados para el saldo de la cuenta y los detalles de la transacción.
El orador explica cómo ver los resultados de la simulación de una estrategia comercial algorítmica accediendo al gráfico de análisis de rendimiento. Este gráfico muestra el registro de saldos y varias estadísticas, como la relación de Sharpe, la media y la desviación estándar, que se pueden personalizar aún más. El orador enfatiza que Average Pi es capaz de manejar múltiples cuentas y reequilibrarlas. La plataforma es flexible, fácil de usar y se puede utilizar para configurar una plataforma de negociación algorítmica, backtesting, negociación en vivo, negociación con diferentes corredores y administración de múltiples cuentas. Además, el orador invita a los espectadores a explorar su servicio de alquiler de codificadores para obtener ayuda con la codificación y suscribirse a su canal de YouTube para obtener tutoriales gratuitos.
Los presentadores analizan cómo se puede utilizar iBridge de Interactive Brokers para negociar futuros y opciones, junto con otros tipos de contratos. Explican que la función Super Symbol permite definir varios tipos de contratos, como opciones sobre acciones, filtros, índices, forex y más. Se da un ejemplo de un producto estructurado que se negocia en la bolsa de Hong Kong, que no es una acción. La función Super Symbol permite negociar cualquier tipo de contrato que no sean acciones. Los stop loss se mencionan brevemente, destacando cómo pueden incorporarse al código o integrarse en un algoritmo.
Los presentadores continúan la discusión destacando la importancia de la gestión de riesgos en el comercio algorítmico. Enfatizan la necesidad de implementar stop loss como una estrategia de mitigación de riesgos para limitar las pérdidas potenciales en caso de movimientos adversos del mercado. El límite de pérdidas se puede integrar en el código o algoritmo para activar automáticamente la venta de un valor cuando alcanza un nivel de precio predeterminado.
A continuación, profundizan en el concepto de dimensionamiento de posiciones, que implica determinar la cantidad adecuada de acciones o contratos para negociar en función del capital disponible y la tolerancia al riesgo. El dimensionamiento adecuado de la posición ayuda a administrar el riesgo y optimizar los rendimientos al garantizar que la asignación de capital se alinee con la estrategia de administración de riesgos del comerciante.
Los ponentes también abordan la importancia de la evaluación y el seguimiento del rendimiento en el comercio algorítmico. Discuten varias métricas de rendimiento utilizadas para evaluar la efectividad de las estrategias comerciales, incluida la relación de Sharpe, la tasa de crecimiento anual compuesta (CAGR) y la reducción máxima. Estas métricas brindan información sobre los rendimientos ajustados al riesgo, el crecimiento a largo plazo y los posibles riesgos a la baja asociados con la estrategia.
Para evitar errores y sesgos comunes en las pruebas retrospectivas, los presentadores destacan la importancia de garantizar la integridad de los datos y utilizar pruebas fuera de la muestra. Advierten contra la optimización excesiva o el "ajuste de curvas", que se refiere a adaptar una estrategia demasiado de acuerdo con los datos históricos, lo que lleva a un rendimiento deficiente en el comercio real debido a la falta de adaptabilidad de la estrategia a las condiciones cambiantes del mercado.
Los oradores enfatizan que el comercio algorítmico exitoso requiere una combinación de habilidades y conocimientos. Mencionan la necesidad de tener una base sólida en matemáticas y estadísticas, interés en trabajar con datos, dominio de la codificación con Python y una buena comprensión de los mercados financieros. Animan a las personas interesadas en el comercio algorítmico a ampliar continuamente sus conocimientos y habilidades a través de recursos de aprendizaje y aplicaciones prácticas.
En el segmento final del video, el Dr. Hui Liu se presenta y comparte su experiencia como fundador de fondos de cobertura y autor de un paquete de Python que interactúa con la API de Interactive Brokers. Describe brevemente los próximos temas relacionados con el comercio algorítmico con TD Ameritrade e Interactive Brokers usando Python, preparando el escenario para una mayor exploración de estos temas en futuras clases magistrales.
El video proporciona una descripción general completa del comercio algorítmico, que cubre el viaje desde la ideación hasta la implementación de estrategias comerciales automatizadas. Destaca la importancia del análisis, analiza diferentes tipos de análisis (cuantitativo, técnico y fundamental) y explora varios aspectos del desarrollo, la prueba y la ejecución de la estrategia. Los oradores demuestran la aplicación práctica de las plataformas basadas en Python como iBridgePy y Average Pi, mostrando sus capacidades en el seguimiento de precios en tiempo real, la recuperación de datos históricos, la colocación de pedidos y el reequilibrio de la cartera.
Predicción de valoración de empresas a largo plazo por el profesor S Chandrasekhar | Presentación de investigación
Predicción de valoración de empresas a largo plazo por el profesor S Chandrasekhar | Presentación de investigación
El profesor S. Chandrasekhar es profesor titular y director de Business Analytics en IFIM Business School en Bangalore. Con más de 20 años de experiencia en el mundo académico, ha ocupado puestos como Profesor Director de la FORE School of Management en Nueva Delhi y Profesor en el Indian Institute of Management en Lucknow. Tiene una licenciatura en ingeniería eléctrica, una maestría en informática de IIT Kanpur y un doctorado en sistemas cuantitativos y de información de la Universidad de Georgia, EE. UU.
En esta presentación, el profesor S. Chandrasekhar se enfoca en predecir el valor empresarial (EV) a largo plazo de una empresa utilizando técnicas avanzadas de procesamiento de lenguaje natural y aprendizaje automático. A diferencia de la capitalización de mercado, que considera principalmente el valor para los accionistas, Enterprise Value proporciona una valoración más integral de una empresa al incorporar factores como la deuda a largo plazo y las reservas de efectivo.
Para calcular el EV, la capitalización de mercado se ajusta sumando la deuda a largo plazo y restando las reservas de efectivo. Al predecir el valor de la empresa con hasta seis meses de anticipación de forma continua, este enfoque puede ayudar a los inversores y calificar a las empresas a obtener una perspectiva a largo plazo sobre el crecimiento de la inversión y la gestión de los riesgos asociados.
Modelado del riesgo crediticio por el Dr. Xiao Qiao | Presentación de investigación
Modelado del riesgo crediticio por el Dr. Xiao Qiao | Presentación de investigación
Buenos días buenas tardes buenas tardes. Mi nombre es Vedant y soy de Quantum C. Hoy tengo el placer de ser su anfitrión para este evento. Nos acompaña el Dr. Xiao, cofundador de Parachronic Technologies, quien compartirá su experiencia en el modelado de riesgo crediticio mediante el aprendizaje profundo. Los intereses de investigación del Dr. Xiao giran principalmente en torno a la fijación de precios de activos, la econometría financiera y las inversiones. Ha sido reconocido por su trabajo por prestigiosas instituciones como Forbes, CFA Institute e Institutional Investors. Además, el Dr. Xiao es miembro del consejo editorial de Journal of Portfolio Management y Global Commodities Applied Research Digest. Tiene un doctorado en Finanzas de la Universidad de Chicago.
Durante esta sesión, el Dr. Xiao profundizará en el tema de la modelización del riesgo crediticio y explorará las aplicaciones del aprendizaje profundo en este campo. Hablará sobre cómo se puede utilizar el aprendizaje profundo para cotizar y calibrar modelos complejos de riesgo de crédito, centrándose particularmente en su eficacia en los casos en que no se dispone de soluciones de formato cerrado. El aprendizaje profundo ofrece una solución alternativa conceptualmente simple y eficiente en tales escenarios. El Dr. Xiao expresa su gratitud por ser parte del décimo aniversario del Instituto Quan y está emocionado de compartir sus ideas.
En el futuro, la discusión se centrará en el mercado crediticio, específicamente la escala masiva del mercado y la creciente importancia de los credit default swaps (CDS). Con un valor nocional pendiente estimado de CDS de alrededor de 8 billones a partir de 2019, el mercado ha estado creciendo constantemente. El índice CDS nocional también ha experimentado un crecimiento sustancial, alcanzando casi los 6 billones en los últimos años. Además, el mercado mundial de bonos supera la asombrosa cantidad de 100 billones de dólares, con una porción significativa que comprende bonos corporativos que conllevan un riesgo crediticio inherente debido al incumplimiento potencial de las instituciones emisoras.
A medida que los mercados crediticios evolucionan y se vuelven más complejos, los modelos de riesgo crediticio también se han vuelto cada vez más complejos para capturar la naturaleza dinámica del riesgo de incumplimiento. Estos modelos a menudo emplean variables de estado estocásticas para dar cuenta de la aleatoriedad presente en los mercados financieros a lo largo de diferentes períodos de tiempo y vencimientos. Sin embargo, la creciente complejidad de estos modelos ha hecho que su estimación y solución sean computacionalmente costosas. Este tema será un punto central más adelante en la presentación.
El aprendizaje automático, con su impacto transformador en varios campos, incluido el financiero, ha cobrado protagonismo en los últimos años. Se está empleando cada vez más en finanzas empíricas, como la fijación de precios de activos transversales y la construcción de carteras de acciones. En particular, el aprendizaje profundo se ha utilizado para aproximar el precio de los derivados y el precio de las opciones, así como para calibrar los modelos de volatilidad estocástica. En este documento, el Dr. Xiao y su colega, Gerardo Munzo de Kempos Capital, proponen aplicar el aprendizaje profundo al modelado de riesgo crediticio. Su investigación demuestra que el aprendizaje profundo puede reemplazar de manera efectiva las complejas soluciones de modelos de riesgo de crédito, lo que da como resultado un cálculo de diferencial de crédito eficiente y preciso.
Para proporcionar más contexto, el Dr. Xiao presenta el concepto de modelado de riesgo crediticio. Explica que el precio de un bono con incumplimiento está determinado por el promedio ponderado de probabilidad de los flujos de efectivo descontados en los escenarios de incumplimiento y no incumplimiento. La probabilidad de incumplimiento es una cantidad crucial en los modelos de riesgo de crédito, ya que cuantifica la probabilidad de incumplimiento. Existen dos tipos principales de modelos de riesgo de crédito: modelos estructurales y modelos de forma reducida. Los modelos estructurales establecen un vínculo directo entre los eventos de incumplimiento y la estructura de capital de una entidad. Por otro lado, los modelos de forma reducida representan el riesgo de incumplimiento como un proceso estadístico, típicamente utilizando un proceso de Poisson con un parámetro de intensidad de incumplimiento. El Dr. Xiao destaca que los modelos de riesgo de crédito implican la resolución de funciones de fijación de precios para derivar diferenciales de crédito, que pueden ser computacionalmente intensivos debido a la necesidad de integración numérica y búsquedas en cuadrículas.
Aquí es donde el aprendizaje profundo entra en escena. El Dr. Xiao procede a explicar las redes neuronales y el aprendizaje profundo, e ilustra cómo se pueden aplicar al modelado de riesgo crediticio. Las redes neuronales introducen la no linealidad.
Las redes neuronales, un componente fundamental del aprendizaje profundo, consisten en capas interconectadas de neuronas artificiales que imitan la estructura del cerebro humano. Estas redes pueden aprender patrones y relaciones complejas a partir de datos a través de un proceso conocido como entrenamiento. Durante el entrenamiento, la red ajusta sus parámetros internos para minimizar la diferencia entre las salidas previstas y las salidas reales, optimizando así su rendimiento.
El Dr. Xiao explica que el aprendizaje profundo se puede aprovechar para aproximar modelos complejos de riesgo crediticio entrenando redes neuronales en datos históricos. La red neuronal aprende el mapeo entre las variables de entrada, como los factores económicos y financieros, y los diferenciales de crédito correspondientes. Una vez entrenada, la red se puede usar para estimar diferenciales de crédito para nuevos datos de entrada de manera eficiente.
Una de las principales ventajas de utilizar el aprendizaje profundo en la modelización del riesgo crediticio es su capacidad para aproximar funciones de fijación de precios complejas. Tradicionalmente, los modelos de riesgo crediticio emplean técnicas de integración numérica y búsquedas en cuadrículas para resolver las funciones de fijación de precios, que pueden ser computacionalmente exigentes y consumir mucho tiempo. El aprendizaje profundo ofrece una alternativa más eficiente al aproximar directamente la función de fijación de precios a través del mapeo aprendido de la red neuronal.
El Dr. Xiao destaca que los modelos de aprendizaje profundo pueden capturar relaciones e interacciones no lineales entre las variables de entrada, que a menudo están presentes en los modelos de riesgo crediticio. Esta flexibilidad permite que la red neuronal se adapte a las complejidades de los mercados crediticios y genere estimaciones precisas de diferenciales de crédito.
Además, los modelos de aprendizaje profundo pueden manejar datos faltantes o incompletos de manera más efectiva en comparación con los métodos tradicionales. Tienen la capacidad de aprender de los datos disponibles y hacer predicciones razonables incluso en presencia de información faltante. Esto es particularmente beneficioso en el modelado de riesgo crediticio, donde los datos pueden ser escasos o contener lagunas.
Para validar la eficacia del aprendizaje profundo en el modelado del riesgo crediticio, el Dr. Xiao y su colega realizaron extensos experimentos empíricos utilizando un gran conjunto de datos de bonos corporativos. Compararon el rendimiento de las estimaciones de diferenciales de crédito basadas en aprendizaje profundo con las obtenidas de los modelos de riesgo de crédito tradicionales. Los resultados demostraron que los modelos de aprendizaje profundo superaron consistentemente a los modelos tradicionales en términos de precisión y eficiencia computacional.
El Dr. Xiao concluye su presentación enfatizando el potencial transformador del aprendizaje profundo en el modelado de riesgo crediticio. Destaca la eficiencia, la precisión y la flexibilidad de los modelos de aprendizaje profundo en la aproximación de modelos complejos de riesgo crediticio, particularmente en los casos en que las soluciones de forma cerrada no están disponibles o son computacionalmente exigentes.
Después de la presentación, el piso está abierto para preguntas de la audiencia. Los asistentes pueden consultar sobre aplicaciones específicas de aprendizaje profundo en el modelado de riesgo crediticio, requisitos de datos, interpretabilidad del modelo y cualquier otro tema relevante. El Dr. Xiao agradece la oportunidad de interactuar con la audiencia y brindar más información basada en su experiencia y los hallazgos de la investigación.
Sesión de preguntas y respuestas después de la presentación del Dr. Xiao:
Miembro de la audiencia 1: "Gracias por la presentación informativa, Dr. Xiao. Tengo curiosidad acerca de la interpretabilidad de los modelos de aprendizaje profundo en el modelado de riesgo crediticio. Los modelos tradicionales a menudo brindan transparencia sobre los factores que impulsan las estimaciones de diferenciales de crédito. ¿Cómo funcionan los modelos de aprendizaje profundo? manejar la interpretabilidad?"
Dr. Xiao: "Esa es una excelente pregunta. Interpretar modelos de aprendizaje profundo puede ser un desafío debido a su complejidad inherente. Las redes neuronales profundas funcionan como cajas negras, lo que dificulta comprender directamente el funcionamiento interno e interpretar las activaciones de neuronas individuales. Sin embargo, ha habido Ha habido esfuerzos de investigación en curso para mejorar la interpretabilidad en el aprendizaje profundo".
"Técnicas como el análisis de importancia de las características, los métodos basados en gradientes y los mecanismos de atención pueden ayudar a arrojar luz sobre los factores que influyen en las predicciones del modelo. Al examinar la respuesta de la red a diferentes variables de entrada, podemos obtener información sobre su importancia relativa para determinar los diferenciales de crédito. ."
"Además, los métodos de interpretabilidad agnósticos del modelo, como LIME (Explicaciones agnósticas del modelo interpretable local) o SHAP (Explicaciones aditivas de SHapley), se pueden aplicar a los modelos de aprendizaje profundo. Estos métodos brindan explicaciones para las predicciones individuales al aproximar el modelo localmente en torno a un entrada específica".
"Es importante tener en cuenta que, si bien estas técnicas ofrecen cierto nivel de interpretabilidad, la principal fortaleza de los modelos de aprendizaje profundo radica en su capacidad para capturar patrones y relaciones complejos en los datos. La compensación entre la interpretabilidad y el rendimiento del modelo es una consideración en el crédito modelado de riesgo, y los investigadores están explorando activamente formas de lograr un equilibrio entre los dos".
Miembro de la audiencia 2: "Gracias por las ideas, Dr. Xiao. Tengo curiosidad acerca de los requisitos de datos para entrenar modelos de aprendizaje profundo en el modelado de riesgo crediticio. ¿Podría dar más detalles sobre la cantidad y la calidad de los datos necesarios?"
Dr. Xiao: "Ciertamente. Los modelos de aprendizaje profundo generalmente se benefician de grandes cantidades de datos para una capacitación efectiva. En el modelado de riesgo crediticio, tener un conjunto de datos diverso y completo es crucial para capturar las complejidades de los mercados crediticios".
"Los datos para entrenar modelos de aprendizaje profundo deben incluir una variedad de indicadores económicos y financieros, como factores macroeconómicos, variables específicas de la industria, diferenciales de crédito históricos y datos de mercado relevantes. Cuanto más diverso y representativo sea el conjunto de datos, mejor podrá generalizar el modelo. a nuevos escenarios de riesgo de crédito”.
"Con respecto a la calidad de los datos, es importante garantizar la precisión, la coherencia y la relevancia de las variables de entrada. Las técnicas de preprocesamiento de datos, como la limpieza de datos, la normalización y la ingeniería de funciones, desempeñan un papel vital en la preparación del conjunto de datos para el entrenamiento. Eliminación de valores atípicos, abordar los valores faltantes y escalar los datos de manera adecuada son pasos cruciales para garantizar un rendimiento confiable del modelo".
"Además, mantener los datos actualizados es esencial, ya que los modelos de riesgo crediticio deben adaptarse a las condiciones cambiantes del mercado. Las actualizaciones regulares y el monitoreo de la calidad y relevancia de los datos son necesarios para garantizar la precisión continua de los modelos de aprendizaje profundo".
Estas fueron solo un par de preguntas de la audiencia, pero la sesión de preguntas y respuestas continúa con otras consultas y debates sobre temas como la solidez del modelo, las limitaciones potenciales del aprendizaje profundo en el modelado de riesgo crediticio y los desafíos de implementación en el mundo real. El Dr. Xiao interactúa activamente con la audiencia, compartiendo su experiencia y conocimientos obtenidos de su investigación.
¿Qué afecta una estrategia cuantitativa? [Panel de discusión] - 24 de septiembre de 2020
¿Qué afecta una estrategia cuantitativa? [Panel de discusión] - 24 de septiembre de 2020
Durante el panel de discusión sobre estrategias de búsqueda de alfa en finanzas, Nicholas argumenta que es increíblemente difícil crear alfa en fondos mutuos y fondos de cobertura, afirmando que el 99% de los inversores no deberían buscar activamente posiciones alfa. Destaca los desafíos de generar alfa en fondos de cobertura neutrales al mercado y sugiere que la inversión factorial es una opción más viable para superar al mercado.
El panel está de acuerdo con Nicholas y enfatiza la importancia de encontrar fuentes de datos únicas y usarlas para desarrollar una estrategia sistemática en la inversión de factores. Creen que este enfoque es clave para una generación alfa exitosa. También analizan la dificultad de lograr un verdadero alfa en el mercado actual y sugieren estrategias alternativas como la asignación de activos y la gestión de riesgos.
El panel desaconseja centrarse únicamente en buscar alfa y sugiere buscar nichos dentro del mercado que estén menos cubiertos y, por lo tanto, menos eficientes. Enfatizan la importancia de construir un índice de referencia de cartera bien construido, como estrategias beta, y alientan a los inversores a mirar más allá del S&P 500 para encontrar acciones potencialmente rentables.
Los panelistas advierten que incluso si se identifica alfa, es posible que no sea posible cosecharlo debido a posibles conflictos con los principales corredores. También discuten los beneficios de negociar activos que no forman parte del universo de inversión principal en futuros o que no forman parte del mandato del administrador. Dichos activos suelen estar menos concurridos, lo que da como resultado índices de Sharpe más altos en comparación con los activos que son bien conocidos en el mercado. Sin embargo, reconocen que negociar estos activos puede requerir un tamaño de cartera más pequeño e incurrir en tarifas más altas debido a su menor liquidez y mayor esfuerzo comercial.
Laurent está de acuerdo con la opinión de Nicholas de que las estrategias tradicionales de gestión activa, como elegir acciones en el lado largo, nunca han funcionado bien. Él cree que la carga de la prueba se ha trasladado a los administradores activos para demostrar su capacidad para evolucionar y desempeñarse en mercados difíciles.
El panel también analiza la importancia de considerar el lado corto de una estrategia de inversión larga-corta. Hacen hincapié en la necesidad de gestión de riesgos y pruebas de estrés de la estrategia a través de pruebas exhaustivas, incluido el examen del impacto de los costos de transacción y los cambios en la estructura del mercado. El panel recomienda pasar mucho tiempo con la estrategia para identificar los pocos que sobreviven al proceso de validación.
La discusión pasa a las implicaciones prácticas y la visualización de estrategias para la generación alfa. El panel reconoce el valor de la investigación académica, pero señala que a menudo carece de implicaciones prácticas y detalles de implementación. Destacan la importancia de crear estrategias que puedan ejecutarse desde una perspectiva de cartera, sobrevivir a los costos de transacción y alinearse con las expectativas de los clientes. Se prefiere la representación visual, como gráficos que ilustran las reducciones comerciales, a las tablas, ya que ayuda a los inversores a mantener las estrategias durante reducciones significativas.
El ponente destaca la importancia de construir una estrategia que se alinee con los objetivos del cliente y esté sincronizada con razones económicas y fundamentales. Enfatizan la necesidad de simplicidad y explicabilidad, afirmando que una estrategia debe poder resumirse en unas pocas oraciones simples. El backtesting no está destinado únicamente a demostrar que una estrategia funciona, sino también a probar su resistencia al empujar sus límites.
El panel reflexiona sobre el impacto de las estrategias cuantitativas e identifica la reversión a la media y el seguimiento de tendencias como las dos estrategias fundamentales, independientemente de la clase de activo o el marco temporal. Comparan el seguimiento de tendencias con la compra de boletos de lotería, con bajas tasas de ganancias y alta volatilidad, y destacan la reversión a la media como una estrategia que genera un dólar a la vez con altas tasas de ganancias y baja volatilidad. Discuten la importancia de administrar las pérdidas y optimizar la expectativa de ganancias inclinando y combinando estas estrategias. También abordan los desafíos de las ventas en corto y seguir los pasos de los tenedores institucionales.
La gestión de riesgos ocupa un lugar central en la discusión, y el panel enfatiza la necesidad de una expectativa positiva en las estrategias del mercado de valores. Consideran el mercado de valores como un juego infinito, aleatorio y complejo y sugieren combinar operaciones con altas tasas de ganancias con boletos de lotería para mitigar pérdidas potenciales. El panel también analiza cuándo retirar una estrategia, destacando la importancia de mantenerse actualizado con la investigación y considerar los cambios estructurales o las fluctuaciones del mercado que podrían afectar una estrategia. El retiro de una estrategia solo debe ocurrir después de una investigación exhaustiva y cambios en el marco.
El panel aborda las dificultades de administrar múltiples estrategias de inversión y lidiar con estrategias de bajo rendimiento. Destacan la importancia de apegarse al mandato de inversión y comprender las expectativas de los clientes. El panel sugiere tener un proceso para encontrar nuevas estrategias e implementarlas mientras se sabe cuándo retirar las estrategias que no funcionan bien. Discuten dos enfoques para manejar las estrategias de bajo rendimiento, ya sea manteniéndolas para una visión a largo plazo o utilizando técnicas de seguimiento de tendencias y eliminándolas de la cartera. La decisión depende del mandato específico y la financiación del fondo multiestrategia y multiactivo.
Los panelistas destacan los desafíos de la inversión cuantitativa y la importancia de tener fe en el trabajo realizado, independientemente de la cantidad de investigación. Mencionan la posibilidad de transformar estrategias en mejores y enfatizan la escasez de estrategias verdaderamente diversificadoras. También abordan la venta corta de acciones, como Tesla, y señalan que la venta corta de una acción es esencialmente la venta corta de una idea o creencia, particularmente en las posiciones cortas de valoración que se basan en una historia. Brindan un ejemplo de Japón en 2005, donde una compañía de financiamiento al consumo tuvo una valoración estratosférica pero se mantuvo en corto pacíficamente hasta que finalmente quebró unos años más tarde.
Los oradores discuten los peligros de cerrar una estrategia basada en valoraciones surrealistas que no se alinean con las expectativas tradicionales. Mencionan empresas como Tesla, cuya capitalización de mercado ha superado la de empresas más grandes como Toyota. Los panelistas enfatizan la importancia de la simetría al tener las mismas reglas para los lados corto y largo, aunque reconocen que es más desafiante. Creen que se pueden mejorar muchas estrategias, e incluso las diferentes clases de activos son, en esencia, una apuesta por el crecimiento económico.
El panel también analiza la dificultad de encontrar estrategias que realmente diversifiquen y se beneficien de la incertidumbre y la volatilidad financiera. Destacan las limitaciones de las estrategias clásicas de fondos de cobertura en este sentido y recomiendan a los aspirantes a analistas que piensen en plantillas y estén dispuestos a descartar estrategias que no funcionan. Sugieren que los inversores minoristas se centren en ETF diversificados de bajo costo y prioricen la gestión de riesgos.
El panel concluye la discusión abordando la eficiencia de los mercados financieros y los desafíos que enfrentan los inversores individuales cuando compiten con los profesionales. Recomiendan usar trabajos de investigación académica como inspiración en lugar de evangelio y encontrar ideas que no sean convencionales para evitar una correlación excesiva con el mercado más amplio. Proporcionan sus identificadores de Twitter, perfiles de LinkedIn y sitios web para aquellos interesados en explorar más su trabajo.
El panel profundiza en varios aspectos de las estrategias de búsqueda alfa, destacando las dificultades, los enfoques alternativos, las consideraciones de gestión de riesgos y la importancia de las implicaciones prácticas y la visualización. Sus conocimientos brindan una guía valiosa para los inversores y los analistas que navegan por el complejo panorama de las finanzas.
Trading with Deep Reinforcement Learning | Dr Thomas Starke
Trading with Deep Reinforcement Learning | Dr Thomas Starke
Dr. Thomas Starke, an expert in deep reinforcement learning for trading, introduces the concept of reinforcement learning (RL) and its application in the trading domain. Reinforcement learning allows machines to learn how to perform a task without explicit supervision by determining the best actions to take in order to maximize favorable outcomes. He uses the example of a machine learning to play a computer game, where it progresses through different steps while responding to visual cues on the screen. The machine's success or failure is determined by the decisions it made throughout the game.
Dr. Starke dives into the specifics of trading with deep reinforcement learning by discussing the Markov decision process. In this process, each state corresponds to a particular market parameter, and an action taken transitions the process to the next state. Depending on the transition, the agent (the machine) receives a positive or negative reward. The objective is to maximize the expected reward given a certain policy and state. In the context of trading, market parameters help identify the current state, enabling the agent to make informed decisions about which actions to take.
The decision-making process in trading involves determining whether to buy, sell, or hold positions based on various indicators that inform the state of the system. The ultimate goal is to receive the best possible reward, which is the profit or loss resulting from the trade. Dr. Starke notes that traditional machine learning approaches assign specific labels to states, such as immediate profit or loss. However, this can lead to incorrect labels if a trade temporarily goes against expectations. The machine needs to understand when to stay in a trade even if it initially incurs losses, having the conviction to wait until the trade reverts back to the average line before exiting.
To address the difficulty of labeling every step in a trade's profit and loss, Dr. Starke introduces retroactive labeling in reinforcement learning. Traditional machine learning labels every step in a trade, making it challenging to predict whether a trade may become profitable in the future despite initial losses. Retroactive labeling utilizes the Bellman equation to assign a non-zero value to each action and state, even if it doesn't yield immediate profit. This approach allows for the possibility of reversion to the mean and eventual profitability.
Delayed gratification is a key challenge in trading, and Dr. Starke explains how reinforcement learning helps overcome this hurdle. The Bellman equation is used to calculate the reward of an action, incorporating both the immediate reward ("r") and the cumulative reward ("q"). The discount factor ("gamma") determines the weight given to future outcomes compared to previous ones. By leveraging reinforcement learning, trading decisions are not solely based on immediate rewards but also take into account the potential for higher future rewards. This approach enables more informed decision-making compared to purely greedy decision-making.
Deep reinforcement learning is particularly useful in trading due to the complexity of financial markets and the large number of states and influences to consider. Dr. Starke highlights the use of deep neural networks to approximate tables based on past experiences, eliminating the need for an enormous table. He emphasizes the importance of selecting inputs that have predictive value and testing the system for known behavior. The state in trading involves historical and current prices, technical guard data, alternative data sources like sentiment or satellite images, and more. Finding the right reward function and inputs to define the state is crucial. The constant updating of tables approximated by neural networks allows the machine to progressively learn and make better trading decisions.
Dr. Starke discusses how to structure the price series for training using reinforcement learning. Instead of sequentially running through the price series, one can randomly enter and exit at different points. The choice of method depends on the specific requirements and preferences of the user. He also delves into the challenge of designing a reward function, providing examples such as using pure percentage profit and loss (P&L), profit per tick, the Sharpe ratio, and various types of punishments to avoid prolonged drawdowns or excessive trade durations.
In terms of inputs, Dr. Starke suggests multiple options, including open, high, low, close, and volume values, candlestick patterns, technical indicators like the relative strength index, and various time-related factors. Inputs can also include prices and technical indicators of other instruments and alternative data sources like sentiment analysis or satellite images. These inputs are combined to construct a complex state, similar to how a computer game utilizes input features to make decisions. Finding the right reward function that aligns with one's trading style is critical, as it enables the optimization of the system accordingly.
The testing phase is an essential step for reinforcement learning in trading. Dr. Starke explains the series of tests he conducts, including clean sine waves, trend curves, randomized series with no structure, different types of order correlations, noise in clean test curves, and recurring patterns. These tests help evaluate whether the machine consistently generates profits and identify any flaws in the coding. He also discusses the use of different types of neural networks, such as standard, convolutional, and long short-term memory (LSTM) networks. Dr. Starke prefers simpler neural networks that suffice for his needs and do not require excessive computational effort.
Dr. Starke acknowledges the challenges of trading with reinforcement learning, such as distinguishing between signal and noise and the issue of local minima. Reinforcement learning struggles with noisy financial time series and dynamic financial systems characterized by changing rules and market regimes. However, he demonstrates that smoothing the price curve with a simple moving average can significantly enhance the performance of the reinforcement learning machine. This insight offers guidance on building a successful machine learning system capable of making profitable trading decisions.
Regarding audience questions, Dr. Starke provides further insights. He confirms that the Bellman equation avoids introducing look-ahead bias, and technical indicators can be used as inputs after careful analysis. He suggests that satellite images could be valuable for predicting stock prices. In terms of time frames, reinforcement trading can be applied to small time frames depending on the computational time of the neural network. He discusses the sensitivity of reinforcement trading algorithms to market anomalies and explains why training random decision trees using reinforcement learning does not make sense.
When asked about the choice of neural networks, Dr. Starke recommends using neural networks for trading instead of decision trees or support vector machines due to their suitability for the problem. Tuning the loss function based on the reward function is essential for optimal performance. He acknowledges that some attempts have been made to use reinforcement learning for high-frequency trading, but slow neural networks lacking responsiveness in real-time markets have been a limitation. Dr. Starke emphasizes the importance of gaining market knowledge to pursue a trading career successfully, making actual trades, and learning extensively throughout the process. Finally, he discusses the challenges associated with combining neural networks and options trading.
Dr. Starke also addresses the use of options data as an input for trading the underlying instrument, rather than solely relying on technical indicators. He offers insights on using neural networks to determine the number of lots to buy or sell and incorporating factors like spread, commission, and slippage into the algorithm by building a slippage model and integrating these factors into the reward function. He advises caution when using neural networks to decide trade volumes and suggests using output values to adjust portfolio weights accordingly. He concludes by expressing gratitude for the audience's questions and attendance at his talk, inviting further engagement and interaction through LinkedIn.
During the presentation, Dr. Starke emphasized the importance of continuous learning and improvement in the field of trading with reinforcement learning. He highlighted the need to constantly update the neural networks and refine the system based on new data and market conditions. This iterative process allows the machine to adapt to changing dynamics and enhance its decision-making capabilities over time.
Dr. Starke also discussed the concept of model validation and the significance of out-of-sample testing. It is crucial to evaluate the performance of the trained model on unseen data to ensure that it generalizes well and is not overfitting to specific market conditions. Out-of-sample testing helps validate the robustness of the system and provides a more realistic assessment of its performance.
Additionally, he touched upon the challenges of data preprocessing and feature engineering in trading with reinforcement learning. Preparing the data in a suitable format and selecting informative features are critical steps in building an effective trading model. Dr. Starke suggested exploring various techniques such as normalization, scaling, and feature selection to optimize the input data for the neural networks.
Furthermore, Dr. Starke acknowledged the limitations of reinforcement learning and its susceptibility to market anomalies or extreme events. While reinforcement learning can offer valuable insights and generate profitable strategies, it is important to exercise caution and understand the inherent risks involved in trading. Risk management and diversification strategies play a crucial role in mitigating potential losses and ensuring long-term success.
In conclusion, Dr. Starke's presentation provided a comprehensive overview of the application of reinforcement learning in trading. He discussed the key concepts, challenges, and best practices associated with using deep reinforcement learning algorithms to make informed trading decisions. By leveraging the power of neural networks and the principles of reinforcement learning, traders can enhance their strategies and potentially achieve better performance in dynamic and complex financial markets.
Conferencia EPAT Sneak Peek - ¿Cómo optimizar una estrategia comercial? - 27 de febrero de 2020
Conferencia EPAT Sneak Peek - ¿Cómo optimizar una estrategia comercial? - 27 de febrero de 2020
En el video, el orador comienza brindando información general sobre el Contenido C y presenta su experiencia en el comercio y la banca. Discuten las diferentes metodologías en el comercio, incluido el comercio sistemático, el comercio cuantitativo, el comercio algorítmico y el comercio de alta frecuencia. El enfoque principal del video es proporcionar información sobre el desarrollo y la optimización de una estrategia comercial de manera cuantificable y comparar enfoques comerciales discrecionales y cuantitativos.
El orador enfatiza la importancia del rendimiento superior y la proporción de aciertos en el comercio. Explican que para lograr un rendimiento superior en al menos el 50 % de las acciones con una probabilidad del 95 %, los operadores deben acertar en sus predicciones una cierta cantidad de veces, que aumenta con la cantidad de activos que se rastrean y se negocian. El comercio sistemático, que permite rastrear más acciones, tiene una ventaja sobre el comercio discrecional en este sentido. Sin embargo, el comercio discrecional puede proporcionar información propietaria más profunda al rastrear menos acciones. El orador presenta la ley fundamental de la gestión de inversiones, que establece que el desempeño de un administrador de inversiones sobre el índice de referencia es directamente proporcional a su índice de aciertos y la raíz cuadrada del número de apuestas realizadas.
Los diferentes tipos de comerciantes, como los comerciantes técnicos, los comerciantes fundamentales y los cuantitativos, capturan el riesgo y los rendimientos de diferentes maneras. El orador explica que casi todos estos enfoques comerciales se pueden expresar como reglas, lo que hace posible el comercio sistemático. Una estrategia comercial se define como un conjunto matemático de reglas que determina cuándo comprar, vender o mantener, independientemente de la fase del mercado. El objetivo de una estrategia comercial es generar una función de señal basada en los datos entrantes y convertirla en una posición objetivo para el activo subyacente. Si bien el comercio es complejo debido a la aleatoriedad del mercado y la naturaleza estocástica, las estrategias basadas en reglas pueden ayudar a administrar el riesgo.
El ponente profundiza en las funciones involucradas en el diseño e implementación de una estrategia comercial. Hacen hincapié en que el rendimiento realizado en el mercado real está fuera del control de uno y no se puede cambiar. Por lo tanto, es esencial optimizar la función de Pi dadas algunas limitaciones cambiando los parámetros para mejorar la estrategia. El orador describe las etapas del desarrollo de la estrategia, incluida la ideación, la prueba de hipótesis, la conversión de reglas, el backtesting, la estimación de riesgos, el despliegue y la importancia de buscar la siguiente estrategia después del despliegue.
Se explican las ecuaciones para el retorno de la inversión en una estrategia comercial, considerando factores como alfa, beta y épsilon. El orador también analiza el riesgo y los paneles en una estrategia, explicando cómo el riesgo idiosincrásico se puede diversificar y no es parte del rendimiento esperado. Se introducen los conceptos de beta y alfa, y se sugiere una indexación pasiva de base amplia para la exposición a factores de mercado y el potencial de una mayor diversificación a través de factores de compra como el valor o el impulso. La creación de alfa se reconoce como una tarea desafiante que requiere una cuidadosa selección o sincronización.
El orador destaca la importancia del alfa y el market timing en las estrategias comerciales. Explican que una estrategia efectiva requiere capturar alfa constante y predecir cambios en los factores del mercado. Si uno carece de esta capacidad, la inversión pasiva se convierte en la única opción viable. El orador aconseja comenzar el desarrollo de una estrategia comercial simple con ideación y observación cuidadosa antes de proceder con el backtesting. Se recomiendan inmersiones profundas en ideas potenciales utilizando precios diarios para obtener información inicial.
Se proporciona una demostración sobre cómo optimizar una estrategia comercial utilizando técnicas de codificación y análisis de datos. El ejemplo utiliza acciones de Microsoft, Apple y Google para calcular las señales comerciales y aproximar la venta masiva de valor posterior en función de la apertura y el cierre de hoy. El análisis exploratorio se lleva a cabo mediante el trazado de gráficos para visualizar las diferencias en los movimientos de precios. Se discute la estandarización de datos para hacer que el valor de X sea comparable entre diferentes acciones, considerando factores tales como volatilidades, precios y porcentaje de volatilidad. El orador destaca el fenómeno estadístico relacionado con la brecha hacia arriba y hacia abajo en las acciones de confianza de gran capitalización del mercado indio y los 20 índices principales de S&P, lo que lleva a la definición de rango de apertura y barra de cierre.
Luego, el orador pasa a discutir los beneficios del programa EPAT (Programa Ejecutivo en Comercio Algorítmico) para comerciantes e individuos interesados en seguir una carrera en el comercio. Destacan que el programa EPAT es un programa práctico centrado en el comercio, por lo que es adecuado para aquellos que aspiran a convertirse en comerciantes o trabajar en mesas de negociación de corretaje. El programa proporciona una comprensión integral de las estrategias comerciales, las técnicas de gestión de riesgos y los aspectos prácticos del comercio algorítmico.
A diferencia de los programas que se centran más en los aspectos teóricos, el programa EPAT ofrece conocimientos prácticos que se pueden aplicar directamente en escenarios comerciales del mundo real. El orador alienta a las personas que aspiran a convertirse en cuantificadores de riesgo a explorar otros programas que profundizan en los conceptos teóricos.
Cuando se le pregunta sobre temas de estadísticas esenciales para el comercio, el orador recomienda consultar cualquier libro de estadísticas de nivel universitario para obtener información sobre cómo aplicar las estadísticas en el comercio. También sugieren seguir blogs de finanzas cuantitativas y cuentas de Twitter para acceder a valiosos materiales de aprendizaje y mantenerse actualizado con las últimas tendencias y desarrollos en el campo.
Con respecto al desarrollo de estrategias, el orador enfatiza la importancia de pensar en términos de estadísticas y cuantificación para traducir las ideas comerciales en código. El programa EPAT equipa a los comerciantes con las habilidades necesarias para definir estrategias comerciales buenas y rentables. Destacan la necesidad de esforzarse en el desarrollo de estrategias y reconocen que obtener ganancias constantes en el comercio de algoritmos requiere dedicación y perseverancia.
El orador aborda preguntas específicas de la audiencia, brindando orientación sobre temas como la definición de puntos bajos y puntos altos locales en el código, la obtención y el uso de códigos para el comercio de opciones y la búsqueda de códigos de muestra. Mencionan que se pueden encontrar ejemplos de código en GitHub y aclaran que el programa EPAT incluye componentes de estrategias comerciales, pero no están seguros de si se cubre el tamaño de la posición.
Continuando, el orador analiza la aplicación del comercio algorítmico en estrategias de opciones simples como los cóndores de hierro. Destacan la importancia de la velocidad de ejecución en el comercio de alta frecuencia, donde el tiempo de ejecución juega un papel crucial. Sin embargo, para las estrategias a medio y largo plazo, las fuentes alfa son más importantes que la velocidad. El comercio de algoritmos puede ser particularmente útil para monitorear múltiples opciones en diferentes acciones para garantizar que no se pierdan intercambios potenciales.
El orador comparte su perspectiva sobre el uso de datos alternativos en las estrategias comerciales. Expresan emociones encontradas sobre su efectividad, y señalan que, si bien algunos datos alternativos pueden ser valiosos, no todas las fuentes de datos brindan información útil. La decisión de incorporar valores atípicos en las estrategias comerciales depende de los perfiles comerciales y de riesgo específicos de la estrategia que se emplea.
También se analizan las estrategias adaptativas, que tienen la capacidad de optimizarse en función de las condiciones cambiantes del mercado. El orador destaca varias técnicas para crear estrategias adaptativas y enfatiza su potencial para mejorar el rendimiento comercial y la adaptabilidad.
En conclusión, el orador reitera que si bien es posible crear estrategias comerciales basadas en varios tipos de gráficos, es esencial contar con reglas específicas para garantizar el éxito. Advierten que no hay "almuerzos gratis" en el mercado y enfatizan la importancia de un enfoque disciplinado y sistemático para las decisiones comerciales.
El video termina con una invitación a los espectadores para que hagan cualquier pregunta adicional que puedan tener sobre el programa EPAT o sus beneficios potenciales para sus carreras y negocios. Se alienta a las personas interesadas a conectarse con los asesores del programa para consultar los detalles de admisión y la flexibilidad de tarifas a través del foro proporcionado u otros canales de comunicación.