Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Estrategias comerciales de alta frecuencia
Estrategias comerciales de alta frecuencia
Gracias por invitarme hoy a presentar mi artículo sobre estrategias comerciales de alta frecuencia. Mi nombre es Amy Kwan y soy de la Universidad de Sydney. Este documento está escrito en colaboración con Michael Goldstein de Babson College y Richard Phillip, también de la Universidad de Sydney.
El propósito de este documento es contribuir al debate en curso entre los reguladores, los participantes del mercado y los académicos sobre el impacto del comercio de alta frecuencia (HFT) en los mercados financieros. Hemos escuchado diferentes perspectivas sobre este asunto, incluida la presentación de Sean y la discusión de anoche.
Si bien existen diversas opiniones sobre HFT, algunas personas, como Michael Lewis, el autor del libro "Flash Boys", argumentan que el mercado de valores de EE. UU. se ha convertido en un sistema de clases basado en la velocidad, donde unos pocos privilegiados pagan por nanosegundos de ventaja mientras otros siguen sin darse cuenta del valor de estos pequeños intervalos de tiempo. Por otro lado, los defensores de HFT, como Ray Katsuyama, afirman que los HFT pueden captar señales comerciales y aprovecharse de los inversores habituales.
La evidencia académica temprana generalmente apoyó HFT y el comercio algorítmico, ya que se creía que aumentaba la liquidez y mejoraba las medidas tradicionales de calidad del mercado, como la disminución de los diferenciales, el aumento de la profundidad y la reducción de la volatilidad a corto plazo. Sin embargo, estudios más recientes han encontrado algunos aspectos negativos de HFT. Por ejemplo, los HFT pueden anticipar el flujo de pedidos de otros inversores y extraer rentas de las fuerzas del mercado.
Además, estudios recientes, como los de Banker, Blending, Courageous y Canorkey, indican que los HFT inicialmente se negocian contra el viento, pero luego se negocian con el viento a medida que avanza una gran operación. Para ilustrar esto, consideremos un escenario en el que un gran fondo de pensiones quiere comprar acciones de Apple. Los HFT, al detectar este comercio, pueden competir con la institución para operar en la misma dirección, ya que anticipan el aumento futuro del precio debido a la presión de compra.
Aunque existe cierta comprensión de los efectos de HFT, la literatura sigue sin estar clara acerca de cómo los HFT realmente comercian e influyen en los mercados financieros. La mayor parte de la evidencia existente se basa en ejecuciones comerciales y se sabe poco sobre el comportamiento de envío de órdenes en Australia.
Para abordar esta brecha, nuestro estudio examina directamente las estrategias comerciales de HFT mediante el análisis de los datos completos del libro de órdenes de límite. Tenemos acceso a información detallada sobre envíos de pedidos, modificaciones, cancelaciones y transacciones de las 100 acciones principales en ASX. Al clasificar a los comerciantes en empresas HFT, comerciantes institucionales y corredores minoristas, nuestro objetivo es comprender su comportamiento y el impacto en la dinámica del mercado.
Nuestros principales hallazgos revelan que los HFT se destacan en el seguimiento del libro de pedidos y en la negociación de desequilibrios. Cuando hay una mayor demanda para comprar o vender una acción, los HFT tienen más éxito en capitalizar esta información en comparación con otras categorías de comerciantes. Además, observamos que los HFT proporcionan liquidez en el lado fijo del libro de pedidos, incluso cuando no es necesario, mientras que los que no son HFT sufren un acceso limitado al libro de pedidos debido al comportamiento comercial estratégico de los HFT.
También examinamos la introducción de una fuente de datos más rápida llamada "eso" y descubrimos que los HFT se vuelven aún más efectivos en su negociación estratégica después de su implementación. Sin embargo, las órdenes que no son HFT se desplazan del libro de órdenes limitadas, lo que reduce las posibilidades de ejecución exitosa para estos operadores.
En conclusión, nuestro estudio contribuye a la comprensión de las estrategias comerciales de HFT mediante el análisis de los datos completos del libro de órdenes de límite. Descubrimos que los HFT superan a otras categorías de comerciantes en el seguimiento del libro de pedidos y en la negociación de desequilibrios. La introducción de una fuente de datos más rápida mejora aún más su ventaja comercial. Estos hallazgos arrojan luz sobre cómo los HFT influyen en la dinámica del mercado y brindan información valiosa para los reguladores, los participantes del mercado y los académicos.
Gracias nuevamente por la oportunidad de presentar nuestra investigación.
Ciamac Moallemi: Trading de alta frecuencia y microestructura de mercado
Ciamac Moallemi: Trading de alta frecuencia y microestructura de mercado
Parte del propósito de mi presentación es familiarizar a las personas con la investigación realizada por los profesores. Antes de profundizar en el tema principal, me gustaría brindar algunos antecedentes sobre mi propio trabajo como matemático aplicado. Aproximadamente la mitad de mi tiempo lo dedico a explorar problemas de control estocástico, que implican tomar decisiones a lo largo del tiempo en presencia de incertidumbre. Estos problemas matemáticos abstractos plantean desafíos significativos pero son fundamentales, ya que muchos problemas de ingeniería y comerciales comparten características similares. La otra mitad de mi investigación se centra en el aspecto más aplicado de los problemas de control estocástico en el campo de la ingeniería financiera.
Basándome en mi experiencia previa como administrador de fondos de cobertura, tengo un interés particular en el comercio óptimo, la microestructura del mercado y el comercio de alta frecuencia en los mercados financieros. Hoy, discutiré estos temas para brindar información sobre las complejidades de los mercados electrónicos modernos. Para apreciar los temas en cuestión, es fundamental comprender las características principales de los mercados de valores estadounidenses, que han evolucionado significativamente durante los últimos cinco a diez años.
En primer lugar, el comercio electrónico domina el mercado, lo que hace que la imagen tradicional de los comerciantes en el piso de la Bolsa de Valores de Nueva York sea en gran medida irrelevante. El comercio ahora se lleva a cabo principalmente en computadoras, siendo el comercio electrónico el mecanismo principal para el intercambio. Otro cambio notable es la descentralización o fragmentación del comercio. En el pasado, una acción en particular cotizaba predominantemente en el Nasdaq o en la Bolsa de Valores de Nueva York. Sin embargo, ahora hay múltiples intercambios, cada uno de los cuales representa un porcentaje sustancial del comercio de acciones.
Estos intercambios están organizados como libros electrónicos de órdenes limitadas, donde los participantes del mercado pueden enviar órdenes de compra y venta con precios específicos. Cuando los precios se cruzan, se ejecutan las operaciones. Esto contrasta con el mercado de intermediarios histórico o la estructura del mercado especializado de la Bolsa de Valores de Nueva York. Además, alrededor del 30% de las operaciones se realizan en lugares alternativos, como redes de cruce electrónico, grupos oscuros e internalización, lo que contribuye aún más a la naturaleza descentralizada de la negociación.
Una de las características más llamativas de los mercados modernos es la creciente automatización de los participantes. Anteriormente, un comerciante humano manejaba grandes pedidos, pero ahora los algoritmos y el comercio de alta frecuencia se han hecho cargo. El comercio algorítmico permite a los inversores dividir grandes pedidos a lo largo del tiempo y entre los intercambios, mientras que los comerciantes de alta frecuencia, a menudo categorizados como creadores de mercado, brindan liquidez. Estas tendencias recientes han hecho que el mercado sea más complejo y han dado lugar a interacciones impredecibles entre los comerciantes algorítmicos y los comerciantes de alta frecuencia.
Estos desarrollos han planteado cuestiones importantes tanto a nivel de políticas como para los participantes individuales. Los formuladores de políticas y los reguladores deben evaluar los beneficios y los inconvenientes de la compleja estructura de mercado actual. También deben abordar cuestiones como la ocurrencia de eventos como el famoso flash crash del 6 de mayo de 2010, donde los precios del mercado cayeron significativamente en cuestión de minutos debido a una interacción patológica entre un comerciante algorítmico y comerciantes de alta frecuencia.
A nivel de participante individual, es necesario abordar los problemas de toma de decisiones. Dada la complejidad e imprevisibilidad del mercado, los participantes deben determinar el enfoque más efectivo para sus estrategias comerciales. Es dentro de este contexto que realicé investigaciones sobre dos problemas específicos relacionados con el comercio de alta frecuencia y la microestructura del mercado: comprender la importancia de la latencia y examinar el papel de los grupos oscuros en los mercados.
La latencia se refiere al retraso entre la toma de una decisión comercial y su ejecución. La capacidad de operar rápidamente con baja latencia se ha vuelto cada vez más importante. Para evaluar el valor y el costo asociado con la latencia, es necesario evaluar su importancia en las decisiones comerciales. A lo largo de los años, la latencia en los mercados bursátiles de EE. UU. ha disminuido drásticamente, y ahora las operaciones se realizan en microsegundos. Este avance tecnológico ha sido impulsado por la demanda de los comerciantes de alta frecuencia y otros que buscan una ejecución más rápida.
Comprender la importancia de la latencia plantea más preguntas. ¿Es beneficiosa la baja latencia para tomar decisiones con la información más reciente? ¿Ser más rápido que los competidores proporciona una ventaja en la captura de ganancias? Además, las reglas y la organización de los intercambios a menudo dan prioridad a la entrada anticipada, creando ventajas para los comerciantes con conexiones de menor latencia. Esto plantea preocupaciones sobre la equidad y la igualdad de acceso a las oportunidades del mercado.
Para abordar estas preguntas, mi investigación involucra el desarrollo de modelos matemáticos que capturan la dinámica del comercio de alta frecuencia y el impacto de la latencia en las estrategias comerciales. Al simular diferentes escenarios y analizar los resultados, mi objetivo es brindar información sobre el equilibrio óptimo entre velocidad y precisión en las decisiones comerciales. Esta investigación puede ayudar a los participantes del mercado, como los fondos de cobertura o los inversores institucionales, a diseñar sus algoritmos comerciales e infraestructura para maximizar su rendimiento en un entorno altamente competitivo.
Otra área de mi investigación se centra en el papel de los dark pools en los mercados modernos. Los dark pools son lugares de negociación privados que permiten a los participantes ejecutar grandes transacciones de forma anónima, lejos del mercado público. Estos lugares alternativos han ganado popularidad debido a su potencial para minimizar el impacto en el mercado y mejorar la calidad de la ejecución para inversores institucionales con volúmenes de negociación significativos.
Sin embargo, el auge de los dark pools ha suscitado preocupaciones sobre la transparencia y la equidad del mercado. Los críticos argumentan que la falta de transparencia en estos lugares puede crear asimetría de información e impactar negativamente en el descubrimiento de precios. Además, ha habido casos en los que los comerciantes de alta frecuencia explotan la falta de transparencia previa a la negociación en los grupos oscuros para su propio beneficio.
En mi investigación, investigo el impacto de los dark pools en la liquidez del mercado, la formación de precios y el comportamiento de los participantes del mercado. Mediante el desarrollo de modelos matemáticos y la realización de análisis empíricos, mi objetivo es comprender los beneficios y los inconvenientes asociados con el comercio de fondos oscuros. Esta investigación puede contribuir al debate en curso sobre la regulación y supervisión de los fondos oscuros y ayudar a los participantes del mercado a tomar decisiones informadas sobre sus estrategias comerciales.
En conclusión, mi presentación de hoy brinda una descripción general de mi investigación en el campo de la ingeniería financiera, centrándose específicamente en el comercio de alta frecuencia, la microestructura del mercado, la latencia y los dark pools. Al profundizar en estos temas, pretendo arrojar luz sobre las complejidades de los mercados electrónicos modernos y los desafíos que presentan para los participantes del mercado y los reguladores. A través de modelos matemáticos, simulaciones y análisis empíricos, mi investigación tiene como objetivo proporcionar información valiosa y contribuir a los debates y desarrollos en curso en el campo de los mercados financieros.
Además, otro aspecto de mi investigación gira en torno al impacto de las políticas regulatorias en los mercados financieros. Los organismos reguladores juegan un papel crucial para garantizar la integridad del mercado, la estabilidad y la protección de los inversores. Sin embargo, el diseño y la implementación de regulaciones pueden tener consecuencias no deseadas y afectar la dinámica del mercado.
Un área de enfoque en mi investigación es el examen de las reacciones del mercado a los anuncios regulatorios. Mediante el análisis de datos históricos y la realización de estudios de eventos, investigo cómo los participantes del mercado, como comerciantes e inversores, ajustan sus estrategias y posiciones en respuesta a los cambios regulatorios. Esta investigación ayuda a comprender los efectos inmediatos y a largo plazo de las regulaciones sobre la liquidez, la volatilidad y la eficiencia general del mercado.
Además, exploro la efectividad de diferentes medidas regulatorias para lograr los objetivos previstos. Por ejemplo, estudio el impacto de los interruptores automáticos, que son mecanismos diseñados para detener temporalmente el comercio durante movimientos extremos del mercado, en la estabilidad del mercado. Mediante el análisis de datos históricos del mercado y la realización de simulaciones, evalúo si los disyuntores previenen o exacerban efectivamente las caídas del mercado.
Otra área de interés es el examen de las regulaciones destinadas a reducir el riesgo sistémico en los mercados financieros. Esto implica analizar el impacto de medidas como los requisitos de capital, las pruebas de estrés y las restricciones a la negociación por cuenta propia de los bancos. Al estudiar los efectos de estas regulaciones en la estabilidad del sistema financiero, mi objetivo es brindar información sobre su efectividad y posibles consecuencias no deseadas.
Además, también exploro la intersección de la tecnología y la regulación, particularmente en el contexto de tecnologías emergentes como blockchain y criptomonedas. Estas tecnologías presentan desafíos y oportunidades únicos para los reguladores, ya que pueden alterar los sistemas financieros tradicionales e introducir nuevos riesgos. Mi investigación en esta área se centra en comprender las implicaciones regulatorias de estas tecnologías y explorar marcos potenciales que pueden fomentar la innovación al tiempo que garantizan la integridad del mercado y la protección de los inversores.
Mi investigación en ingeniería financiera abarca una amplia gama de temas, incluido el impacto de las políticas regulatorias, las reacciones del mercado a los cambios regulatorios y la intersección de la tecnología y la regulación. A través de análisis rigurosos, modelos matemáticos y estudios empíricos, me esfuerzo por brindar información valiosa sobre el funcionamiento de los mercados financieros y contribuir al desarrollo de marcos regulatorios efectivos y bien informados.
Kent Daniel: Impulso del precio
Kent Daniel: Impulso del precio
Estoy contento de estar aquí y me gustaría agradecer a todos por venir. Es genial ver a todos tan entusiasmados con este tema. Hoy, discutiré una estrategia cuantitativa específica comúnmente utilizada por los fondos de cobertura. Esta estrategia a menudo se implementa con un apalancamiento significativo y complementa los temas que la profesora Sunnah Reyes y el profesor Wong han estado abordando. Mi objetivo es presentar el concepto de inversión cuantitativa y proporcionar información sobre esta estrategia en particular.
Además, estoy realizando una investigación para comprender los factores detrás del impulso de los precios y la ocurrencia de este fenómeno en los mercados. Argumento que el mercado no es del todo eficiente, principalmente debido al procesamiento imperfecto de la información por parte de los inversores. Por lo tanto, profundizaré en la caracterización del impulso y ofreceré algunas reflexiones sobre sus causas subyacentes.
Recientemente, encontré un artículo en la revista Bloomberg que presenta a Cliff Asness, una figura notable en la industria. Su firma ha enfrentado desafíos en el pasado, principalmente debido al impulso. Encuentro esto particularmente relevante para nuestra discusión de hoy. De hecho, Asness y su compañía no han renunciado al impulso. Incluso han lanzado un fondo mutuo llamado AQR Momentum Fund, además de sus esfuerzos de fondos de cobertura.
AQR, tanto con sus fondos mutuos como con sus fondos de cobertura, emplea reglas matemáticas para construir carteras diversificadas con un sesgo específico. En el caso del impulso, se enfocan en invertir en ganadores y vender perdedores. Hoy exploraré esta estrategia con mayor detalle. Sin embargo, antes de profundizar en los detalles, quiero compartir algunas ideas de un trabajo de investigación de Asness, Moskowitz y Patterson. El documento investiga la presencia de impulso en diferentes clases de activos.
Según sus hallazgos, históricamente el impulso se ha desempeñado bien en varias regiones, incluidos los Estados Unidos, el Reino Unido y Europa continental. Sin embargo, no arrojó los mismos resultados positivos en Japón. Además, la investigación explora el impulso en la selección de países de renta variable, selección de países de bonos, moneda extranjera y materias primas, con diversos grados de éxito en cada área.
Entonces, ¿qué impulsa el impulso? Basándome en mi trabajo y teorías preliminares, la explicación más convincente gira en torno al procesamiento de la información por parte de los inversores. Cuando los inversores reciben nueva información, tienden a mostrar un sesgo de statu quo, asumiendo que las cosas permanecerán relativamente sin cambios. Si bien anticipan algún movimiento de precios en respuesta a la información, no comprenden completamente su impacto. En consecuencia, el precio se mueve ligeramente, pero toma tiempo, a menudo alrededor de un año, para que la información se refleje completamente en los precios.
En el contexto de los mercados financieros, si observa un movimiento de precios vinculado a la información, es probable que el impulso continúe. Esta persistencia en el movimiento de precios se alinea con el concepto de impulso en la física, donde un objeto que se mueve a cierta velocidad en una dirección particular tiende a seguir moviéndose a menos que una fuerza externa actúe sobre él.
Ahora, exploremos cómo construir una estrategia de impulso. Suponga que desea implementar una estrategia de impulso simple similar al enfoque de AQR. Aquí hay una guía paso a paso: comenzando al comienzo de un mes específico, calcule los rendimientos mensuales de todas las acciones que cotizan en NYSE, Amex y NASDAQ durante los últimos 12 meses hasta hace un mes. Clasifique las acciones según sus rendimientos e identifique el 10% superior como ganadores y el 10% inferior como perdedores. Construya una cartera que incluya a los ganadores, ponderados por su capitalización de mercado. Del mismo modo, establezca una cartera larga-corta vendiendo en corto $1 de las acciones perdedoras. Reequilibre la cartera al comienzo de cada mes actualizando los rendimientos y clasificaciones del período de formación.
Esta estrategia da como resultado una cartera de rotación relativamente baja, ya que es probable que los rendimientos recientes sean similares. Sin embargo, a medida que extiende el marco de tiempo a 12 meses, los rendimientos comienzan a divergir significativamente.
Ahora, evalúemos el desempeño de esta estrategia desde 1949 hasta 2007. Invertir en bonos del Tesoro promedia un exceso de rendimiento de 16.5% por año, que es bastante sustancial. Esto indica que la estrategia de impulso de comprar ganadores y vender perdedores ha sido muy rentable a largo plazo.
Ahora, quizás se pregunte si este exceso de rendimiento es constante en diferentes períodos de tiempo. Para examinar esto, dividamos los datos en diferentes décadas y veamos cómo se comporta el impulso. Aquí están los rendimientos excedentes para cada década:
Como puede ver, el impulso ha generado un exceso de rendimiento positivo en cada década, aunque la magnitud varía. Vale la pena señalar que la década de 1990 tuvo un exceso de rendimiento relativamente más bajo en comparación con otras décadas, pero aún así fue positivo.
Entonces, ¿por qué el impulso persiste como una estrategia rentable? Una explicación es que los inversores tienden a reaccionar de forma insuficiente ante la nueva información, lo que hace que los precios se ajusten lentamente. Como resultado, las acciones que han experimentado rendimientos positivos siguen teniendo un rendimiento superior porque sus precios no han reflejado completamente toda la información disponible. Este ajuste retrasado brinda una oportunidad para que los inversores obtengan ganancias aprovechando el impulso.
Es importante mencionar que, si bien el impulso ha mostrado una rentabilidad constante, no significa que esté libre de riesgos. Como cualquier estrategia de inversión, viene con su propio conjunto de riesgos y desafíos. Las condiciones del mercado pueden cambiar y el rendimiento pasado no es garantía de resultados futuros. Por lo tanto, el análisis exhaustivo, la gestión de riesgos y el monitoreo continuo son cruciales al implementar un enfoque de inversión basado en el impulso.
En conclusión, la estrategia de impulso, que implica comprar ganadores y vender perdedores, ha generado históricamente un exceso de rendimiento significativo en los mercados financieros. A pesar de las variaciones en los rendimientos a lo largo de las diferentes décadas, el impulso sigue siendo una estrategia rentable en general. Sin embargo, los inversores deben tener cuidado y considerar varios factores antes de incorporar esta estrategia en su enfoque de inversión.
Comercio algorítmico y aprendizaje automático
Comercio algorítmico y aprendizaje automático
Vale, gracias, Costas, por recibirme. También me gustaría expresar mi gratitud a Eric por su charla perspicaz, que proporciona un contexto valioso para la discusión que presentaré. Hoy me centraré en las experiencias de operar en el otro lado de estos intercambios y tratar con comerciantes de alta frecuencia (HFT) y otras contrapartes. Quiero aclarar que mi charla no cubrirá explícitamente la teoría de juegos, ya que Costas me aseguró que es aceptable. Sin embargo, profundizaré en los aspectos prácticos, basándome en mi experiencia trabajando con un grupo de comercio cuantitativo en Wall Street durante los últimos 12 años.
En primer lugar, me gustaría extender un agradecimiento especial a mi socio comercial, By Vaca, quien es coautor de todo el trabajo que discutiré. Nuestra investigación y conocimientos han surgido de contextos comerciales patentados dentro de nuestro grupo comercial. Los aspectos que destacaré son los elementos no patentados que encontramos científicamente interesantes a lo largo del tiempo.
Wall Street es sin duda un lugar intrigante, tanto tecnológica como socialmente. Ha sido testigo de cambios significativos debido a la automatización y la abundancia de datos. Estas transformaciones han dado lugar a numerosos desafíos comerciales, que requieren un enfoque basado en el aprendizaje, en particular el aprendizaje automático. Con grandes cantidades de datos disponibles a una escala temporal y espacial más allá de la comprensión humana, los algoritmos se han vuelto indispensables en el comercio. Estos algoritmos deben ser adaptables y entrenados en datos históricos, incluidos datos recientes, para tomar decisiones comerciales sensatas.
En mi presentación, describiré tres áreas problemáticas específicas que surgen en el comercio algorítmico dentro de los mercados electrónicos modernos. Estas viñetas o estudios de casos arrojan luz sobre los desafíos algorítmicos y ofrecen sugerencias para abordarlos utilizando nuevas técnicas.
Los dos primeros problemas giran en torno a la ejecución optimizada. Al ejecutar una operación, ya sea comprando o vendiendo un volumen específico de acciones, existe un equilibrio entre la inmediatez y el precio. Uno puede optar por ejecutar el comercio rápidamente, impactando los precios pero posiblemente capitalizando ventajas informativas fugaces. Por otro lado, se puede adoptar un enfoque más pausado, lo que permite que el mercado converja al precio deseado durante un período más largo. Profundizaré en estas compensaciones y presentaré instancias específicas que demuestran los desafíos que enfrentan los mercados electrónicos.
El tercer problema se refiere a las versiones algorítmicas de la optimización de cartera clásica, como la optimización de la varianza media. Esto implica tener una cartera diversificada que maximice los rendimientos teniendo en cuenta el riesgo o la volatilidad. Aunque de naturaleza algorítmica, este problema se conecta con los enfoques tradicionales de optimización de cartera.
Vale la pena señalar que la subasta continua de órdenes limitadas dobles, como la describió anteriormente Eric, sirve como telón de fondo para estos desafíos. La imagen del flash crash y el libro de Michael Lewis sobre el comercio de alta frecuencia subrayan los tiempos interesantes y dinámicos que vivimos actualmente en Wall Street. Si bien no tengo la intención de emitir un juicio moral sobre ninguna actividad comercial, incluida la negociación de alta frecuencia, mi objetivo es dilucidar los desafíos algorítmicos que enfrentan los mercados electrónicos modernos desde la perspectiva de un grupo de negociación cuantitativa que opera dentro de un marco de negociación de acciones estadístico tradicional.
Nuestro grupo de negociación se especializa en la negociación de acciones, tanto largas como cortas, y abarca una amplia gama de instrumentos líquidos en los mercados nacionales e internacionales. Para cubrir nuestras posiciones, empleamos exclusivamente futuros, evitando derivados complejos. A pesar de negociar en mercados e instrumentos relativamente simples, la creciente automatización y disponibilidad de datos en Wall Street ha introducido una multitud de problemas comerciales que requieren un enfoque de aprendizaje, a menudo empleando el aprendizaje automático.
Por cierto, quiero decir que un ejemplo de esto es que a menudo se observa que cuando un analista mejora su opinión sobre una acción, otros analistas tienden a mejorar su opinión sobre la misma acción en rápida sucesión. Por lo tanto, es necesario determinar si se trata de una noticia nueva o simplemente el resultado de la entrada en el mercado de otras noticias básicas. En tales casos, puede que no sea aconsejable operar con base en esta información.
Ahora, con respecto a su pregunta sobre por qué no dedicamos tiempo a las preguntas al final y, en cambio, queremos comprar el volumen restante, hay dos respuestas. En primer lugar, si somos una casa de bolsa como Bank of America con una mesa de negociación algorítmica, ejecutamos operaciones según las instrucciones del cliente. Nos dan instrucciones sobre cuántas acciones comprar en un período de tiempo específico. No pedimos confirmación durante el proceso. En segundo lugar, hemos optimizado nuestras estrategias para determinar el volumen adecuado de compra en función de la información disponible. Este volumen suele ser el máximo que podemos negociar sin afectar significativamente el precio de la acción. Si bien es posible implementar el enfoque que sugirió, preferimos minimizar la cantidad de parámetros involucrados para simplificar la toma de decisiones en el complejo mundo del comercio.
Con respecto al proceso de prueba, realizamos pruebas en vivo durante los seis meses posteriores al estudio. Esto nos permite evaluar el rendimiento del modelo en condiciones reales de mercado. Sin embargo, el propio modelo utiliza datos históricos durante la fase de prueba.
Cuando se trata de explicar nuestras políticas a las personas, nos basamos principalmente en un enfoque empírico en lugar de mirar a simple vista. En este problema particular, está claro lo que constituye un comportamiento sensato. El desafío surge cuando se trata de estrategias que funcionan bien sin una comprensión clara de por qué funcionan. En tales casos, a veces abordamos el problema desde una perspectiva antropológica, tratando de comprender las razones detrás de la rentabilidad constante de ciertos oficios.
Reconocemos que la complejidad de lo que aprendemos plantea desafíos en términos de interpretación. Si bien podemos identificar un poder predictivo consistente en ciertas variables de estado, comprender las razones subyacentes a nivel granular es extremadamente difícil. La naturaleza microestructural de los mercados financieros, especialmente en el comercio de alta frecuencia, implica volúmenes y velocidades de datos que superan la comprensión humana normal. Por lo tanto, nos enfocamos en metodologías cuidadosas de capacitación y prueba para garantizar un rendimiento constante.
En nuestros experimentos, hemos explorado varias características del libro de pedidos y su impacto en el rendimiento. Por ejemplo, la incorporación del diferencial de oferta y demanda en el espacio de estado ha demostrado ser valiosa para optimizar la ejecución de operaciones. Sin embargo, no todas las funciones brindan el mismo beneficio y algunas variables pueden incluso tener efectos negativos en el rendimiento debido al sobreajuste. Al seleccionar las características más informativas, hemos logrado una mejora adicional del 13 por ciento además de la mejora del 35 por ciento lograda a través de enfoques teóricos de control.
Hemos estado evaluando una solución de forma experimental, aunque no tengo tiempo para profundizar en los detalles en este momento. Sin embargo, puedo proporcionar una explicación simplificada de la liquidez utilizando un modelo de dibujos animados. Los diferentes dark pools, que son lugares de negociación alternativos, exhiben propiedades de liquidez variables en diferentes momentos y para diferentes acciones.
Cuando surge un nuevo intercambio, ya sea un libro de órdenes limitadas o un grupo oscuro, a menudo trata de establecerse en el mercado ofreciendo trato preferencial, descuentos o tarifas para una clase particular de acciones. Se promocionan a sí mismos como el grupo oscuro preferido para negociar tipos específicos de acciones. Como resultado, los comerciantes interesados en esas acciones se sienten atraídos por ese grupo oscuro específico, lo que genera liquidez. Por el contrario, otros grupos oscuros pueden tener diferentes perfiles de liquidez y es posible que no atraigan tanta actividad comercial.
Para visualizar este concepto, imagine que cada grupo oscuro tiene un perfil de liquidez único para una acción determinada, representado por una distribución de probabilidad estacionaria. El eje x representa el número de acciones, mientras que el eje y representa la probabilidad de encontrar acciones disponibles para la ejecución en cada paso de tiempo discreto. Cuando enviamos nuestra orden comercial a un grupo oscuro, se extrae un número (s) de esta distribución, que indica el volumen de contrapartes dispuestas a operar en ese paso de tiempo específico. El volumen ejecutado viene determinado por el mínimo del volumen tirado (s) y el volumen solicitado (vns), asegurando la ejecución parcial en caso de ser necesario.
Ahora, puede preguntarse cómo la curva de liquidez puede ser no decreciente cuando ocurre una ejecución parcial. La curva de liquidez simplemente representa la probabilidad de encontrar volumen disponible dentro de un cierto rango. Muestra que es más probable que los volúmenes más pequeños estén disponibles para la ejecución, mientras que los volúmenes más grandes tienen menos probabilidades. La ejecución parcial simplemente significa que el volumen ejecutado es menor que el volumen solicitado, pero no afecta la forma general de la curva de liquidez.
La proliferación de charcos oscuros es un fenómeno interesante. Plantea preguntas sobre el equilibrio del mercado y la competencia entre estos lugares. Sigue siendo incierto si el mercado eventualmente se consolidará, lo que conducirá al dominio de algunos grupos oscuros. Se ha observado una dinámica similar en las subastas dobles continuas desde que la desregulación de los mercados financieros permitió que múltiples bolsas operaran simultáneamente. El panorama regulatorio y la capacidad de las nuevas empresas para proponer nuevos mecanismos contribuyen a la complejidad de la estructura del mercado.
Teniendo en cuenta la conexión entre esta investigación y el artículo de Eric, podemos explorar la interacción entre diferentes estructuras de mercado, algoritmos y su impacto en la estabilidad y fragmentación del mercado. Al simular escenarios que involucran a múltiples jugadores que usan algoritmos similares, podemos investigar los resultados computacionales y estudiar cómo la estructura del mercado y la diversidad de algoritmos influyen en los precios y otras preocupaciones regulatorias. Esta combinación de esfuerzos de investigación podría generar información valiosa sobre la compleja relación entre la estructura del mercado, el comercio algorítmico y la estabilidad del mercado.
Además, podemos profundizar en preguntas más sofisticadas, como la interacción entre diferentes algoritmos y estructuras de mercado, y cómo dan forma a la dinámica del mercado. Al examinar varios escenarios de mercado, podemos analizar la idoneidad de diferentes estructuras y algoritmos de mercado para lograr la estabilidad y abordar los problemas de fragmentación.
La evolución de los mercados financieros ha llevado a la automatización de ciertos aspectos, reemplazando a menudo elementos humanos útiles. Sin embargo, se han introducido nuevos mecanismos electrónicos para replicar y mejorar la funcionalidad. Comprender estas dinámicas y adaptar nuestras estrategias en consecuencia nos permite navegar por las complejidades de los mercados financieros modernos.
Mi charla arrojará luz sobre los desafíos algorítmicos inherentes al comercio en los mercados financieros electrónicos modernos. Los tres estudios de caso que presentaré destacan las complejidades y las compensaciones que se enfrentan en la ejecución optimizada y la optimización algorítmica de la cartera. Si bien las limitaciones de tiempo pueden impedirme cubrir completamente todos los temas, espero brindar información valiosa sobre estas áreas.
Si bien las simulaciones y los análisis computacionales ofrecen vías para comprender los posibles resultados del comercio algorítmico, es esencial lograr un equilibrio entre el modelado abstracto y la relevancia en el mundo real. El desafío radica en identificar qué detalles son cruciales y cuáles se pueden pasar por alto sin sacrificar la relevancia práctica, especialmente en el panorama complejo y en constante evolución de los mercados financieros.
El diseño de los intercambios financieros: algunas preguntas abiertas en la intersección de Econ y CS
El diseño de los intercambios financieros: algunas preguntas abiertas en la intersección de Econ y CS
Muchas gracias, Kostas. Esta charla va a ser un poco poco convencional para mí, pero espero que se alinee con el espíritu de esta conferencia y el tema de las direcciones abiertas. Está conectado con el diseño de los intercambios financieros, particularmente el diseño predominante conocido como el libro de órdenes de límite continuo. Comenzaré discutiendo un documento en el que trabajé recientemente con Peter Crampton y John Shimm, que destaca una falla económica en el diseño actual del intercambio financiero. Este defecto, argumentamos, contribuye a los aspectos negativos del comercio de alta frecuencia.
La primera parte de la charla cubrirá este documento, que puede ser familiar para algunos de ustedes, pero probablemente no para la mayoría. Presenta un caso económico para un enfoque alternativo llamado negociación en tiempo discreto o subastas por lotes frecuentes. Nuestro documento sugiere que el libro de órdenes de límite continuo, aunque se usa ampliamente en todo el mundo, adolece de una falla estructural que conduce a varios problemas asociados con el comercio de alta frecuencia. Presentaré una versión resumida y accesible de esta parte, ya que se ha presentado varias veces antes.
La segunda y tercera parte de la charla ahondarán en preguntas abiertas y direcciones de investigación relacionadas con el diseño de intercambios financieros. Estas áreas de investigación se encuentran en la intersección de la economía y la informática. En las secciones posteriores, discutiré una porción de dos páginas en la parte posterior del artículo del Quarterly Journal of Economics que presenta un argumento cualitativo, sin teoremas o datos, para los beneficios computacionales del comercio en tiempo discreto en comparación con el diseño de mercado actual. . Esta discusión planteará numerosas preguntas y tendrá como objetivo estimular una mayor exploración.
Aunque las últimas partes de la charla son menos formales de lo que estoy acostumbrado, creo que son cruciales para plantear preguntas abiertas y establecer una agenda para futuras investigaciones. Esto se alinea con el propósito de esta conferencia, que fomenta la exploración de las intersecciones de la economía y la informática y sugiere direcciones fructíferas para futuras investigaciones.
Ahora, profundicemos en el caso económico del comercio en tiempo discreto y sus ventajas sobre el libro de órdenes con límite continuo, que explicaré con más detalle. El libro de órdenes de límite continuo es un diseño de mercado que procesa billones de dólares en actividad económica cada día. Opera en base a órdenes limitadas, que especifican el precio, la cantidad y la dirección (compra o venta) de un valor. Los participantes del mercado pueden enviar, cancelar o modificar órdenes limitadas a lo largo del día, y estos mensajes se envían a la bolsa.
El comercio ocurre cuando una nueva solicitud coincide con las órdenes existentes en el libro de órdenes limitadas. Por ejemplo, una solicitud de compra con un precio igual o superior a una oferta de venta pendiente daría lugar a una operación. Este es el funcionamiento básico del libro de órdenes de límite continuo.
Sin embargo, nuestra investigación sugiere que este diseño de mercado tiene fallas inherentes. Un problema importante es lo que llamamos "francotiradores". Cuando hay un cambio en la información o señales públicas, las casas de bolsa que se dedican a la provisión de liquidez ajustan sus cotizaciones en consecuencia. Cancelan sus ofertas o solicitudes anteriores y las reemplazan por otras nuevas que reflejan la información actualizada. Ahora, supongamos que soy una de estas empresas comerciales que ajusta mis cotizaciones. Al mismo tiempo, otros, como Thomas, también envían mensajes al intercambio para negociar con las cotizaciones antiguas antes de que sean reemplazadas.
Dado que el mercado procesa estos mensajes en tiempo continuo y en orden en serie, se vuelve aleatorio qué mensaje llega primero al intercambio. Si varias empresas comerciales reaccionan a la nueva información simultáneamente, existe la posibilidad de que una solicitud de Thomas o de cualquier otro participante se procese antes que la mía, lo que les permitirá operar al precio anterior. Este fenómeno de francotiradores es problemático y crea varias implicaciones.
En primer lugar, permite oportunidades de arbitraje mecánico basadas en información pública simétrica, lo que no se supone que suceda en un mercado eficiente. En segundo lugar, las ganancias de tales oportunidades de arbitraje se obtienen a expensas de la provisión de liquidez. A medida que los francotiradores ejecutan con éxito operaciones a precios antiguos, las empresas comerciales de aprovisionamiento de liquidez dudan en ajustar sus cotizaciones rápidamente. Esta vacilación proviene del temor de ser atacado y perder ganancias potenciales. En consecuencia, el mercado se vuelve menos eficiente a medida que los proveedores de liquidez están menos dispuestos a actualizar sus cotizaciones en respuesta a nueva información.
Otro problema con el libro de órdenes de límite continuo es el potencial de anticipación de órdenes. En este escenario, los comerciantes observan la llegada de nuevas órdenes limitadas y ajustan sus cotizaciones de forma preventiva en previsión de operaciones futuras. Este comportamiento puede conducir a un efecto en cascada, donde los comerciantes ajustan constantemente sus cotizaciones en respuesta a los demás, creando una volatilidad e inestabilidad innecesarias en el mercado.
Para abordar estos defectos, nuestro documento propone un diseño de mercado alternativo conocido como negociación en tiempo discreto o subastas por lotes frecuentes. En este diseño, en lugar de procesar pedidos en tiempo continuo, el mercado opera en intervalos de tiempo discretos o lotes. Durante cada lote, los participantes del mercado pueden enviar sus órdenes limitadas y, al final del lote, el mercado se compensa y las transacciones se ejecutan a un precio único y uniforme.
Al introducir el comercio en tiempo discreto, eliminamos los problemas de los francotiradores y la anticipación de órdenes. Dado que todos los pedidos enviados dentro de un lote se procesan simultáneamente, no hay aleatoriedad en la ejecución del pedido. Los comerciantes pueden estar seguros de que sus órdenes se ejecutarán al mismo precio que otros participantes dentro del mismo lote, lo que garantiza la equidad y reduce el incentivo para los francotiradores.
Además, las subastas por lotes frecuentes promueven la estabilidad y reducen la volatilidad innecesaria en el mercado. Los comerciantes ya no necesitan ajustar constantemente sus cotizaciones en respuesta a cada pedido entrante. En cambio, pueden concentrarse en analizar la información y tomar decisiones comerciales informadas, sabiendo que sus órdenes se ejecutarán al final del lote a un precio justo.
Invertir en los mercados financieros a menudo requiere una cierta cantidad de tiempo de espera para que se realicen las transacciones. Diferentes personas pueden tener diferentes opiniones sobre si este tiempo de espera es un costo significativo o insignificante. Por ejemplo, si eres un poco más rápido que yo en la ejecución de operaciones, como ser una millonésima de segundo más rápido, podría darte una ventaja para actuar sobre eventos de noticias dentro de ese marco de tiempo. Por otro lado, podría perder la oportunidad de actuar debido a mi velocidad un poco más lenta. Esta ventaja de velocidad a menudo se mide por la relación entre el diferencial de velocidad (Delta) y el intervalo de lote (tau) en un mercado continuo.
En un mercado discreto, si eres un poco más rápido que yo, siempre puedes "atacarme" en un intervalo de tiempo específico (Delta sobre tau) debido a la competencia basada en subastas. Sin embargo, si usted y otros comerciantes son un poco más rápidos que yo, tendríamos que competir en una subasta para comerciar conmigo en lugar de competir solo por la velocidad. Esto plantea la pregunta de si los diferentes mercados adoptan este enfoque de reloj sincronizado de manera uniforme o si existen desafíos prácticos involucrados.
Es importante tener en cuenta que en el mercado continuo actual, la ley de un precio se viola constantemente porque los cambios de precios no ocurren simultáneamente en diferentes intercambios. Esta violación no es fácilmente detectable con la observación humana o los datos de investigación disponibles. Sin embargo, si varios intercambios adoptaran subastas por lotes frecuentes simultáneamente, sería posible detectar violaciones de la ley de un precio más fácilmente. Esto no significa necesariamente que un enfoque sea mejor o peor, sino que los datos brindarán información más clara.
Si un solo intercambio hiciera la transición a un mercado discreto mientras que otros permanecieran continuos, ese intercambio eliminaría el arbitraje de latencia y eliminaría un impuesto sobre la provisión de liquidez. En un sentido económico, esto podría dar una ventaja al intercambio de mercado discreto a lo largo del tiempo. Sin embargo, existen desafíos para lanzar un nuevo mercado, ambigüedades regulatorias e intereses creados de los intercambios existentes que se benefician del diseño del mercado actual.
En cuanto a la propuesta de IEX de introducir latencia en cada pedido manteniendo un intercambio de tiempo continuo, funciona retrasando los pedidos entrantes y salientes por un intervalo de tiempo específico. IEX monitorea los cambios en el mercado en una fracción de segundo y ajusta los precios en consecuencia. Sin embargo, una debilidad potencial en su diseño es que se basa en acceder a información de precios de fuentes externas. Esto plantea dudas sobre si el enfoque de IEX contribuye al descubrimiento de precios o simplemente se basa en información de otros lugares.
Por otro lado, la introducción de retrasos aleatorios en todos los pedidos puede no abordar de manera efectiva los francotiradores y puede generar un tráfico de mensajes infinito. Si bien se han propuesto varias ideas para abordar el problema, muchas de ellas han demostrado ser ineficaces cuando se analizan. En contraste, nuestro artículo propone hacer que el tiempo sea discreto y el procesamiento por lotes como una solución a la falla en el diseño del mercado, que crea rentas a partir de la información pública y fomenta una carrera de velocidad.
Un aspecto que discutimos en el documento son las ventajas computacionales del comercio en tiempo discreto. Los mercados financieros modernos se han enfrentado a varios problemas informáticos, como caídas repentinas y fallas en los intercambios. El tiempo discreto ofrece simplicidad computacional en comparación con el tiempo continuo y brinda beneficios específicos para los intercambios, los comerciantes algorítmicos y los reguladores.
Para los intercambios, el procesamiento en tiempo continuo puede generar problemas de acumulación, donde los algoritmos no están seguros sobre el estado de los pedidos y el mercado durante los momentos de alta actividad. Por el contrario, las subastas por lotes en tiempo discreto se pueden procesar de manera más eficiente y proporcionan un colchón de tiempo en relación con el tiempo de procesamiento en el peor de los casos. Esto reduce la incertidumbre y los problemas de acumulación que enfrentan los intercambios.
El tiempo discreto también simplifica el procesamiento de mensajes para intercambios, eliminando la necesidad de priorizar la difusión de diferentes tipos de mensajes. Esto reduce la posibilidad de explotar la asimetría de la información. Además, el tiempo discreto simplifica el entorno de programación para los intercambios, lo que reduce potencialmente la aparición de fallas y mejora la estabilidad general del sistema.
Otro beneficio computacional del comercio en tiempo discreto es que simplifica el análisis y el modelado de estrategias algorítmicas. En los mercados de tiempo continuo, los comerciantes algorítmicos enfrentan el desafío de optimizar su respuesta a los datos entrantes en tiempo real. Necesitan tomar decisiones rápidamente teniendo en cuenta las condiciones cambiantes del mercado. Este equilibrio entre velocidad e inteligencia es un problema complejo de resolver.
Sin embargo, en el comercio de tiempo discreto, el procesamiento por lotes de datos permite a los operadores algorítmicos tener un intervalo fijo para analizar y tomar decisiones. Por ejemplo, si el intervalo del lote se establece en 100 milisegundos, los operadores pueden darse el lujo de dedicar los primeros 100 milisegundos a un análisis exhaustivo sin la presión de una ejecución inmediata. Esto puede conducir a procesos de toma de decisiones más sofisticados y precisos.
Las preguntas de investigación surgen de esta ventaja computacional. ¿Cómo pueden los comerciantes algorítmicos lograr el equilibrio adecuado entre velocidad e inteligencia en su toma de decisiones? ¿Existen externalidades negativas asociadas con favorecer la velocidad sobre la inteligencia en el mercado? ¿El marco de tiempo discreto mejora la precisión de la formación de precios en comparación con el comercio de tiempo continuo?
Para los reguladores, el comercio en tiempo discreto ofrece el beneficio de un registro en papel más limpio. En los mercados de tiempo continuo, la sincronización de relojes y el ajuste de sellos de tiempo pueden introducir complejidades a la hora de reconstruir la secuencia de eventos. Se vuelve un desafío determinar el orden cronológico de las acciones en diferentes mercados. Por el contrario, el comercio en tiempo discreto simplifica este proceso, lo que facilita el establecimiento de un registro claro y preciso de la actividad del mercado.
Los beneficios potenciales de un rastro de papel limpio en el comercio de tiempo discreto son una pregunta abierta. Intuitivamente, una actividad de mercado bien documentada y fácilmente rastreable puede mejorar la transparencia y la rendición de cuentas. Puede mejorar la vigilancia del mercado y ayudar a los reguladores a identificar y abordar las prácticas comerciales manipuladoras o ilegales de manera más eficaz.
Nuestra investigación destaca las fallas económicas en el diseño actual del libro de órdenes con límite continuo y presenta un enfoque alternativo llamado negociación en tiempo discreto o subastas por lotes frecuentes. Este diseño alternativo aborda problemas como la anticipación de pedidos y el francotirador, promoviendo la equidad, la estabilidad y la eficiencia en los intercambios financieros. Al explorar estas preguntas abiertas y direcciones de investigación, nuestro objetivo es estimular una mayor investigación sobre el diseño de intercambios financieros, uniendo los campos de la economía y la informática para mejorar la funcionalidad y el rendimiento del mercado.
El comercio en tiempo discreto ofrece varias ventajas computacionales sobre el comercio en tiempo continuo. Simplifica el procesamiento de mensajes para los intercambios, reduce los cuellos de botella computacionales y permite estrategias algorítmicas más sofisticadas. También proporciona un rastro de papel más limpio para los reguladores, mejorando la vigilancia del mercado y la transparencia. Sin embargo, se necesita más investigación para explorar las implicaciones y los posibles inconvenientes del comercio en tiempo discreto en la práctica.
ChatGPT y aprendizaje automático en el comercio
ChatGPT y aprendizaje automático en el comercio
El presentador profundiza en el tema de la utilización de modelos de procesamiento de lenguaje natural (NLP) como ChatGPT en la industria comercial, enfatizando su capacidad para analizar y comprender fuentes de texto como artículos de noticias, publicaciones en redes sociales y estados financieros. Específicamente, ChatGPT, un poderoso modelo de lenguaje, es muy adecuado para analizar grandes cantidades de datos financieros y generar respuestas que suenen naturales, lo que permite a los comerciantes entablar conversaciones sobre oportunidades comerciales.
La comunidad financiera tiene grandes expectativas para ChatGPT, anticipando su contribución al desarrollo y optimización de estrategias comerciales. El presentador aclara aún más las distinciones entre la inteligencia artificial (IA), el aprendizaje automático (ML) y el aprendizaje profundo, y destaca que el aprendizaje automático es un subconjunto de la IA que emplea técnicas para enseñar a las máquinas a simular el comportamiento humano y tomar decisiones inteligentes.
Continuando, el presentador analiza el flujo de trabajo típico de ML en el comercio. Explican que ML permite que las máquinas aprendan de los datos y hagan predicciones, siguiendo una serie de pasos. Inicialmente, los datos se recopilan y procesan previamente para garantizar su calidad y relevancia. A continuación, las características se diseñan para convertir los datos sin procesar en atributos significativos que las máquinas puedan comprender. Luego, los datos se dividen en conjuntos de entrenamiento y prueba, y se construye un modelo utilizando algoritmos ML. Finalmente, el modelo se prueba con nuevos datos y, si funciona satisfactoriamente, puede usarse para hacer predicciones, lo que facilita el proceso de negociación.
Para ilustrar la aplicación de ML, el presentador brinda un ejemplo de predicción de precios altos y bajos de un activo, como el oro, para el siguiente día de negociación. Esta predicción puede ayudar en gran medida a los comerciantes a tomar decisiones informadas y mejorar sus estrategias comerciales.
Además, el presentador explora cómo ChatGPT puede servir como una herramienta valiosa para resolver problemas comerciales, como la creación de un modelo de regresión lineal para predecir los precios del oro. Comparan el enfoque de ChatGPT con un enfoque cuantitativo más integral, que implica la recopilación de datos, la limpieza, la creación de modelos, el desarrollo de canalizaciones, el comercio en vivo y la mejora continua. Se comparte un ejemplo de un cuaderno de código de regresión de aprendizaje automático, que describe los cuatro pasos clave involucrados en la resolución del problema: preparación de datos, preprocesamiento, predicción de precios y análisis de estrategia y rendimiento. Si bien ChatGPT puede ayudar en la generación de ideas, el presentador enfatiza la necesidad de una comprensión matizada de cada concepto y una consideración cuidadosa para evitar errores.
También se abordan las limitaciones y los riesgos asociados con el uso de ChatGPT en el comercio algorítmico basado en ML. El presentador destaca los desafíos potenciales, incluida la falta de experiencia en el dominio, los datos de capacitación limitados y los problemas de interpretación. Advierten contra confiar únicamente en ChatGPT para las decisiones comerciales y enfatizan la importancia de realizar verificaciones de precisión en diferentes períodos financieros.
Además, el presentador analiza los resultados de una encuesta realizada sobre la capacidad de ChatGPT para generar código con precisión. La mayoría de la audiencia (74 %) identifica correctamente que ChatGPT puede proporcionar una precisión razonable, pero no es adecuado para tareas de programación complejas que requieren experiencia en el dominio. Para ilustrar el proceso, el presentador demuestra cómo dividir los datos en conjuntos de prueba y entrenamiento utilizando el código de Python generado por ChatGPT. Hacen hincapié en la secuenciación correcta de los datos, particularmente en el contexto de los datos de series temporales en el comercio.
La evaluación de algoritmos comerciales basados en ML a través de backtesting y análisis de estrategias se destaca como un paso crucial para evaluar su desempeño. El presentador enfatiza la necesidad de un análisis en profundidad utilizando varias métricas, como el índice de Sharpe, los rendimientos anualizados y la volatilidad de los rendimientos para obtener información sobre las operaciones y el rendimiento general. Se muestra una comparación entre los rendimientos de un algoritmo comercial y una estrategia de compra y retención como un paso inicial para evaluar la efectividad del algoritmo.
Además, el presentador comparte un ejemplo de una estrategia comercial rentable y enfatiza la importancia de visualizar y analizar datos en el proceso comercial. Los análisis de estrategias, incluidos los rendimientos anuales y los rendimientos acumulativos, son fundamentales para evaluar el éxito de una estrategia.
Cambiando de tema, el presentador aborda las limitaciones del uso de GPT para el análisis financiero en el comercio. La audiencia participó previamente en una encuesta, y la mayoría expresó la opinión de que una precisión razonable requiere verificación de hechos y que GPT puede no ser adecuado para el análisis financiero. Para ilustrar esta limitación, el presentador solicita a GPT que compare los estados financieros anuales de Apple y Microsoft para 2020. Sin embargo, GPT proporciona una respuesta inexacta, destacando sus limitaciones como modelo generador que carece de experiencia en el dominio. El presentador subraya la importancia de adquirir conocimientos relacionados con las finanzas, leer libros y verificar datos antes de aplicar algoritmos de ML, como GPT, al comercio.
Reconociendo la importancia del conocimiento relacionado con el dominio en finanzas, el presentador sugiere tomar cursos para adquirir experiencia. Esta experiencia permite a los comerciantes hacer un mejor uso de las herramientas de aprendizaje automático como ChatGPT. En apoyo de esto, el presentador ofrece acceso gratuito a cuatro cuadernos de un curso educativo de comercio con aprendizaje automático, lo que permite a los espectadores obtener una comprensión más profunda del código y su aplicación.
Durante la sesión de preguntas y respuestas, surge una pregunta común sobre la capacidad de ChatGPT para mantenerse al día con los cambios diarios en los mercados financieros. El presentador aclara que, como modelo de lenguaje, la eficacia de ChatGPT está limitada por los datos con los que se entrenó y no se actualiza a diario. Mantenerse actualizado con los últimos datos del mercado es esencial para utilizar ChatGPT de manera efectiva o cualquier modelo de aprendizaje automático en finanzas.
Los oradores abordan varias otras preguntas de la audiencia y brindan información útil. Informan a la audiencia que la sesión grabada se compartirá por correo electrónico y en su canal de YouTube para referencia futura. También analizan la disponibilidad de un cuaderno durante las próximas 24 horas y explican el concepto de canalización en el aprendizaje automático.
Se plantea una pregunta específica con respecto a la conversión de código Python vectorizado en un formato desplegable en una biblioteca comercial en vivo. Los oradores explican que, si bien ChatGPT puede ayudar en la conversión de código, aún es necesario definir los activadores de eventos. Adicionalmente, mencionan que la Cargabilidad 3.5 no brinda información para el año 2022.
Para concluir, los oradores discuten una estrategia comercial que utiliza predicciones altas y bajas del día siguiente, que se optimizó utilizando técnicas de aprendizaje automático. Hacen hincapié en las aplicaciones del aprendizaje profundo en el comercio, como la previsión de series temporales, la optimización de carteras y la gestión de riesgos. El aprendizaje profundo, junto con el aprendizaje por refuerzo, puede mejorar el rendimiento de las estrategias comerciales al permitir que los agentes aprendan de los errores a través de recompensas y castigos.
El presentador enfatiza que la experiencia en el dominio y la intuición siguen siendo fundamentales para el uso confiable del aprendizaje automático en el comercio. Si bien herramientas como ChatGPT pueden ayudar a analizar datos históricos y evaluar la probabilidad de éxito en transacciones futuras, no se debe confiar únicamente en ellas. Se enfatiza la importancia de adquirir conocimientos relacionados con el dominio, verificación de hechos y mantenerse actualizado continuamente sobre los últimos datos del mercado para garantizar una toma de decisiones precisa e informada en la industria comercial.
Comprender el comportamiento del mercado financiero: el papel de múltiples categorías de datos
Comprender el comportamiento del mercado financiero: el papel de múltiples categorías de datos
El anfitrión comienza el seminario web presentando el tema de la comprensión del comportamiento del mercado financiero y el papel de las múltiples categorías de datos. Los panelistas, incluidos el profesor Gotham Mitra, el Dr. Ernest Chan y el Dr. Mateo Campoloni, se presentan como expertos con amplia experiencia en carreras comerciales y académicas. El seminario web tiene como objetivo explorar cómo los datos de varias categorías juegan un papel crucial en la comprensión y predicción del comportamiento del mercado financiero, un tema que ha ganado una importancia creciente en los últimos tiempos. Se menciona que la sesión es parte del certificado en Sentimentálisis y Datos Alternativos para Finanzas ofrecido por Opticks Systems y QuantInsti.
El primer orador enfatiza la importancia de los datos para comprender el comportamiento del mercado financiero. Si bien al principio solo estaban disponibles datos limitados, como precios de mercado, órdenes de compra y venta, y la profundidad del libro, ahora hay una amplia gama de categorías de datos a considerar. Estos incluyen datos de noticias, datos de opinión de los medios y datos alternativos. A pesar de la hipótesis del mercado eficiente, que sugiere que los mercados finalmente incorporan toda la información, aún existen ineficiencias a corto plazo en el mercado. Por lo tanto, los datos juegan un papel crucial en el descubrimiento de nuevos alfas y en el abordaje de dos problemas principales del mercado: la planificación de carteras y el control de riesgos. El orador también destaca la creciente importancia de la inteligencia artificial (IA) y el aprendizaje automático en el manejo de datos.
El siguiente orador presenta el concepto de inversión causal, que implica examinar las relaciones causales entre diferentes predictores y variables objetivo, en lugar de analizar únicamente las correlaciones estadísticas. Al utilizar datos alternativos, como la actividad de opciones, los inversores pueden obtener información sobre las causas subyacentes de los movimientos de precios y mejorar la precisión de sus estrategias comerciales. Se cita un ejemplo de la estrategia de reversión a la media, que enfatiza la importancia de comprender por qué falla ocasionalmente. Mediante el uso de datos alternativos para descubrir las causas de los movimientos de precios, los inversores pueden tomar decisiones más informadas sobre cuándo aplicar sus estrategias.
El siguiente orador analiza la importancia de los datos para los operadores del mercado, en particular los datos alternativos. Los datos alternativos se refieren a cualquier dato que aún no es un estándar de la industria y forma un ecosistema en constante expansión con nuevos jugadores y proveedores de datos que surgen continuamente. Estos datos pueden obtenerse de varios canales, como transacciones con tarjetas de crédito, imágenes satelitales, datos de dispositivos móviles, datos meteorológicos y más. El ponente también menciona el uso de herramientas de procesamiento de lenguaje natural para analizar documentos textuales y generar indicadores de sentimiento, que pueden ser valiosos para los inversionistas a la hora de complementar sus estrategias de inversión.
El siguiente orador describe el proceso de utilizar datos alternativos en estrategias de inversión. Implica identificar nuevas fuentes de información, incorporar y transformar los datos no estructurados en conjuntos de datos estructurados. Después de desarrollar una estrategia de inversión, la validación se convierte en un paso crucial que requiere comprender la confiabilidad de los datos y la importancia estadística de los resultados. El orador enfatiza la importancia de no confiar únicamente en datos alternativos y también considerar los datos del mercado al crear modelos.
Los oradores profundizan en la importancia de los datos alternativos para capturar las tendencias del mercado y los desafíos que implica realizar pruebas retrospectivas de dichos datos. Si bien los comerciantes técnicos anteriormente se basaban en métricas simples como el promedio móvil de 120 días, ahora existe un impulso para incorporar una gama más amplia de categorías de datos para comprender las causas de la rentabilidad. Sin embargo, dado que los datos alternativos son relativamente nuevos, existen preocupaciones sobre cómo realizar una prueba retrospectiva y qué tan consistentes se mantienen a lo largo del tiempo. Comprender el impacto de las estrategias de inversión requiere evaluar la estabilidad del sistema con respecto a las fluctuaciones aleatorias.
Los oradores analizan el uso de plataformas de datos alternativas como Bloomberg Icon y Reuters Quantum por parte de los comerciantes para desarrollar estrategias de inversión sólidas. Aunque estas plataformas tienen sus propios modelos para cuantificar diversas formas de datos, como el sentimiento y las noticias, los oradores recomiendan a los comerciantes que creen sus propios modelos. Se destaca la importancia de utilizar las API para recibir entradas de datos alternativas y se menciona el valor de los sitios web organizados como Credit Suisse para analizar los anuncios de la empresa. Por último, los ponentes señalan que los enfoques limitados y especializados pueden ser muy eficaces para analizar el comportamiento del mercado.
Los oradores pasan a discutir las diversas herramientas y sitios web que se pueden utilizar para comprender el comportamiento de las diferentes clases de activos en el mercado financiero y cómo realizar un seguimiento del mercado en función del estilo de inversión y el horizonte temporal. Si bien reconocen que no existe una solución única para todos, sugieren que la información cualitativa de sitios web como Bloomberg puede ser útil en este sentido. También enfatizan la importancia de comprender el sentimiento y las fuentes de datos alternativas, como microblogs y salas de chat. Sin embargo, señalan que no está necesariamente garantizado que convertirse en un experto en estas áreas conduzca a una mejor carrera en el mercado financiero.
Luego, el orador explica la diferencia entre desarrollar estrategias comerciales avanzadas para grandes fondos y estrategias simples para comerciantes independientes. Se menciona que las técnicas complejas pueden ser más adecuadas para quienes buscan trabajo en grandes fondos, mientras que se recomienda a los comerciantes independientes que comiencen con una estrategia de nicho que puede no ser de interés para las instituciones. Este enfoque les ayuda a evitar los altos costos asociados con las fuentes de datos complejas. El orador destaca además el creciente interés en nuevas fuentes de datos para el comercio, lo que lo convierte en un campo relevante para aprender y seguir. También mencionan que personalmente utilizan datos alternativos hasta cierto punto en la gestión de sus fondos y ayudan a los clientes a implementar módulos basados en aprendizaje automático y procesamiento de lenguaje natural o validar sus propias estrategias utilizando conjuntos de datos.
Durante la sesión de preguntas y respuestas, se plantea una pregunta sobre la venta de marcas azules en Twitter y si las cuentas verificadas tendrían más peso en el procesamiento del lenguaje natural (NLP). Inicialmente, los panelistas tienen dificultad para entender la pregunta, pero luego admiten que no están calificados para responderla. Luego, la discusión cambia a fuentes de datos financieros tradicionales adecuadas para principiantes y estudiantes, con Bloomberg y Definitive mencionados como opciones potenciales. Se sugiere que los proveedores de datos pueden ofrecer conjuntos de datos gratuitos con un cierto nivel de interacción.
Posteriormente, el disertante analiza el uso de fuentes de datos alternativas para el análisis del mercado financiero, y menciona específicamente a la empresa DGLT, que recopila datos de fuentes de noticias globales y locales. Si bien se reconoce el esfuerzo requerido para filtrar la información relevante, se señala que los datos recopilados pueden brindar una perspectiva histórica sobre el comportamiento del mercado que se remonta al siglo XIX. Cuando se le preguntó si los datos alternativos deberían usarse como fuente única o para la validación junto con los datos tradicionales, el orador afirma que no existe una regla general y depende de la estrategia específica que se emplee. Sin embargo, enfatizan que los datos del mercado siguen siendo el principal impulsor, y no se debe confiar exclusivamente en los datos alternativos.
El orador concluye el seminario web discutiendo el uso de datos alternativos en los mercados financieros y cómo se puede emplear el aprendizaje automático para analizar dichos datos. Destacan la necesidad de ingresar múltiples tipos de datos, incluidos precios y datos fundamentales, en algoritmos predictivos de aprendizaje automático. Sin embargo, también enfatizan que los datos alternativos por sí solos no pueden servir como el único impulsor y deben combinarse con la entrada de precios de mercado. Se alienta a la audiencia a comunicarse con cualquier otra pregunta que puedan tener.
Introducción a la inversión de factores cuantitativos
Introducción a la inversión de factores cuantitativos
Este video presenta el concepto de inversión de factores cuantitativos y su clasificación en diferentes factores, incluidos el valor, el impulso, la calidad y el tamaño. El orador explica que la inversión factorial implica seleccionar valores en función de factores específicos que se supone que impulsarán los rendimientos y lo harán durante largos períodos de tiempo. El video cubre diferentes métodos cuantitativos que se pueden usar para aplicar la inversión de factores cuantitativos, incluido el análisis estadístico, el modelado de factores, el aprendizaje automático, los modelos de optimización, el análisis de series temporales, los modelos de riesgo y la simulación montagórica. El orador también analiza las ventajas de utilizar la inversión de factores cuantitativos y el proceso de selección y combinación de factores, además de responder preguntas relacionadas con el tema, incluso sobre las fuentes de datos y la idoneidad para el comercio de frecuencia media/alta.
En el seminario web, Varun Kumar, analista cuantitativo de QuantInsti, brinda una introducción completa a la inversión de factores cuantitativos. Comienza explicando el concepto de factores, que son fuentes amplias y persistentes de riesgo y rendimiento que guían a los inversores hacia rendimientos cuantificables. Algunos factores comunes incluyen valor, impulso, calidad, tamaño y volatilidad. Kumar se centra en el factor calidad como ejemplo, lo que implica invertir en empresas con características de alta calidad. Los índices financieros como el rendimiento del capital y la tasa de crecimiento de la rentabilidad se utilizan para cuantificar la calidad de una empresa. Las acciones con índices y márgenes altos se consideran de alta calidad, mientras que las que tienen índices y márgenes más bajos se consideran de baja calidad. Los datos históricos muestran que las carteras que consisten en acciones de alta calidad han generado rendimientos excesivos durante largos períodos de tiempo.
Luego, Kumar profundiza en la clasificación de factores en la inversión de factores cuantitativos. Los factores se clasifican en siete tipos, incluidos los factores macro, los factores basados en el estilo, los factores sectoriales, los factores basados en ESG, los factores basados en el sentimiento, los factores basados en la liquidez y los factores técnicos. Brinda información sobre cómo funciona cada uno de estos factores y cómo se pueden utilizar para construir carteras de factores. Para ilustrar esto, presenta ejemplos de estrategias construidas utilizando factores macroeconómicos y basados en el estilo. Estas estrategias implican utilizar variables como el crecimiento del PIB, la tasa de inflación, la tasa de interés y el rendimiento del capital para seleccionar acciones y crear una cartera. Kumar también destaca la importancia de considerar factores como un mayor retorno sobre el capital y una baja relación deuda-capital al seleccionar acciones para una cartera.
El seminario web explora más a fondo varios factores que se pueden incorporar en las estrategias de inversión de factores cuantitativos, incluidos los factores de estilo, la matriz sectorial, los criterios ESG, el sentimiento, la liquidez y los indicadores técnicos. Kumar explica cómo se pueden utilizar estos factores para desarrollar un marco lógico para construir carteras y proporciona ejemplos del mundo real de estrategias que se pueden implementar utilizando estos factores. Se refiere brevemente a los criterios ESG, que significan criterios ambientales, sociales y de gobernanza, y su papel en la calificación de las empresas en función de su impacto en la sociedad y el medio ambiente.
También se analiza la utilización de modelos matemáticos y análisis estadísticos en la inversión de factores cuantitativos. Kumar enfatiza que estos métodos ayudan a eliminar los sesgos emocionales de las decisiones de inversión y permiten la exploración de factores menos intuitivos. Describe los siete métodos cuantitativos más utilizados en este campo, incluidos el análisis estadístico, el modelado de factores, el aprendizaje automático, los modelos de optimización, el análisis de series temporales, los modelos de riesgo y las simulaciones de Monte Carlo. El video destaca cómo se puede emplear el análisis estadístico para identificar patrones y correlaciones entre valores y factores.
En el seminario web se exploran las ventajas de la inversión de factores cuantitativos en la construcción y gestión de carteras de inversión. Una ventaja clave es la capacidad de simular condiciones de mercado extremas, lo que ayuda a los inversores a comprender mejor las limitaciones de sus carteras. El orador enfatiza las diferencias de enfoque entre la inversión de factores tradicional y cuantitativa, utilizando un estudio de caso de una cartera de acciones de gran capitalización con una baja relación precio-beneficio. Mientras que la inversión tradicional implica identificar factores, determinar el universo de acciones de gran capitalización y calcular los factores para cada acción antes de clasificarlos en función de las relaciones P/E, la inversión de factores cuantitativos emplea la recopilación de datos, el preprocesamiento y la selección de características. Se crea un modelo para predecir los precios de las acciones en función de las características seleccionadas.
Se explica el proceso de inversión de factores cuantitativos, enfatizando la importancia de construir modelos precisos para predecir los precios de las acciones en función de características específicas. El orador destaca que este enfoque está basado en datos y es más objetivo en comparación con la inversión tradicional por factores, lo que permite un análisis más preciso y confiable. Para seleccionar los mejores factores para invertir, los factores deben ser persistentes, funcionar en diferentes mercados y sectores, ser resistentes a las diversas condiciones del mercado, no demasiado sensibles a los cambios en la ética del mercado y poseer suficiente liquidez y capacidad.
El seminario web también cubre la combinación de factores en la inversión de factores cuantitativos. Se analizan cinco métodos de uso común, que incluyen la ponderación igual y la puntuación de los factores, donde cada factor se puntúa en función de su rendimiento histórico y se toma un promedio ponderado para obtener una puntuación general. Se destaca la importancia de combinar factores, ya que reduce el riesgo de la cartera, aumenta la diversificación y minimiza la volatilidad del rendimiento. El orador describe cinco características clave de un mejor factor, que incluyen estar respaldado por evidencia empírica, tener una base económica o financiera, ofrecer oportunidades de inversión a largo plazo, ser invertible y ser intuitivo y ampliamente aceptado.
El orador continúa discutiendo varios métodos para combinar factores en la inversión de factores cuantitativos. Uno de estos métodos es el análisis de componentes principales (PCA), que combina múltiples factores en un conjunto más pequeño de componentes no correlacionados. Este enfoque reduce el número de factores y aborda el problema de los factores correlacionados, también conocido como multicolinealidad. Otro método es la inclinación de factores, que consiste en ajustar las ponderaciones o asignaciones en una cartera para enfatizar un factor en particular. Esta técnica ofrece flexibilidad y permite a los inversores centrarse en factores específicos. Además, el aprendizaje automático se puede aprovechar para seleccionar o combinar factores en función de su desempeño histórico, capturando relaciones no lineales de manera efectiva. El orador enfatiza la importancia de tener cuidado al emplear algoritmos de aprendizaje profundo, ya que requieren cantidades sustanciales de datos y pueden ser propensos al sobreajuste. Se recomienda combinarlos con métodos estadísticos tradicionales para obtener resultados óptimos.
Además, el orador aborda las preguntas de la audiencia relacionadas con la inversión de factores cuantitativos. Las preguntas cubren varios temas, como el uso de la acción del precio y los gráficos a largo plazo como factores para invertir, donde el orador sugiere que se puede usar como un factor técnico definiéndolo adecuadamente y estudiando su desempeño histórico. Se explica la distinción entre factores negociables y no negociables, con un ejemplo de bienes inmuebles como factor no negociable debido a la dificultad para determinar la liquidez. El enfoque de la inversión cuantitativa en factores se centra principalmente en los factores negociados, ya que sus datos son fácilmente accesibles y permiten realizar pruebas retrospectivas. El orador también brinda información para determinar si una empresa está más enfocada en el valor o en el crecimiento, y sugiere técnicas como el uso de la relación precio-beneficio para definir las acciones de valor.
La discusión continúa con la exploración de diferentes algoritmos utilizados en la inversión de factores cuantitativos. Se mencionan algoritmos como las redes neuronales recurrentes (RNN) y la memoria a corto plazo (LSTM), cuya relevancia depende del tipo de datos que se analicen. Se pueden emplear técnicas de aprendizaje profundo para combinar factores y determinar los pesos óptimos para cada factor, lo que da como resultado un mejor rendimiento de la cartera. El orador ofrece consejos sobre estrategias de factores de backtesting y enfatiza la importancia de probar su importancia estadística en múltiples conjuntos de datos y mercados. También se menciona el uso de las Bandas de Bollinger como indicador técnico para identificar mercados laterales.
Finalmente, el seminario web concluye con una sesión final de preguntas y respuestas, donde el orador aborda consultas adicionales de la audiencia. Las preguntas incluyen el papel de los algoritmos de aprendizaje profundo en la selección de sectores industriales, destacando varias opciones como árboles de decisión, redes neuronales y bosques aleatorios. Se enfatiza que la selección del algoritmo depende de la tarea específica y el conjunto de datos en cuestión. El orador reitera la importancia de usar algoritmos de aprendizaje profundo con cautela debido a sus requisitos de datos y potencial de sobreajuste. Se agradece a la audiencia por su participación y se les anima a dar su opinión sobre la sesión.
Aprendizaje automático para el comercio de opciones
Aprendizaje automático para el comercio de opciones
En el seminario web sobre aprendizaje automático para el comercio de opciones, el orador, Varun Kumar Patula, comienza brindando una introducción al aprendizaje automático y su propósito fundamental. Explica que los algoritmos de aprendizaje automático se utilizan para analizar datos y descubrir patrones que pueden pasar desapercibidos para los humanos. Varun distingue entre inteligencia artificial, aprendizaje automático y aprendizaje profundo, enfatizando que el aprendizaje automático es un subconjunto de IA enfocado en entrenar modelos para hacer predicciones o decisiones basadas en datos. Además, clasifica el aprendizaje automático en tres tipos: aprendizaje supervisado, aprendizaje no supervisado y aprendizaje reforzado, cada uno con sus propias características y aplicaciones.
Luego, el orador profundiza en la aplicación del aprendizaje automático en el comercio de opciones, un enfoque clave del seminario web. El comercio de opciones implica la compra o venta de contratos de opciones, que otorgan al titular el derecho de comprar o vender un activo a un precio específico dentro de un marco de tiempo específico. Varun destaca el alto riesgo que implica el comercio de opciones y explica cómo el aprendizaje automático puede mejorar la precisión del análisis, reduciendo así el riesgo. Elabora las diversas aplicaciones del aprendizaje automático en el comercio de opciones, incluidas las opciones de precios, el diseño de estrategias comerciales, el cálculo de la volatilidad y la previsión de la volatilidad implícita. Estas aplicaciones tienen como objetivo mejorar la toma de decisiones y aumentar la rentabilidad en el comercio de opciones.
Para comprender la necesidad del aprendizaje automático en el comercio de opciones, se analizan las limitaciones de los modelos tradicionales como el modelo Black-Scholes. El modelo Black-Scholes asume una tasa libre de riesgo y una volatilidad constantes, lo que puede no ser cierto en los escenarios del mundo real. Varun menciona modelos alternativos como el modelo alemán Candy y el modelo Heston, que tienen sus propias limitaciones y requisitos de parámetros de entrada. La solución propuesta es utilizar el aprendizaje automático como reemplazo o combinación de estos modelos, ya que permite un conjunto ampliado de funciones y parámetros de entrada. Los modelos de aprendizaje automático pueden considerar factores como la volatilidad implícita o realizada, las tasas de interés y otras características relevantes para determinar el precio justo de las opciones. Esto permite precios más precisos, selección de precios de ejercicio y estrategias de cobertura. Varun destaca que la investigación empírica indica que los modelos de aprendizaje profundo con múltiples capas ocultas, como el modelo de perceptrón de múltiples capas, superan al modelo Black-Scholes, particularmente para las opciones que están fuera del dinero o en el dinero.
El seminario web continúa explorando la optimización de las decisiones comerciales utilizando modelos de aprendizaje automático para estrategias de opciones. El proceso general implica analizar el sentimiento alcista o bajista del activo subyacente y seleccionar una estrategia adecuada en consecuencia. Sin embargo, muchas estrategias de opciones tienen distribuciones de riesgo-recompensa sesgadas, lo que requiere un análisis más refinado. El aprendizaje automático puede mejorar este análisis al considerar características como rendimientos pasados, impulso y volatilidad para brindar información sobre el activo subyacente. Luego, estas características se ingresan en un modelo de aprendizaje automático para clasificar el próximo período comercial como alcista o bajista. El video también aborda las características utilizadas en los datos del índice SP500 y enfatiza la importancia del análisis de características en las decisiones de estrategia de opciones.
A continuación, el ponente se centra en la construcción de modelos de aprendizaje automático para decisiones comerciales sobre diferenciales de opciones verticales. Explican que los parámetros de entrada siguen siendo los mismos que en el ejemplo anterior, donde se usa un clasificador de árbol de decisión para clasificar el siguiente día de negociación como alcista o bajista. Para aprovechar las opciones, se introducen diferenciales como los diferenciales de llamada alcista o los diferenciales de venta bajista, ya que limitan el riesgo. Los modelos de aprendizaje automático se combinan para pronosticar el rango comercial y la volatilidad del contrato. Al aprovechar estos modelos combinados, los operadores pueden determinar la configuración óptima para los diferenciales verticales en sus estrategias comerciales mientras pronostican la volatilidad implícita, que es crucial en el comercio de opciones.
Otra aplicación del aprendizaje automático en el comercio de opciones es pronosticar la volatilidad implícita y tomar decisiones calculadas sobre estrategias de opciones. Al ingresar la volatilidad implícita histórica y otras características relevantes en los modelos de aprendizaje automático, los comerciantes pueden pronosticar la volatilidad y seleccionar estrategias apropiadas como straddles cortos o estrangulados cortos. El orador comparte un estudio de caso en el que se construyó un modelo de aprendizaje automático para predecir la estrategia de opción más adecuada en función de una lista de estrategias y características de entrada, incluidos datos subyacentes y datos de opciones. Al diseñar un universo de estrategias y expandir el estudio para incluir diferentes contratos, los comerciantes pueden utilizar el aprendizaje automático para crear y seleccionar la mejor estrategia que se alinee con sus objetivos comerciales.
En el seminario web, el orador describe cómo crearon 27 estrategias diferentes para el comercio de opciones al explorar varias combinaciones de posiciones y contratos. Para refinar las estrategias, las filtraron hasta 20 mediante la eliminación de combinaciones que carecían de una posición en un llamador o se basaban en combinaciones poco prácticas como straddles cortos. Para determinar cuál de estas 20 estrategias proporcionaría los máximos rendimientos, el orador empleó un modelo de aprendizaje automático, específicamente un modelo de memoria a corto plazo (LSTM). Este modelo incorporó características de entrada de activos subyacentes, opciones y volatilidad, y utilizó un sistema de clasificación de clases múltiples para identificar la estrategia óptima para el despliegue.
El video también arroja luz sobre las características relacionadas con los grados de opción y la estructura de la red neuronal utilizada para el modelo LSTM. Al entrenar el modelo con aproximadamente 10 años de datos, generó etiquetas de estrategia basadas en las características de entrada. Los resultados demostraron que el modelo de aprendizaje automático superó al activo subyacente con el tiempo. Para mejorar la precisión de la predicción de los modelos de aprendizaje automático para las opciones, el orador recomienda varias prácticas recomendadas. Estos incluyen el uso de niveles de probabilidad para el ajuste fino, el empleo de múltiples modelos de visión, la implementación de la técnica del clasificador de votación y el aprovechamiento de la salida de múltiples clasificadores para entrenar otro modelo de aprendizaje automático para mejorar la precisión y la rentabilidad.
Además, el ponente explora métodos para mejorar el rendimiento de los modelos de clasificación en el comercio de opciones. Estos métodos implican el uso de niveles de probabilidad, el empleo de técnicas de conjunto mediante la combinación de múltiples clasificadores y el uso de modelos de aprendizaje automático para agregar los resultados de diferentes modelos. Se enfatiza la importancia del ajuste de hiperparámetros y técnicas de validación cruzada para lograr una mayor precisión en los modelos. El orador también destaca la importancia del comercio de papel antes de implementar una estrategia con dinero real. Esta práctica permite a los operadores identificar y abordar cualquier problema o desafío práctico antes de arriesgar el capital real.
Durante la sesión de preguntas y respuestas que sigue, el orador responde las preguntas de los asistentes. Las preguntas cubren varios temas, incluido el rendimiento de la estrategia de aprendizaje automático para el comercio de opciones, la metodología utilizada para seleccionar funciones para el modelo, los beneficios del aprendizaje automático sobre los indicadores técnicos existentes, el cálculo de la importancia de las funciones y el período de espera adecuado para el SPY (Índice Standard & Poor's 500). El orador aclara que el desempeño de la estrategia no se debe únicamente a la dirección del mercado en 2020, ya que los datos utilizados para el modelo se remontan a 2010 y abarcan períodos posteriores a 2020. Explican que el comercio de opciones requiere un análisis más complejo, considerando factores como opciones griegas y la volatilidad implícita, lo que hace que el aprendizaje automático sea una herramienta valiosa. La selección de funciones para el modelo se basa en una combinación de experiencia comercial y toma de decisiones informada.
Hacia el final del seminario web, el orador analiza los requisitos previos para el curso que lo acompaña y recomienda conocimientos previos de aprendizaje automático y cursos relacionados para maximizar sus beneficios. Si bien el curso se enfoca principalmente en la creación de modelos de aprendizaje automático para el comercio de opciones del S&P 500, los conceptos se pueden adaptar y aplicar a otros contratos con capacitación y personalización adicionales. El curso no proporciona un modelo de aprendizaje automático preconstruido, pero equipa a los participantes con el conocimiento y las habilidades necesarias para construir sus propios modelos.
El seminario web proporciona una descripción general completa de la aplicación del aprendizaje automático en el comercio de opciones. Cubre los conceptos básicos del aprendizaje automático, sus distinciones de otros campos relacionados y los tres tipos de algoritmos de aprendizaje automático. El seminario web enfatiza la necesidad del aprendizaje automático en el comercio de opciones debido a su capacidad para mejorar la precisión del análisis y mitigar el riesgo. Se analizan varias aplicaciones del aprendizaje automático en el comercio de opciones, incluidas las opciones de fijación de precios, el diseño de estrategias comerciales y la volatilidad implícita de pronóstico. El seminario web también explora la construcción de modelos de aprendizaje automático para diferenciales de opciones verticales y la optimización de las decisiones comerciales.
Asignación de activos de cartera con ML y optimización para acciones de dividendos | Proyecto de comercio de algo
Asignación de activos de cartera con ML y optimización para acciones de dividendos | Proyecto de comercio de algo
La primera presentación en el evento la realiza Raimondo Mourinho, un ingeniero independiente de IA y big data conocido por su trabajo con pequeñas y medianas empresas en Italia, brindando soluciones de IA para diversas funciones corporativas. Mourinho cree en la combinación de técnicas de aprendizaje automático, estadísticas y probabilidad para crear sistemas comerciales avanzados. En su presentación, comparte su marco práctico y escalable para desarrollar modelos de aprendizaje automático en la asignación de activos de cartera.
Mourinho comienza presentando los componentes clave necesarios para diseñar un sistema de este tipo. Él enfatiza la importancia de adoptar una mentalidad de cartera, utilizar modelos de aprendizaje automático para convertir ideas en estrategias prácticas y aprovechar el poder de las capacidades de múltiples CPU, múltiples núcleos y GPU. Estos ingredientes forman la base de su marco. Si bien menciona brevemente la necesidad de una infraestructura cuando se ponga en marcha, se centra en los bloques elementales del marco para el comercio de baja y media frecuencia, y reconoce que la parte final del marco está más allá del alcance de la presentación.
Luego, el orador profundiza en las competencias necesarias para construir un marco sólido para la asignación de activos de cartera utilizando el aprendizaje automático y la optimización para acciones de dividendos en Python. Enfatiza la necesidad de una sólida comprensión de las técnicas de cartera, la programación orientada a objetos, las técnicas de procesamiento múltiple y la programación asincrónica. Además, se considera valiosa la experiencia en herramientas de optimización de hiperparámetros, lenguaje SQL y tecnología Docker. Mourinho procede a explicar el primer paso del marco, que implica la optimización de una base de datos para series temporales, el preprocesamiento de datos, el manejo de datos faltantes y atípicos, la normalización de datos y la selección de activos dentro del universo de activos designado.
La presentación pasa a discutir la fase de generación alfa, que corresponde a la terminología de aprendizaje automático para generar señales comerciales. Mourinho destaca que durante esta fase, los comerciantes incorporan sus ideas utilizando varios indicadores, análisis de sentimiento y modelos econométricos. El paso siguiente implica la selección de características, donde las características redundantes, como las características constantes y casi constantes, las características no estacionarias y las características correlacionadas linealmente, se eliminan mediante un método basado en rangos. Además, menciona la utilización de diferenciación fraccionaria, una técnica que mantiene la estacionariedad deseada mientras conserva información crucial dentro de las características. Estas mejoras son parte integral del marco de Mourinho para la asignación de activos de cartera utilizando el aprendizaje automático y la optimización para acciones de dividendos.
El reequilibrio, que incluye la selección de activos y la asignación de peso, se explica detalladamente en el proceso de aprendizaje. Mourinho emplea un impulso transversal, basado en la fuerza relativa entre activos, para la selección de activos. Para la asignación de peso, combina técnicas tradicionales como el algoritmo de línea crítica, la cartera de volatilidad inversa y la cartera de igual ponderación con modelos de aprendizaje automático como la paridad de riesgo jerárquico y la contribución de riesgo igual jerárquico. El orador muestra los resultados de la simulación y evalúa el rendimiento utilizando datos históricos. También menciona su intención de mejorar aún más la cartera mediante la incorporación de técnicas como la estrategia Drunken Monkey y la validación cruzada combinatoria purgada. Además, Mourinho destaca la importancia de una gestión eficaz del dinero al aplicar estas técnicas a escenarios comerciales reales.
Para abordar la estimación de la variabilidad de los parámetros, Mourinho recomienda emplear técnicas como la simulación Monte Carlo y el bootstrapping. Presenta los resultados de su análisis, centrándose en la riqueza terminal y los percentiles máximos de reducción. El orador enfatiza la importancia de permanecer basado en datos y no apegarse demasiado a ideas comerciales específicas. También aconseja mitigar el riesgo idiosincrásico mediante el empleo de diferentes técnicas y evitar el sobreajuste mediante la selección de sistemas más simples con un rendimiento comparable. Por último, subraya la necesidad de monitorear y ajustar continuamente los sistemas de negociación en vivo debido a la naturaleza no estacionaria de los datos de series temporales.
Durante la sesión de preguntas y respuestas, Mourinho responde a varias preguntas de la audiencia. Un participante pregunta sobre el paso más crítico del proceso, a lo que Mourinho destaca que el preprocesamiento de datos es esencial y requiere mucho tiempo. Otra consulta gira en torno a la normalización de datos, y Mourinho sugiere la práctica común de restar la media y dividir por la desviación estándar en la mayoría de los casos. Con respecto a la eliminación de la correlación lineal mediante el análisis de componentes principales (PCA), reconoce su posibilidad, pero advierte sobre la posible pérdida de significado de las características y sugiere considerar modelos como el índice de Sharpe para interpretar los resultados de manera efectiva.
El orador procede a discutir el uso de PCA para la selección de características y su impacto potencial en la interpretabilidad de las características. Se recomienda a los aspirantes a comerciantes cuantitativos y algorítmicos que consideren EPAT (Programa Ejecutivo en Comercio Algorítmico) como un valioso punto de partida. Destacan que el programa ofrece objetivos de aprendizaje integrales alineados con los requisitos de la industria. A los asistentes al seminario web se les ofrece una admisión anticipada extendida al programa y pueden reservar una llamada de asesoramiento del curso para comprender cómo puede ayudarlos a lograr sus objetivos profesionales, ya sea estableciendo una mesa de negociación algorítmica o incorporando tecnologías y herramientas avanzadas en su negociación. estrategias.
Kurt Celestog, director de proyectos de Hong Kong Exchange and Clearing Limited, sube al escenario para compartir su proyecto sobre gestión de carteras, que amplía la conferencia de Jay Palmer sobre gestión cuantitativa de carteras. El proyecto de Celestog se centra en optimizar la rentabilidad por dividendo a través de la gestión de carteras. Su objetivo es generar un flujo regular de ingresos por dividendos al mismo tiempo que garantiza la estabilidad y el crecimiento en los pagos de dividendos, todo mientras se mantiene el valor de la cartera. Su objetivo es superar el índice de referencia o ETF tanto en rendimiento de dividendos como en rendimiento de precios a través de técnicas óptimas de gestión de cartera. Celestog enfrentó el desafío de adquirir datos de dividendos y desarrolló funciones de web scraping para descargarlos. Dividió el conjunto de datos en dos partes, cada una de las cuales abarcaba diez años y abarcaba recesiones y expansiones económicas.
El orador analiza los desafíos encontrados durante el proceso de limpieza de datos para la optimización de la cartera de acciones de dividendos. Los datos obtenidos del sitio web no estaban limpios y requirieron modificaciones y normalización para expresar dividendos en montos en dólares, especialmente con los dividendos anticipados inicialmente presentados como porcentajes. Los datos de precios se obtuvieron de Yahoo Finance y se calcularon métricas como el rendimiento anual de dividendos, el crecimiento de dividendos y el crecimiento promedio. Se derivó un índice compuesto para todas las acciones seleccionadas para crear dos carteras: una cartera igualmente ponderada y una cartera optimizada por ponderación. El ponente pretendía analizar si una única optimización, seguida de un período de tenencia de diez años, superaría al índice de referencia y al ETF.
Luego, el orador comparte los resultados del proyecto de optimización de cartera utilizando técnicas de aprendizaje automático. Los gráficos presentados muestran burbujas verdes en el cuadrante superior izquierdo, que representan las cinco acciones con la métrica combinada más alta. Tanto las carteras de igual ponderación como las de ponderación óptima mostraron rendimientos medios y rendimientos de dividendos más altos que el índice de referencia. Sin embargo, durante los siguientes diez años, las acciones bancarias y tecnológicas ganaron más popularidad, lo que provocó que el rendimiento de la cartera optimizada cayera en relación con el índice de referencia. Para mejorar el rendimiento, el orador experimentó reequilibrando las carteras con regularidad y seleccionando las cinco mejores acciones en función de la métrica elegida. Las carteras reequilibradas superaron al índice de referencia y demostraron una mayor rentabilidad por dividendo.
El orador enfatiza cómo la optimización de la cartera y el reequilibrio regular pueden conducir a mayores rendimientos de dividendos y superar los índices de referencia, especialmente con acciones de dividendos como Real Estate Investment Trusts (REIT). Al reequilibrar las carteras cada seis meses y explorar diferentes períodos retrospectivos, el orador superó con éxito al índice en términos de rendimiento promedio de dividendos, crecimiento de dividendos, rendimiento y menores retiros. Sin embargo, reconocen los desafíos en la obtención y limpieza de datos y señalan que la función de reequilibrio puede ser compleja, lo que sugiere el uso de programación orientada a objetos para abordar esta complejidad. En general, el orador destaca que la optimización de la cartera y el reequilibrio regular son herramientas valiosas para los inversores.
El orador señala que el reequilibrio frecuente de la cartera es crucial para lograr un rendimiento superior. Sin embargo, debido a la poca frecuencia de disponibilidad de datos de dividendos para acciones de dividendos, es difícil reequilibrar con más frecuencia que una o dos veces al año. El orador también enfatiza la necesidad de seguir trabajando en el proyecto, incluida la exploración de diferentes criterios de optimización, la incorporación de más acciones en la cartera para una mayor diversificación y la realización de pruebas retrospectivas exhaustivas. Sugieren expandir el universo de lecturas y discutir el impacto de los costos de transacción en el rendimiento de la cartera.
Durante la sesión de preguntas y respuestas, Celestog responde las preguntas de la audiencia. Un participante pregunta sobre el rendimiento de la cartera de igual ponderación en comparación con la cartera optimizada. Celestog explica que, en general, la cartera de igual ponderación se desempeñó bien, pero la cartera optimizada produjo mayores rendimientos, lo que demuestra la eficacia de las técnicas de optimización de cartera. Otro asistente pregunta sobre el impacto de los costos de transacción en el desempeño de la cartera. Celestog reconoce que los costos de transacción pueden tener un impacto significativo y sugiere incorporarlos en el proceso de optimización para obtener una representación más precisa del desempeño en el mundo real. También menciona la importancia de considerar el deslizamiento en escenarios comerciales en vivo y aconseja a los participantes que prueben a fondo sus estrategias utilizando datos históricos antes de implementarlas en el comercio en vivo.
En general, las presentaciones en el seminario web arrojaron luz sobre los aspectos prácticos de la asignación de activos de cartera utilizando técnicas de optimización y aprendizaje automático para acciones de dividendos. Los oradores destacaron la importancia del preprocesamiento de datos, la selección de características, el reequilibrio y el monitoreo regular para lograr resultados exitosos. También enfatizaron la necesidad de aprendizaje continuo, adaptabilidad y exploración de diferentes estrategias para navegar la naturaleza dinámica de los mercados financieros. La audiencia obtuvo información valiosa sobre los desafíos, las técnicas y los beneficios potenciales de utilizar el aprendizaje automático en la gestión de carteras.