
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Rama Cont y Francesco Capponi: "Impacto cruzado en los mercados de renta variable"
Rama Cont y Francesco Capponi: "Impacto cruzado en los mercados de renta variable"
Rama Cont y Francesco Capponi profundizan en el concepto de impacto cruzado en los mercados de valores a través de su análisis del flujo de órdenes y datos de precios. Afirman que el impacto cruzado significa que el precio de un activo está influenciado no solo por su propio flujo de órdenes sino también por el flujo de órdenes de otros activos. Si bien los estudios teóricos anteriores han intentado derivar las consecuencias de los efectos de impacto cruzado y extender los modelos de ejecución comercial óptima de un solo activo a múltiples activos, Cont y Capponi proponen un enfoque más simplificado para explicar las correlaciones entre los rendimientos de los activos y el flujo de órdenes.
Argumentan que no es necesaria una matriz integral de coeficientes de impacto de precios para dar cuenta de estas correlaciones. En cambio, sostienen que las correlaciones observadas pueden atribuirse al hecho de que los participantes del mercado a menudo se involucran en el comercio de múltiples activos, lo que genera desequilibrios en el flujo de órdenes correlacionados entre los activos. Para identificar la importancia de los coeficientes de impacto cruzado y los principales impulsores de los costos de ejecución, los presentadores sugieren utilizar un análisis de componentes principales (PCA) en las matrices de correlación de los rendimientos y los desequilibrios del flujo de pedidos.
Cont y Capponi proponen un modelo parsimonioso para el impacto cruzado en los mercados de acciones, centrándose en el balance del flujo de pedidos propio de una acción y la correlación de los desequilibrios del flujo de pedidos. Encuentran que un modelo de un factor para el desequilibrio del flujo de pedidos es suficiente para explicar las correlaciones cruzadas de los rendimientos. Este modelo se puede utilizar para la ejecución de carteras y el análisis de costos de transacción, y los presentadores recomiendan el uso de un modelo confiable para el impacto de un solo activo junto con un buen modelo para factores comunes en el flujo de órdenes entre activos.
Los ponentes destacan la importancia de establecer un modelo causal y una interpretación de la ecuación. Expresan su disposición a compartir materiales adicionales y actualizaciones, enfatizando su compromiso de promover la comprensión en esta área de investigación.
Adam Grealish: "Un enfoque algorítmico de la inversión personal"
Adam Grealish: "Un enfoque algorítmico de la inversión personal"
Adam Grealish, director de inversiones de Betterment, brinda información sobre el enfoque algorítmico de la empresa para la inversión personal y su estrategia basada en objetivos. Betterment utiliza un modelo de asesoramiento robótico, aprovechando algoritmos y una intervención humana mínima para brindar asesoramiento y gestión de inversiones a sus clientes.
Grealish destaca tres factores clave que determinan los resultados de la inversión: mantener los costos bajos, la optimización de impuestos y el comercio inteligente. Si bien todos los factores son importantes, Betterment pone un fuerte énfasis en los primeros tres. La empresa emplea la técnica de optimización Black Litterman para construir carteras globalmente diversificadas y monitorea continuamente los pesos objetivo en su vasta base de clientes de medio millón de personas. La optimización fiscal, incluidas estrategias como la recolección de pérdidas fiscales, la ubicación de activos y la clasificación de lotes, ofrece oportunidades para superar al mercado.
En la segunda parte de su discusión, Grealish distingue el enfoque de Betterment de los asesores financieros automatizados tradicionales. A diferencia del enfoque de "talla única" de los asesores robóticos tradicionales, el enfoque algorítmico de Betterment considera factores individuales como los objetivos, el horizonte temporal y la tolerancia al riesgo. Esta personalización permite carteras personalizadas adaptadas a la situación única de cada inversor. Betterment también ofrece características adicionales como la recolección de pérdidas fiscales y carteras coordinadas de impuestos para maximizar la eficiencia fiscal y aumentar los rendimientos.
Grealish profundiza más en los detalles de las estrategias de inversión de Betterment. La empresa fomenta la estabilidad de la asignación a largo plazo, ajustando las carteras solo una vez al año para avanzar hacia la asignación objetivo. Utilizan algoritmos de reequilibrio basados en disparadores para gestionar la desviación de la asignación objetivo y minimizar los riesgos. Las carteras de Betterment se construyen utilizando ETF basados en una amplia capitalización de mercado, lo que optimiza la exposición a clases de activos de riesgo con primas de riesgo asociadas.
La optimización de costes es un aspecto significativo de la filosofía de inversión de Betterment. La compañía aprovecha la tendencia a la baja de las comisiones de los ETFs, revisando trimestralmente todo el universo de ETFs. El proceso de selección considera factores más allá de la proporción de gastos, incluido el error de seguimiento y los costos comerciales, lo que da como resultado carteras de bajo costo para los clientes de Betterment.
La optimización fiscal es otro elemento crucial de la estrategia de Betterment. Grealish explica la importancia de la gestión fiscal y describe tres estrategias efectivas: recolección de pérdidas fiscales, ubicación de activos y clasificación de lotes. La recolección de pérdidas fiscales implica la venta de valores con pérdidas para realizar pérdidas de capital a efectos fiscales, mientras que la ubicación de activos maximiza los rendimientos después de impuestos mediante la asignación estratégica de activos entre cuentas. La clasificación de lotes implica vender primero los lotes con las mayores pérdidas para optimizar los beneficios fiscales.
Grealish reconoce el impacto del comportamiento de los inversores en los resultados de las inversiones. Betterment combate el comportamiento negativo mediante la implementación de valores predeterminados inteligentes, el uso de la automatización y el fomento de la inversión basada en objetivos. La empresa emplea un diseño intencional y análisis de datos para incitar a los usuarios a tomar medidas cuando se desvían de sus objetivos financieros.
En términos de desarrollos futuros, Grealish analiza los usos potenciales de la IA en el espacio fintech. Betterment está explorando aplicaciones de IA en la automatización de tareas financieras como el asesoramiento robótico y la gestión de efectivo. La compañía tiene como objetivo hacer que los servicios financieros que antes estaban limitados a personas e instituciones de alto patrimonio neto sean accesibles a un público más amplio. Sin embargo, la complejidad de individualizar la preparación de impuestos plantea desafíos en esta área.
En general, Adam Grealish brinda información valiosa sobre el enfoque algorítmico de Betterment para la inversión personal, enfatizando las estrategias basadas en objetivos, la optimización de costos, la gestión de impuestos y la mitigación del comportamiento.
Miquel Noguer i Alonso: "Últimos avances en Deep Learning en Finanzas"
Miquel Noguer i Alonso: "Últimos avances en Deep Learning en Finanzas"
En este completo vídeo, Miquel Noguer i Alonso explora el potencial del aprendizaje profundo en el campo de las finanzas, a pesar de las complejidades inherentes y la naturaleza empírica de la industria. El aprendizaje profundo ofrece capacidades valiosas para capturar relaciones no lineales y reconocer patrones recurrentes, particularmente en datos no estructurados y aplicaciones financieras. Sin embargo, también presenta desafíos como el sobreajuste y la efectividad limitada en situaciones no estacionarias. Para hacer frente a estos desafíos, la integración de factores, el análisis de sentimientos y el procesamiento del lenguaje natural pueden proporcionar información valiosa para los administradores de carteras que manejan grandes cantidades de datos. Es importante tener en cuenta que no existe un modelo único para todos, y las redes neuronales profundas no deben reemplazar los modelos de referencia tradicionales. Además, Alonso destaca la importancia de BERT, un modelo de lenguaje de código abierto y altamente eficiente que demuestra una comprensión profunda de los números en los textos financieros, lo que lo hace particularmente valioso para los conjuntos de datos financieros.
A lo largo del video, Alonso comparte ideas importantes y analiza varios aspectos de la utilización de modelos de aprendizaje profundo en finanzas. Explora la transformación de datos financieros en imágenes para el análisis utilizando redes neuronales convolucionales, aprovechando los codificadores automáticos para la compresión de datos no lineales y aplicando redes de memoria para el análisis de series temporales. Se enfatiza la colaboración entre expertos en el dominio y profesionales del aprendizaje automático como un factor crítico para abordar de manera efectiva los problemas relacionados con las finanzas utilizando técnicas de aprendizaje profundo.
Alonso profundiza en los desafíos que se encuentran al trabajar con aprendizaje profundo en finanzas, como la naturaleza dinámica del proceso de generación de datos y la necesidad de desarrollar modelos que puedan adaptarse a estos cambios. Destaca conceptos de la teoría de la información, la complejidad y la compresión de la información para encontrar la representación más concisa. Se analiza el Teorema de Aproximación Universal, enfatizando la capacidad de las redes neuronales profundas para aproximar cualquier función con precisión arbitraria, pero la generalización no está garantizada. El orador recomienda una mayor exploración de los trabajos de investigación sobre la regularización, las dimensiones intrínsecas de las redes neuronales y las redes neuronales sobreparametrizadas.
El orador también aborda la idea de un régimen de interpolación, donde las redes neuronales profundas pueden descubrir clases de funciones más grandes que identifican funciones de interpolación con normas más pequeñas. Discuten los aspectos cualitativos de las redes neuronales profundas, enfatizando la importancia variable de las diferentes capas y su papel en la predicción de series temporales. Sin embargo, se enfatiza que los modelos lineales aún sirven como puntos de referencia, y los resultados de los modelos de aprendizaje profundo deben compararse con ellos.
Alonso proporciona información sobre el rendimiento de los modelos de aprendizaje profundo en finanzas, mostrando los resultados del uso de redes de memoria a corto plazo con múltiples acciones y demostrando su superioridad sobre otras redes neuronales. Se muestra que los modelos de aprendizaje profundo superan a los modelos lineales en la selección de las mejores acciones en el S&P 500, lo que da como resultado mejores índices de información fuera de la muestra. El orador subraya que el aprendizaje profundo siempre funciona bien y puede ser una opción confiable al seleccionar un modelo.
Los factores juegan un papel crucial en los modelos de aprendizaje profundo para las finanzas, lo que permite la exploración de relaciones no lineales con los rendimientos. La utilización de la no linealidad distingue este enfoque de los ejercicios de series temporales puras. El orador también enfatiza la importancia de la selección de parámetros durante el período de entrenamiento y advierte que no se debe asumir que usar más datos siempre conduce a una mayor precisión. Es importante tener en cuenta que estos modelos no incorporan costos ni consideraciones de la vida real, ya que son principalmente para fines de investigación basados en datos históricos.
El orador aclara el enfoque de su documento, destacando que la intención no es afirmar que las redes neuronales profundas son superiores, sino enfatizar la necesidad de que se utilicen junto con los modelos de referencia tradicionales. Se analiza la importancia de capturar relaciones no lineales y comprender los ciclos recurrentes, junto con la necesidad de considerar parámetros como la ventana de aprendizaje. Las redes neuronales profundas pueden proporcionar información única en escenarios específicos al capturar efectos de segundo o tercer orden que los modelos lineales pueden pasar por alto. Sin embargo, se enfatiza que no existe un modelo universal y que las redes neuronales profundas deberían complementar los modelos de referencia existentes en lugar de reemplazarlos.
También se explora la aplicación del procesamiento del lenguaje natural, específicamente el análisis de sentimientos, en finanzas. Dada la gran cantidad de información que se genera en los mercados, las herramientas de big data son esenciales para investigar y analizar espacios de alta dimensión. El aprendizaje automático, en particular el aprendizaje profundo, resulta valioso para hacer frente a estos desafíos. Los modelos de lenguaje se pueden aprovechar para tareas como el análisis de sentimientos, que pueden proporcionar información sobre el impulso del mercado. El raspado de Internet ha demostrado ser un enfoque eficiente para detectar cambios en la información que pueden indicar cambios en el mercado. En general, el procesamiento del lenguaje natural ofrece información valiosa para los administradores de cartera que manejan grandes volúmenes de datos.
En el vídeo, el ponente profundiza en los dos enfoques del análisis de sentimientos en las finanzas. El método tradicional consiste en contar la frecuencia de las palabras positivas y negativas, mientras que el enfoque más avanzado utiliza el aprendizaje profundo y las incrustaciones de palabras para captar el significado contextual y semántico de las palabras. El ponente destaca la eficacia de la representación codificadora bidireccional de los transformadores (BERT), un modelo de lenguaje de última generación que ofrece una representación más precisa y eficiente de las palabras. La capacidad de BERT para comprender números en textos financieros es particularmente crucial para un análisis financiero preciso. Otros aproximadores de funciones como perceptrones multicapa, redes de memoria y covnets también se mencionan como herramientas útiles en finanzas.
Además, el orador analiza el concepto de transformar datos financieros en imágenes y emplear redes neuronales convolucionales para el análisis. Este enfoque resulta especialmente beneficioso para los problemas de aprendizaje no supervisados. Se introduce el uso de codificadores automáticos para la compresión de datos no lineales y redes de memoria para el análisis de series temporales. Las redes de memoria pueden ser adecuadas para analizar datos de series temporales si el entorno es suficientemente estable. Además, el orador aborda el uso de modelos transformadores para el procesamiento del lenguaje en finanzas y brinda información sobre su implementación utilizando TensorFlow.
En cuanto a la implementación de modelos de aprendizaje profundo de código abierto en finanzas, el orador enfatiza que, si bien es posible que se requiera capacitación específica para aplicaciones financieras, es un objetivo alcanzable debido a la abundancia de código fuente abierto disponible. La colaboración entre expertos en el dominio y aprendices automáticos es crucial para resolver problemas relacionados con las finanzas, ya que existen numerosas oportunidades para aprovechar el aprendizaje automático en el campo. El orador señala que, si bien los enfoques de procesamiento de lenguaje natural hechos a mano se utilizan actualmente en finanzas, los modelos de aprendizaje profundo aún no se han adoptado ampliamente en la industria.
El video también profundiza en los métodos tradicionales de control artesanal en las finanzas, donde las personas usan diccionarios para describir entidades como JP Morgan mientras se aseguran de que no haya errores tipográficos. Se analiza la eficacia de varios algoritmos de aprendizaje automático, como las redes de memoria a largo plazo y BERT. BERT se considera el estado del arte en la investigación publicada. También se explora el potencial del aprendizaje automático para inversiones transversales, lo que sugiere el uso de factores o rendimientos para ayudar a las máquinas a interpretar rendimientos o factores planos.
Al abordar la dificultad de encontrar valores óptimos en el aprendizaje profundo, el ponente reconoce que puede ser un problema de NP. Los científicos de datos humanos con experiencia e intuición deben tomar decisiones heurísticas basadas en su experiencia. Se destaca el desafío de comprender e interpretar las redes neuronales profundas, ya que incluso los matemáticos luchan por formular ecuaciones para explicar su desempeño excepcional. El análisis cualitativo se emplea a menudo en tales casos. Sin embargo, con el tiempo y después de trabajar con varios conjuntos de datos, los científicos de datos pueden desarrollar una intuición para seleccionar los parámetros más apropiados para situaciones específicas.
Gordon Ritter: "Aprendizaje por refuerzo y descubrimiento de oportunidades de arbitraje"
Gordon Ritter: "Aprendizaje por refuerzo y descubrimiento de oportunidades de arbitraje"
En este video, Gordon Ritter explora la aplicación del aprendizaje por refuerzo en el contexto de los mercados financieros, centrándose específicamente en descubrir oportunidades de arbitraje dentro del comercio de derivados. Enfatiza la importancia de la planificación y la estrategia complejas de varios períodos cuando se enfrenta a la incertidumbre. Ritter demuestra el uso de funciones de valor para guiar la búsqueda de políticas óptimas y propone una función de recompensa que combina el incremento de un solo período con una constante multiplicada por el cuadrado de la desviación de la media.
Ritter analiza el proceso de creación de una simulación que incluye una oportunidad de arbitraje sin indicar explícitamente a la máquina dónde encontrarla. Destaca el uso de simulaciones estocásticas para modelar los mercados financieros y sugiere que con suficientes datos, un agente capacitado a través del aprendizaje por refuerzo puede identificar el arbitraje del mercado. Sin embargo, reconoce las limitaciones del aprendizaje por refuerzo, como el sobreajuste y los desafíos en el manejo de escenarios imprevistos. Se proponen más pruebas, como la exploración de estrategias comerciales de neutralidad gamma, para ampliar las capacidades de los agentes capacitados.
El video incluye un análisis del desempeño de un agente de aprendizaje por refuerzo en comparación con un agente de referencia en la cobertura de derivados. El agente capacitado demuestra ahorros de costos significativos mientras mantiene un rango similar de volatilidad realizada, mostrando su capacidad para hacer concesiones entre costo y riesgo. Ritter analiza la relevancia de las funciones de valor en el aprendizaje de refuerzo para el comercio de derivados, ya que los precios de los derivados en sí mismos pueden verse como una forma de función de valor.
Ritter también destaca la importancia de construir vectores de estado y espacios de acción apropiados en el aprendizaje por refuerzo. Incluir información relevante en el vector estatal y definir las acciones adecuadas es fundamental para una toma de decisiones eficaz. Presenta el uso de los procesos de Ornstein y Limbic como un medio para modelar la dinámica de reversión a la media, que potencialmente puede conducir a oportunidades de arbitraje.
Además, el video analiza los desafíos de usar rendimientos a corto plazo para oportunidades comerciales y las limitaciones de los espacios de estados finitos. Ritter sugiere emplear espacios de estado continuos y métodos de aproximación de funciones, como árboles modelo y redes neuronales, para abordar estos desafíos y mejorar la estimación de las funciones de valor.
Finalmente, Ritter reconoce que, si bien el aprendizaje por refuerzo puede ser una herramienta valiosa para descubrir oportunidades de arbitraje, no es un enfoque garantizado en el comercio de la vida real. Concluye destacando el potencial del aprendizaje por refuerzo para descubrir operaciones rentables a través de sistemas estocásticos, pero advierte que no se debe esperar que encuentre oportunidades de arbitraje si no existen en el mercado. También se reconocen las limitaciones del aprendizaje por refuerzo, incluido el sobreajuste y su incapacidad para manejar escenarios imprevistos.
Marcos López de Prado: "Las 7 razones por las que la mayoría de los fondos de Machine Learning fracasan"
Marcos López de Prado: "Las 7 razones por las que la mayoría de los fondos de Machine Learning fracasan"
Marcos López de Prado realizó una presentación completa que describió las razones detrás del fracaso de la mayoría de los fondos de aprendizaje automático en la industria financiera. Hizo hincapié en la importancia de varios factores clave que contribuyen al éxito en este ámbito.
Uno de los principales factores destacados por de Prado fue la ausencia de una teoría bien formulada sobre los fondos discrecionales. Señaló que muchas conversaciones de inversión carecen de un enfoque constructivo y abstracto debido a la falta de una base teórica sólida. Sin una teoría que guíe la toma de decisiones, los fondos discrecionales luchan por interactuar con otros y probar sus ideas, lo que resulta en malas decisiones y posibles pérdidas.
De Prado también discutió los efectos perjudiciales de trabajar en silos aislados dentro de los fondos de aprendizaje automático. Hizo hincapié en que la colaboración y la comunicación son esenciales para el éxito, y advirtió contra la contratación de numerosos doctores y la segregación en tareas separadas. En cambio, abogó por un enfoque basado en equipos en el que los especialistas trabajen de forma independiente pero posean conocimiento de la experiencia de los demás, lo que lleva a mejores estrategias y resultados.
La especialización dentro del equipo fue otro aspecto crucial destacado por de Prado. Destacó la importancia de reunir un grupo de especialistas capaces de manejar sistemas y tareas complejas. Estos expertos deben poseer habilidades independientes al mismo tiempo que comprenden la estrategia general y son conscientes de los campos de especialización de sus colegas. Este paradigma de metaestrategia es valioso no solo para desarrollar estrategias efectivas, sino también para tomar decisiones informadas en situaciones inciertas, incluida la contratación, la supervisión de inversiones y la definición de criterios de finalización.
El manejo adecuado de los datos financieros fue otro factor clave discutido por de Prado. Hizo hincapié en la necesidad de lograr la estacionariedad en los datos preservando la información valiosa. Sugirió diferenciar los datos por fracción para retener la información de la memoria de observaciones anteriores, lo que permite predicciones críticas en puntos específicos. Además, aconsejó usar un umbral específico para lograr una correlación casi perfecta entre las series estacionarias y originales sin usar demasiada memoria. De Prado advirtió contra el uso de rendimientos en los casos en que no hay contratos de futuros líquidos, y recomendó el uso de una sola observación en la mayoría de los escenarios.
De Prado también abordó la frecuencia de muestreo y el etiquetado apropiado de los datos. Propuso basar la frecuencia de muestreo en la llegada de la información del mercado en lugar de depender de métodos convencionales como observaciones diarias o minuciosas. Mediante el uso de técnicas como barras de dólar que muestrean en función del volumen de transacciones, se puede garantizar que se incluyan cantidades iguales de información en la muestra. El etiquetado adecuado de las observaciones, como el uso del método Touch Barrier Labeling, permite el desarrollo de estrategias conscientes del riesgo, teniendo en cuenta la dinámica de los precios y la posibilidad de ser detenido.
El concepto de metaaprendizaje, en el que un modelo de aprendizaje automático predice la precisión de las predicciones de otro modelo, se discutió como un medio para lograr precisión y recuperación. Al componer dos modelos separados, uno puede equilibrar la compensación entre precisión y recuperación utilizando la media armónica. De Prado recomendó emplear diferentes algoritmos de aprendizaje automático para distintas tareas para optimizar el rendimiento.
De Prado destacó los desafíos de aplicar el aprendizaje automático en las finanzas, enfatizando la necesidad de que los expertos humanos filtren los datos antes de usar algoritmos de aprendizaje automático. Los datos financieros son intrínsecamente confusos y no iid, lo que dificulta vincular observaciones específicas con activos. Además, los cambios constantes en los mercados financieros debido a las regulaciones y leyes requieren un enfoque cuidadoso y matizado para implementar algoritmos de aprendizaje automático. Simplemente conectar datos financieros en un modelo de aprendizaje automático no es suficiente para tener éxito en las finanzas.
Otro aspecto importante de la presentación de De Prado fue abordar los problemas de la no singularidad y el sobreajuste. Propuso una metodología para determinar la singularidad de las observaciones, recomendando la eliminación de las observaciones que contienen información más antigua que la que se comparte con el conjunto de prueba, un proceso conocido como "depuración". Esto ayuda a crear modelos de aprendizaje automático más precisos al alinearse con los supuestos de las técnicas de validación cruzada. De Prado también advirtió sobre los peligros del sobreajuste, y enfatizó que las estrategias de pruebas retrospectivas repetidas pueden generar falsos positivos y disminuir la utilidad con el tiempo. Tener en cuenta la cantidad de ensayos involucrados en el descubrimiento de estrategias es crucial para evitar el sobreajuste y los falsos positivos. De Prado aconsejó establecer un umbral alto para el desempeño de las estrategias para mitigar los riesgos asociados con el sobreajuste.
De Prado introdujo el concepto de "fresa desinflada", que ilustra que muchos fondos de cobertura exhiben una asimetría negativa y un exceso de curtosis positivo, incluso si los administradores de fondos no apuntaron intencionalmente a estas características. Esto se debe principalmente a que los administradores de fondos se evalúan en función del índice de Sharpe, y estas propiedades estadísticas pueden inflar el índice. De Prado enfatizó la importancia de considerar el tamaño de la muestra y la cantidad de ensayos involucrados en la producción de un descubrimiento al analizar los retornos. Advirtió en contra de invertir en estrategias con una baja probabilidad de lograr un verdadero índice de Sharpe mayor que cero.
De Prado subrayó el logro de un equilibrio entre el ajuste del modelo y el sobreajuste. Aconsejó no esforzarse por lograr un ajuste perfecto, ya que puede generar un exceso de confianza y un mayor riesgo. En cambio, recomendó encontrar una manera de preservar recuerdos importantes mientras se aplican modelos estadísticos de manera efectiva. De Prado también advirtió contra el uso de modelos demasiado complicados, ya que pueden dificultar la alimentación de datos y la polinización cruzada, lo que impide la eficacia general de los algoritmos de aprendizaje automático.
De Prado abordó el fenómeno de la industria donde se prefieren ciertos rasgos o métricas, lo que lleva a una convergencia de estrategias. Comparándolo con la cría de perros, donde la preferencia humana y la estética dan forma a ciertos rasgos, explicó cómo el uso de métricas específicas, como la combinación de la relación de Sharpe y la asimetría negativa, se ha vuelto favorecida en los fondos de cobertura, incluso si no fue inicialmente apuntado Abordar este fenómeno resulta desafiante, ya que ocurre sin ningún evento desencadenante específico.
Además, de Prado enfatizó la importancia de utilizar datos de precios recientes al hacer pronósticos, ya que tienen una mayor relevancia para el futuro inmediato. Recomendó emplear el decaimiento de peso exponencial para determinar la longitud de la muestra al usar todos los datos disponibles. Además, destacó la importancia de controlar la cantidad de pruebas y evitar entornos de trabajo aislados como trampas comunes que conducen al fracaso de los fondos de aprendizaje automático. Señaló que las finanzas difieren de otros campos en los que el aprendizaje automático ha logrado avances significativos, y la contratación de estadísticos puede no ser siempre el enfoque más efectivo para desarrollar algoritmos comerciales exitosos.
En resumen, la presentación de Marcos López de Prado arrojó luz sobre las razones por las que la mayoría de los fondos de aprendizaje automático fracasan en la industria financiera. Hizo hincapié en la necesidad de una teoría bien formulada, colaboración en equipo, especialización, manejo y diferenciación adecuados de datos financieros, muestreo y etiquetado apropiados, abordando desafíos como la falta de unicidad y el sobreajuste, e incorporando la experiencia humana en la implementación de algoritmos de aprendizaje automático. Al comprender estos factores y adoptar un enfoque cuidadoso y matizado, los profesionales pueden aumentar la probabilidad de éxito en el dinámico y complejo mundo de las finanzas.
Irene Aldridge: "Riesgo en tiempo real en la optimización de cartera a largo plazo"
Irene Aldridge: "Riesgo en tiempo real en la optimización de cartera a largo plazo"
Irene Aldridge, presidenta y directora general de Able Alpha Trading, brinda una discusión integral sobre el impacto del comercio de alta frecuencia (HFT) en los administradores de cartera a largo plazo y los cambios sistémicos en el mercado que afectan a toda la industria. Explora la creciente automatización en las finanzas, impulsada por los avances en big data y aprendizaje automático, y sus implicaciones para la optimización de la cartera. Además, Aldridge profundiza en los desafíos y oportunidades que presentan los datos de volumen intradía y propone un enfoque paso a paso que integra la identificación de riesgos en tiempo real utilizando big data. Aboga por una estrategia de optimización de cartera más matizada que incorpore factores microestructurales y sugiere el uso de factores como medida defensiva. Aldridge también aborda el ciclo de vida de tres años de las estrategias cuantitativas, el potencial de la realidad virtual y la automatización en el análisis de datos y la aplicación de una matriz informática en la optimización de carteras.
A lo largo de su presentación, Aldridge cuestiona la idea errónea de que el comercio de alta frecuencia no tiene impacto en los administradores de cartera a largo plazo. Ella argumenta que los cambios sistémicos en el mercado afectan todas las estrategias de inversión, independientemente de su horizonte temporal. Basándose en su experiencia en ingeniería eléctrica, desarrollo de software, gestión de riesgos y finanzas, Aldridge enfatiza la importancia de explorar nuevas áreas, como la evaluación de riesgos en tiempo real y la optimización de carteras.
Aldridge destaca el cambio significativo hacia la automatización en la industria financiera, señalando que el comercio manual ha dado paso a sistemas automatizados en el comercio de acciones, divisas, renta fija y materias primas. Para seguir siendo relevantes, los participantes de la industria han adoptado técnicas de big data y aprendizaje automático. Sin embargo, reconoce la resistencia inicial de algunos comerciantes que temían que la automatización dejara obsoleta su experiencia.
El orador explora la evolución de los grandes datos y su papel en la optimización de la cartera. Ella señala que la disponibilidad de grandes cantidades de datos estructurados y no estructurados ha revolucionado el panorama financiero. Aldridge explica cómo técnicas como la descomposición de valores singulares (SVD) permiten el procesamiento de grandes conjuntos de datos para extraer información valiosa. SVD se usa cada vez más para automatizar la asignación de carteras, con el objetivo de incorporar la mayor cantidad de datos posible para informar las decisiones de inversión.
Aldridge profundiza en el proceso de reducción de las dimensiones de los datos mediante la descomposición de valores singulares. Al graficar valores singulares derivados a través de este proceso, los investigadores pueden identificar los vectores que contienen información significativa mientras tratan los vectores restantes como ruido. Esta técnica se puede aplicar a varios conjuntos de datos financieros, incluida la capitalización de mercado, la beta, el precio y la volatilidad intradía. El conjunto de datos reducido resultante proporciona una guía confiable para fines de investigación y ayuda a identificar factores cruciales para la optimización de la cartera a largo plazo.
El orador analiza los factores comunes empleados por los analistas de cartera, como el precio, el riesgo de mercado (beta), la capitalización de mercado y la rentabilidad por dividendo. La actividad institucional también es un factor importante, y Aldridge destaca el uso de big data para analizar datos de ticks y detectar patrones. Reconocer la actividad institucional proporciona señales visibles a los participantes del mercado, lo que lleva a un mayor volumen y una ejecución favorable.
Aldridge distingue entre estrategias HFT agresivas y pasivas y su impacto en la liquidez. Las estrategias HFT agresivas, caracterizadas por cancelaciones de órdenes, pueden erosionar la liquidez y contribuir al riesgo, mientras que las estrategias HFT pasivas, como la creación de mercado, pueden reducir la volatilidad al proporcionar liquidez. Ella señala que la preferencia por el precio promedio ponderado por volumen por parte de los inversionistas institucionales y el uso de precios promedio ponderados por tiempo en ciertos mercados, como el de divisas, donde la información sobre el volumen puede no estar siempre disponible.
El orador aborda los desafíos que plantean los datos de volumen intradía, dada la multitud de intercambios, la reducción de los intervalos de tiempo y la necesidad de determinar el mejor negocio y la mejor oferta entre múltiples intercambios. A pesar de estos desafíos, Aldridge ve oportunidades significativas para la innovación y una mayor investigación en el corte y análisis de datos de volumen intradía. Ella menciona el Procesador de información de seguridad (SIP) administrado por la SEC, que agrega órdenes de límite de múltiples intercambios, pero reconoce el desafío continuo de conciliar y resolver problemas en diferentes intercambios.
Aldridge destaca los factores y riesgos microestructurales no explorados en la optimización de carteras. Si bien los administradores de carteras a largo plazo tradicionalmente se enfocan en las características de riesgo-rendimiento y pasan por alto los factores microestructurales, Aldridge sugiere incorporarlos como insumos y aprovechar la gran cantidad de datos disponibles. Ella propone un enfoque paso a paso que implica el uso de la descomposición de valores singulares para predecir el rendimiento en función de los rendimientos anteriores y el uso de big data para identificar y abordar los riesgos en tiempo real. Los algoritmos pueden ayudar a identificar y aprovechar complejidades complejas en los intercambios, como órdenes de ping, que pueden pasar desapercibidas para los comerciantes humanos.
Al desafiar las limitaciones de la optimización de cartera tradicional, Aldridge presenta un enfoque más integral que integra factores microestructurales y otras dinámicas del mercado. Ella destaca el potencial disruptivo de factores como los ETF y las caídas repentinas y enfatiza que las matrices de correlación por sí solas pueden no ser suficientes para analizar el riesgo. Al considerar factores microestructurales independientes que van más allá de los movimientos más amplios del mercado, Aldridge aboga por una estrategia matizada de optimización de la cartera que puede aumentar los rendimientos y mejorar los índices de Sharpe. Se pueden encontrar más detalles sobre su enfoque en su libro, y agradece las preguntas de la audiencia sobre el comercio de alta frecuencia.
Aldridge profundiza aún más en la persistencia del comercio de alta frecuencia dentro de un día y sus implicaciones para la asignación de cartera a largo plazo. Ella ilustra esto con el ejemplo del volumen de operaciones intradía de alta frecuencia de Google, que exhibe estabilidad dentro de un cierto rango a lo largo del tiempo. Aldridge destaca los costos más bajos asociados con el comercio de alta frecuencia en acciones de mayor precio y el menor porcentaje de volumen de comercio de alta frecuencia en acciones de centavo. Además, señala que la complejidad de la codificación a menudo disuade a los comerciantes de alta frecuencia de comprometerse con acciones de altos dividendos. Las estrategias comerciales agresivas de alta frecuencia implican órdenes de mercado u órdenes limitadas agresivas colocadas cerca del precio de mercado.
El orador explica el ciclo de vida de tres años de una estrategia cuantitativa, arrojando luz sobre los desafíos que enfrentan los cuantitativos para producir estrategias exitosas. El primer año generalmente implica traer una estrategia exitosa de un trabajo anterior y ganar una buena bonificación. El segundo año está marcado por intentos de innovar, pero muchos luchan por desarrollar una estrategia exitosa durante este período. En el tercer año, aquellos que hayan encontrado una estrategia exitosa pueden ganar una buena bonificación, mientras que otros pueden optar por irse y llevar su estrategia anterior a una nueva empresa. Esto contribuye a una concentración de estrategias comerciales similares de alta frecuencia, que pueden ajustarse o modificarse ligeramente y, a menudo, ejecutan operaciones al mismo tiempo. Aldridge enfatiza que el comercio de alta frecuencia, al igual que otras formas de automatización, es beneficioso y no debe descartarse.
Aldridge concluye su presentación discutiendo el potencial de la realidad virtual y la automatización en el análisis de datos. Ella se refiere a la utilidad de las carteras y factores basados en beta, usando el ejemplo de comprar un par de calcetines versus comprar una computadora Dell y cómo los cambios en beta afectan sus precios de manera diferente. También se destaca la importancia de normalizar las devoluciones y abordar la aleatoriedad en los días hábiles. Aldridge sugiere emplear factores como una forma de defensa y enfatiza que usar factores puede ser un enfoque agradable.
En una sección, Aldridge explica la aplicación de una matriz informática para determinar la importancia o el coeficiente de cada acción en una cartera. La matriz incorpora técnicas de reducción, covarianza y varianza para ajustar los rendimientos y lograr un resultado más preciso. Al identificar patrones en los rendimientos de días anteriores, la matriz puede predecir resultados futuros y optimizar la cartera. Si bien el modelo de juguete discutido representa un ejemplo básico, ejemplifica el potencial de usar una matriz de computadora para la optimización de la cartera a largo plazo.
En resumen, la presentación de Irene Aldridge brinda información valiosa sobre el impacto del comercio de alta frecuencia en los administradores de cartera a largo plazo y el panorama en evolución de la industria financiera. Ella enfatiza el papel de la automatización, los grandes datos y el aprendizaje automático en la optimización de la cartera. Aldridge analiza los desafíos y las oportunidades que presentan los datos de volumen intradía, aboga por incorporar factores microestructurales y propone un enfoque paso a paso para la identificación de riesgos en tiempo real. Sus ideas contribuyen a una comprensión más matizada de la optimización de carteras y destacan el potencial de la realidad virtual y la automatización para el análisis de datos. El enfoque integral de Aldridge alienta a los administradores de cartera a adoptar los avances tecnológicos y aprovechar la gran cantidad de datos disponibles para tomar decisiones de inversión informadas.
Además, Aldridge enfatiza la importancia de considerar factores microestructurales que a menudo pasan desapercibidos en la optimización de cartera tradicional. Al incorporar factores como los ETF y las caídas repentinas en el análisis, los administradores de cartera pueden obtener una comprensión más precisa de la dinámica del mercado y los riesgos asociados. Ella cuestiona la noción de que las matrices de correlación por sí solas son suficientes para el análisis de riesgos y propone un enfoque más sofisticado que tiene en cuenta factores microestructurales independientes. Este enfoque tiene el potencial de mejorar los rendimientos de la cartera y mejorar el rendimiento ajustado al riesgo.
Aldridge también arroja luz sobre el intrincado mundo del comercio de alta frecuencia. Ella analiza la distinción entre estrategias HFT agresivas y pasivas, destacando su impacto en la liquidez y volatilidad del mercado. Si bien las estrategias agresivas que implican cancelaciones de órdenes pueden erosionar la liquidez y aumentar el riesgo, las estrategias pasivas centradas en órdenes limitadas y creación de mercado pueden proporcionar liquidez y reducir la volatilidad. Comprender la dinámica del comercio de alta frecuencia y sus implicaciones en la asignación de carteras es esencial para los administradores de carteras a largo plazo.
Además, Aldridge analiza los desafíos y oportunidades asociados con los datos de volumen intradía. Con múltiples intercambios e intervalos de tiempo cada vez más reducidos, el análisis e interpretación efectivos de estos datos puede ser complejo. Sin embargo, Aldridge ve esto como una oportunidad para la innovación y la investigación. Ella menciona el Procesador de información de seguridad (SIP) operado por la SEC, que agrega órdenes limitadas de varios intercambios para determinar el mejor negocio y la mejor oferta. Sin embargo, reconoce que reconciliar y resolver problemas entre diferentes intercambios sigue siendo un desafío.
La presentación de Aldridge también enfatiza la importancia de usar factores como una forma de defensa en la optimización de la cartera. Al considerar varios factores más allá de las características tradicionales de riesgo-rendimiento, los administradores de cartera pueden obtener conocimientos más profundos y mejorar su proceso de toma de decisiones. Factores como la capitalización de mercado, la beta, el precio y la volatilidad intradía pueden brindar información valiosa para optimizar las carteras a largo plazo.
Por último, Aldridge aborda el potencial de la realidad virtual y la automatización en el análisis de datos. Estos avances tecnológicos ofrecen nuevas posibilidades para analizar datos financieros complejos y obtener una comprensión más profunda de la dinámica del mercado. Al aprovechar el poder de la automatización y aprovechar las herramientas de realidad virtual, los administradores de cartera pueden mejorar sus capacidades de análisis de datos y tomar decisiones de inversión más informadas.
En conclusión, la discusión de Irene Aldridge sobre el impacto del comercio de alta frecuencia y el panorama financiero en evolución proporciona información valiosa para los administradores de cartera a largo plazo. Su exploración de la automatización, los macrodatos y el aprendizaje automático destaca el potencial transformador de estas tecnologías en la optimización de carteras. Al incorporar factores microestructurales, utilizar factores como una forma de defensa y adoptar los avances tecnológicos, los administradores de cartera pueden adaptarse a la dinámica cambiante del mercado y desbloquear nuevas oportunidades para lograr un rendimiento óptimo de la cartera a largo plazo.
Conceptos básicos del comercio cuantitativo
Conceptos básicos del comercio cuantitativo
En este video sobre los conceptos básicos del comercio cuantitativo, el comerciante algorítmico Shaun Overton analiza los desafíos y las oportunidades que implica el comercio algorítmico. Overton explica que la recopilación, el análisis y el comercio de datos son los tres problemas simples involucrados en el comercio algorítmico, aunque el proceso puede complicarse debido a la búsqueda de datos de alta calidad y un análisis adecuado. Puede ser un desafío seleccionar la plataforma correcta con buenos datos y funciones para cumplir con los objetivos del comerciante, siendo las plataformas más populares MetaTrader, NinjaTrader y TradeStation, según el tipo de negociación que prefiera. Overton también analiza la dura realidad de lo fácil que es explotar cuentas cuando se opera en el mercado en vivo y lo importante que es administrar el riesgo. Además, explica cómo los comerciantes cuantitativos pueden predecir movimientos excesivos en el mercado y analiza el impacto de las guerras de divisas.
El video "Fundamentos del comercio cuantitativo" en YouTube cubre varias estrategias para el comercio algorítmico, incluido el análisis de sentimientos y estrategias a largo plazo basadas en líneas de gráfico; sin embargo, los mayores retornos se obtienen durante los eventos y tendencias de gran cola. Los asistentes al video discuten diferentes plataformas para backtesting, los desafíos de integrar múltiples plataformas para el análisis comercial y el creciente interés en formalizar y automatizar estrategias comerciales. Algunos comerciantes a largo plazo buscan la automatización ya que han estado en el juego durante mucho tiempo, y se recomienda NinjaTrader para lenguajes de programación, pero tiene limitaciones.
¿Qué es un comerciante cuantitativo?
¿Qué es un comerciante cuantitativo?
"¿Qué es un comerciante cuantitativo?" es un video en el que Michael Halls-Moore se adentra en el mundo del comercio cuantitativo y explica cómo se utilizan las matemáticas y las estadísticas para desarrollar estrategias comerciales y analizar las ineficiencias del mercado. Si bien los fondos cuantitativos se centran principalmente en estrategias a corto plazo, el orador destaca que también se utilizan enfoques automatizados y de baja frecuencia. Los comerciantes institucionales priorizan la gestión de riesgos, mientras que los comerciantes minoristas están motivados por las ganancias. La detección efectiva del régimen de mercado es crucial pero desafiante debido a eventos aleatorios en el mercado. Se recomienda a los comerciantes cuantitativos que no confíen únicamente en un solo modelo, sino que investiguen y prueben constantemente otros nuevos para tener en cuenta las dinámicas de mercado conocidas y desconocidas. A pesar de los riesgos involucrados, los comerciantes cuantitativos exitosos pueden lograr un rendimiento anual impresionante del 35% sobre las tarifas.
En el video, Michael Halls-Moore brinda una perspectiva perspicaz sobre el concepto de "comerciante cuantitativo". Explica que los comerciantes cuantitativos emplean técnicas matemáticas y estadísticas en el campo de las finanzas, utilizando métodos computacionales y estadísticos. Su trabajo abarca una amplia gama de actividades, desde la programación de estructuras comerciales hasta la realización de investigaciones en profundidad y el desarrollo de estrategias comerciales sólidas. Si bien las reglas de compra y venta juegan un papel, no son el único enfoque, ya que los comerciantes cuantitativos operan dentro de un sistema más grande donde los generadores de señales son solo un componente.
Los fondos cuantitativos suelen participar en transacciones de alta frecuencia y se esfuerzan por optimizar la tecnología y las microestructuras dentro de los activos del mercado. Los marcos de tiempo involucrados en el comercio cuantitativo pueden variar mucho, desde microsegundos hasta semanas. Los comerciantes minoristas tienen una gran oportunidad para adoptar estrategias de estilo de mayor frecuencia.
Contrariamente a la creencia popular, el comercio cuantitativo no se centra únicamente en el comercio y el arbitraje de alta frecuencia. También incorpora estrategias de baja frecuencia y automatizadas. Sin embargo, debido a su enfoque científico de capitalizar las ineficiencias físicas del sistema, los fondos cuantitativos se concentran predominantemente en estrategias a corto plazo. El orador enfatiza la importancia de tener una combinación de antecedentes científicos y comerciales para prosperar en el campo del comercio cuantitativo.
Una distinción notable entre los comerciantes minoristas e institucionales radica en su enfoque de la gestión de riesgos. Los comerciantes minoristas están motivados principalmente por motivos de ganancias, mientras que los comerciantes institucionales priorizan la gestión de riesgos, incluso si eso significa sacrificar los rendimientos potenciales. Los comerciantes institucionales adoptan una mentalidad de riesgo primero y enfatizan la diligencia debida, las pruebas de estrés y la implementación de pólizas de seguro contra caídas para mitigar los riesgos de manera efectiva.
La gestión de riesgos implica varias técnicas, como el ajuste del apalancamiento en función del patrimonio de la cuenta utilizando marcos matemáticos como el criterio de Kelly. Los comerciantes más conservadores optan por reducir las reducciones para lograr una tasa de crecimiento controlada. Los principales indicadores de riesgo como el VIX se utilizan para medir la volatilidad futura. En estas operaciones, el sistema de gestión de riesgos tiene más importancia que el sistema de entrada. Mientras que los stop loss se emplean en el seguimiento de tendencias, las estrategias de reversión a la media exigen reevaluar y explorar diferentes escenarios y datos históricos para la planificación de reducción. Antes de implementar los algoritmos comerciales, se llevan a cabo fases de backtesting para administrar los factores de riesgo de manera efectiva.
El video profundiza en la importancia de filtrar las estrategias comerciales y utilizar el backtesting como una herramienta para filtrarlas en lugar de ponerlas directamente en producción. Destaca la importancia de esperar peores caídas durante el avance y utilizar mecanismos de filtración para determinar la idoneidad de una estrategia para su implementación. Luego, la conversación profundiza en la creencia de Nassim Nicholas Taleb en las colas gruesas y explora cómo se puede emplear la tecnología de aprendizaje automático para aplicar estrategias de comercio de rango y comercio de tendencia, lo que permite la detección del régimen de mercado.
La detección efectiva del régimen de mercado es un aspecto crítico de las finanzas cuantitativas. Sin embargo, plantea desafíos debido a su dependencia de eventos aleatorios, como caídas de las tasas de interés y tendencias del mercado. Las empresas más sofisticadas rastrean los datos fundamentales y los incorporan en sus modelos para mejorar la detección del régimen de mercado. Al operar, la selección de acciones o ETF depende del mercado específico, y elegir los activos correctos puede ser una tarea compleja. El orador enfatiza que una combinación de modelos matemáticos y fundamentos del mercado es crucial para una defensa efectiva contra los eventos del Cisne Negro, ya que los períodos previos de alta volatilidad pueden proporcionar información para predecir la volatilidad futura y los cambios del mercado.
El video explora aún más los beneficios y riesgos potenciales asociados con el comercio cuantitativo. Los comerciantes cuantitativos tienen el potencial de obtener un rendimiento anual impresionante del 35 % sobre las tarifas, especialmente cuando se combinan con una formación sólida, como un doctorado, y un proceso de gestión eficiente. Sin embargo, los cuantos de alta frecuencia pueden enfrentar desafíos cuando se producen cambios en el hardware subyacente o en el intercambio, lo que puede provocar fallas en el sistema.
A pesar de los riesgos involucrados, se considera favorable lograr un rendimiento constante del 15% al 20% mediante la explotación de oportunidades rentables a largo plazo. Los comerciantes cuantitativos no confían en un único algoritmo mágico ni entran en pánico cuando se enfrentan a problemas. En cambio, profundizan en las propiedades estadísticas que pueden ser complejas de analizar, pero se preparan con anticipación para enfrentar los desafíos potenciales.
El video enfatiza la importancia de evitar la dependencia excesiva de un solo modelo en el comercio cuantitativo. Los modelos no pueden predecir con precisión todos los eventos futuros, como lo demuestran las caídas históricas de Wall Street y las fallas de inversión que resultan de las deficiencias del modelo. Es esencial que los comerciantes cuantitativos investiguen y prueben continuamente nuevos modelos, evaluando su rendimiento. Los períodos de reducción son una parte inherente del viaje comercial y los comerciantes deben estar preparados para navegarlos.
En conclusión, si bien algunos operadores pueden concentrarse demasiado en la microgestión de sus modelos, es vital comprender si un modelo tiene en cuenta todas las dinámicas del mercado, incluidas las incógnitas desconocidas. Los comerciantes cuantitativos deben adoptar un enfoque multidimensional, combinando modelos matemáticos con los fundamentos del mercado para obtener una comprensión integral del comportamiento del mercado. Al refinar y diversificar constantemente sus estrategias, los comerciantes cuantitativos pueden aumentar sus posibilidades de éxito en un panorama financiero en constante evolución.
PyCon Canada 2015 - Karen Rubin: Creación de una estrategia comercial cuantitativa (presentación principal)
PyCon Canada 2015 - Karen Rubin: Creación de una estrategia comercial cuantitativa (presentación principal)
Continuando con la discusión, Karen Rubin profundiza en los hallazgos y puntos de vista de su estudio sobre mujeres directoras ejecutivas en las compañías Fortune 1000. El análisis revela que las directoras ejecutivas femeninas obtienen un rendimiento del 68 %, mientras que los directores ejecutivos masculinos generan un rendimiento del 47 %. Sin embargo, Karen enfatiza que sus datos aún no demuestran que las directoras ejecutivas superen a sus homólogos masculinos. Ella considera este estudio como un concepto intrigante dentro de las empresas de alta capitalización de mercado y de ingresos altos.
Motivada por sus hallazgos, Karen enfatiza la importancia de la diversidad en la industria de las finanzas y la tecnología. Ella alienta a más mujeres a unirse al campo y participar en la elaboración de estrategias de inversión. Ella cree que incorporar ideas como invertir en mujeres CEO puede contribuir a la creación de un fondo diverso e inclusivo.
Ampliando la discusión, Karen toca otros factores que pueden influir en el éxito de los directores ejecutivos, incluido su género, el método de contratación (interno o externo) e incluso su mes de nacimiento. Ella reconoce la teoría de que las empresas pueden designar directoras generales cuando la organización tiene un desempeño deficiente y, posteriormente, reemplazarlas con directores ejecutivos masculinos para aprovechar los beneficios de la reestructuración. Sin embargo, Karen no ha podido arbitrar esta teoría hasta el momento. Además, señala que los precios de las acciones a menudo experimentan una caída después del anuncio de un director ejecutivo, aunque sigue sin estar segura de si esta tendencia difiere entre los directores ejecutivos de mujeres y hombres.
En conclusión, Karen destaca que construir una estrategia comercial cuantitativa para los directores ejecutivos implica considerar varios factores y realizar un análisis exhaustivo. Si bien su estudio proporciona información valiosa sobre el desempeño de las directoras ejecutivas, enfatiza la necesidad de más investigación y exploración para obtener una comprensión más completa de la dinámica de género en el liderazgo ejecutivo y su impacto en los resultados de inversión.
Seminario web sobre aprendizaje automático para operaciones cuantitativas con el Dr. Ernie Chan
Seminario web sobre aprendizaje automático para operaciones cuantitativas con el Dr. Ernie Chan
El Dr. Ernie Chan, una figura prominente en la industria financiera, comparte sus conocimientos y experiencias con el aprendizaje automático en el comercio. Comienza reflexionando sobre sus primeros intentos de aplicar el aprendizaje automático al comercio y reconoce que inicialmente no arrojó resultados exitosos. El Dr. Chan enfatiza la importancia de comprender las limitaciones del aprendizaje automático en el comercio, particularmente en el comercio de futuros e índices, donde los datos pueden ser insuficientes.
Sin embargo, destaca el potencial del aprendizaje automático para generar estrategias comerciales rentables cuando se aplica a acciones tecnológicas individuales, datos de libros de pedidos, datos fundamentales o fuentes de datos no tradicionales como noticias. Para abordar las limitaciones de la disponibilidad de datos y el sesgo de espionaje de datos, el Dr. Chan sugiere utilizar técnicas de remuestreo como sobremuestreo o embolsado. Estas técnicas pueden ayudar a expandir el conjunto de datos, pero es fundamental preservar la autocorrelación serial en los datos de series temporales cuando se usan para estrategias comerciales.
La selección de características juega un papel vital en el éxito de las aplicaciones de aprendizaje automático en el comercio. El Dr. Chan destaca la importancia de reducir el sesgo de muestreo de datos mediante la selección de características o predictores relevantes. Explica que si bien muchas personas creen que tener más funciones es mejor, en el comercio, un conjunto de datos rico en funciones puede conducir a una autocorrelación falsa y resultados deficientes. Habla de tres algoritmos de selección de características: selección directa de características, árboles de clasificación y regresión (CART) y bosque aleatorio, que ayudan a identificar las variables más predictivas.
El Dr. Chan profundiza en el algoritmo de clasificación de las máquinas de vectores de soporte (SVM), cuyo objetivo es predecir los rendimientos futuros de un día y su naturaleza positiva o negativa. SVM encuentra un hiperplano para separar puntos de datos y puede requerir transformaciones no lineales para una separación efectiva. También aborda otros enfoques de aprendizaje automático, como las redes neuronales, pero destaca sus limitaciones para capturar características relevantes y su inadecuación para el comercio debido a la naturaleza no estacionaria de los mercados financieros.
El seminario web también enfatiza la importancia de una función objetivo personalizada en una estrategia comercial. El Dr. Chan recomienda técnicas como la regresión por pasos, los árboles de decisión y la regresión por conjuntos para desarrollar modelos predictivos. Subraya la importancia de reducir la raíz cuadrada del número de transacciones para lograr una alta precisión en la protección de los rendimientos. El índice de Sharpe se presenta como un punto de referencia efectivo para evaluar la efectividad de la estrategia, con un índice de dos o más considerado favorable.
El Dr. Chan brinda información valiosa sobre la aplicación del aprendizaje automático en la industria financiera, destacando su potencial en ciertas áreas y advirtiendo sobre sus limitaciones. Él enfatiza la importancia de la selección de funciones, el remuestreo de datos y la selección de una función de destino adecuada para aplicaciones exitosas de aprendizaje automático en el comercio cuantitativo.