Comercio Cuantitativo - página 7

 

Martin Scholl (Universidad de Oxford): "Estudio de la ecología del mercado utilizando modelos basados en agentes"



Martin Scholl (Universidad de Oxford): "Estudio de la ecología del mercado utilizando modelos basados en agentes"

Martin Scholl, investigador de la Universidad de Oxford, ha profundizado en el estudio de la ecología del mercado utilizando modelos basados en agentes. A diferencia de los enfoques tradicionales que se basan en supuestos como la hipótesis del mercado eficiente, Scholl discrepa de la teoría del equilibrio de las expectativas racionales comúnmente empleada en las finanzas neoclásicas. Él cree que esta teoría exige que todos los participantes tengan una comprensión perfecta del mundo real, lo cual no es realista dadas las limitaciones cognitivas tanto de los inversores minoristas como de los administradores de fondos. En cambio, aboga por aplicar herramientas de la biología para analizar datos financieros del mundo real, ofreciendo una nueva perspectiva para comprender los mercados financieros.

Para explorar la ecología del mercado, Scholl compara las estrategias de inversión con las especies en biología, con inversores individuales que representan individuos de una especie determinada. La riqueza agregada invertida usando una estrategia particular es comparable a la abundancia o al tamaño total de la población de esa especie. En un modelo de juguete de un juego de inversión, Scholl presenta un escenario simplificado en el que los agentes pueden optar por dejar su riqueza en una cuenta del mercado monetario o invertir en acciones que pagan dividendos. Este modelo permite el examen de varias estrategias de inversión y objeciones al supuesto neoclásico de racionalidad perfecta.

Scholl identifica diferentes estrategias de inversión empleadas en modelos basados en agentes para estudiar la ecología del mercado. La primera es una estrategia perfectamente racional, donde el valor liquidativo se divide entre las acciones y el efectivo. Un inversor de valor estima la tasa de crecimiento del dividendo para hacer pronósticos futuros y comprender el precio futuro de las acciones. La segunda estrategia involucra seguidores de tendencias que analizan precios recientes y extrapolan tendencias. La tercera estrategia abarca a los comerciantes de ruido que ingresan al mercado para satisfacer las necesidades de liquidez pero que no son sensibles al precio en una escala de tiempo breve. Sin embargo, su proceso de ruido de inversión media está conectado con el valor fundamental en una escala de tiempo larga.

Para simular los mecanismos del mercado y estudiar la ecología del mercado, Scholl y su equipo utilizan modelos basados en agentes con la ayuda de paquetes de software. Aseguran la comparabilidad entre diferentes corridas del modelo fijando dotaciones y dividiendo las dotaciones iniciales entre individuos de diferentes especies, manteniendo un registro de la participación relativa. Las simulaciones se ejecutan durante un período de 200 años, lo que permite observar el rendimiento anual medio de cada especie. Curiosamente, encuentran que cada estrategia tiene al menos una región en la que es más rentable, independientemente de su abundancia.

En sus experimentos, Scholl examina el comportamiento de los seguidores de tendencias y el impacto de reinvertir las ganancias. Él observa que el mercado pasa la mayor parte de su tiempo en una región inestable y caótica con grandes valores atípicos, lo que resulta en un ruido moteado. Cuando los inversores reinvierten sus beneficios, las trayectorias fluctúan en torno a un punto central identificado, pero no convergen por completo hacia él. El aumento de la concentración de seguidores de tendencias conduce a una mayor volatilidad en los rendimientos. Scholl atribuye el rápido alejamiento de los seguidores de tendencias a la racionalidad de los inversores y la autocorrelación positiva en el proceso de dividendos.

Scholl explica que se pueden emplear modelos basados en agentes para construir una matriz de comunidad financiera, similar a las ecuaciones de Volterra de depredador y presa que se usan en biología. El retorno de una estrategia particular se equipara al tamaño de la población, y la sensibilidad del retorno a los cambios en el tamaño de la población representa la matriz de la comunidad. En el mercado financiero, la competencia entre diferentes estrategias surge cuando los precios se desvían de los puntos de equilibrio. Scholl enfatiza que los mercados financieros muestran una dependencia de la densidad, lo que hace que las interacciones entre especies sean más complejas que en los sistemas biológicos. Esta dependencia de la densidad conduce a escenarios como aumentos de precios similares a burbujas, pero reconoce que tales situaciones no son realistas.

En el contexto de la ecología del mercado, Scholl analiza las implicaciones prácticas de sus hallazgos. Presenta un modelo lineal que utiliza la abundancia de especies para describir las relaciones entre los diferentes tipos de depredadores, lo que impacta en los resultados del mercado. Este enfoque destaca la naturaleza multidimensional de las inversiones y demuestra la importancia de dimensionar adecuadamente las estrategias para evitar pérdidas o convertirse en presas en mercados financieros altamente dependientes de la densidad. Desafía la visión tradicional de que los precios de las acciones reflejan toda la información fundamental disponible y presenta los mercados financieros como sistemas complejos influenciados por diversas condiciones.

Scholl profundiza en su uso de un modelo lineal simple dentro de los modelos basados en agentes para estudiar la ecología del mercado. Al analizar las participaciones y la abundancia relativa de las actividades del mercado, descubrió que este enfoque superaba a los modelos derivados de departamentos que asumen la racionalidad y traducen los fundamentos automáticamente. Sin embargo, reconoce las limitaciones de su modelo y enfatiza la necesidad de más investigación para mejorar su realismo. Un aspecto que aborda es la sensibilidad del modelo a diferentes recetas y definiciones, particularmente en relación con el seguimiento de tendencias. Si bien los dividendos juegan un papel importante en su modelo, la incorporación de elementos más realistas para los mercados financieros del mundo real requeriría pasos adicionales.

Con respecto a la adaptabilidad de las creencias de los agentes en su modelo, Scholl señala que las operaciones de mercado a menudo implican que los administradores de fondos sigan las estrategias descritas en los prospectos durante períodos prolongados. Esto indica una tendencia hacia procesos mecánicos de asignación de activos. Como resultado, Scholl se inclina por modelar un comportamiento menos adaptativo y menos inteligente. Sin embargo, destaca que otros investigadores de su grupo en la Universidad de Oxford están explorando activamente la aplicación de algoritmos evolutivos para cambiar parámetros e incluso innovar nuevas estrategias.

La investigación de Martin Scholl se centra en el estudio de la ecología del mercado utilizando modelos basados en agentes. Desafía las teorías y suposiciones financieras tradicionales al aplicar conceptos de la biología para comprender mejor los mercados financieros. Al comparar estrategias de inversión con especies en biología, analizar diferentes estrategias y simular mecanismos de mercado, Scholl descubre la complejidad de los mercados financieros y la interacción entre varias estrategias. Sus hallazgos sugieren que los mercados financieros dependen en gran medida de la densidad, y el tamaño adecuado de las estrategias de inversión es crucial para evitar pérdidas y convertirse en presas de este ecosistema dinámico. El trabajo de Scholl proporciona información valiosa sobre la naturaleza de los mercados como sistemas complejos, en contraste con la visión tradicional de que los precios de las acciones reflejan únicamente información fundamental.

  • 00:00:00 Martin Scholl de la Universidad de Oxford analiza su estudio sobre la ecología del mercado utilizando modelos basados en agentes. Explica que en lugar de centrarse en los supuestos comunes como la hipótesis del mercado eficiente, discrepa de la teoría del equilibrio de las expectativas racionales utilizada en las finanzas neoclásicas, ya que exige que la comprensión de todos los participantes coincida con el mundo real. También revela que hay más de 300 modelos de factores en la literatura financiera, lo que dificulta determinar cuál es el mejor para usar, y existen límites físicos en la capacidad cognitiva tanto de los inversores minoristas como de los administradores de fondos. Además, analiza la importancia de aplicar herramientas de la biología a datos del mundo real para comprender mejor los mercados financieros.

  • 00:05:00 Martin explica cómo se puede estudiar la ecología del mercado utilizando modelos basados en agentes. Explica que las estrategias de inversión pueden compararse con especies en biología, con inversores individuales correspondientes a individuos de una especie determinada. La riqueza agregada invertida usando una estrategia particular es la abundancia o el tamaño total de la población de esa especie. Scholl presenta un modelo de juguete de un juego de inversión, donde los agentes tienen la opción de dejar su riqueza en una cuenta del mercado monetario o invertir en acciones que pagan dividendos. El modelo funciona con una acción, que es una suposición simplificadora que permite precios de compensación únicos la mayor parte del tiempo. Scholl también aborda el supuesto neoclásico de un inversionista perfectamente racional y destaca las objeciones a este enfoque.

  • 00:10:00 Martin Scholl explica el concepto de ecología de mercado usando metáforas de la biología. Divide a los agentes en el mercado según sus razones para participar e introduce la función de exceso de demanda como forma de definir una estrategia. Explica cómo se usa una función de señal en el proceso de inversión y cómo los diferentes fondos de inversión tienden a especializarse en diferentes cosas en función de la adquisición de información y el análisis. La división de estrategias es crucial en los mercados en evolución, donde es beneficioso especializarse en un nicho particular para optimizar para algo.

  • 00:15:00 Martin Scholl analiza las diferentes estrategias utilizadas en los modelos basados en agentes para estudiar la ecología del mercado. La primera estrategia es una estrategia perfectamente racional en la que el valor liquidativo se divide entre las acciones y el efectivo. Un inversor de valor estima la tasa de crecimiento del dividendo para hacer un pronóstico, lo que ayuda a comprender el precio de las acciones en el futuro. La segunda estrategia se basa en seguidores de tendencias que miran los precios recientes y extrapolan esas tendencias. Finalmente, el modelo incluye comerciantes de ruido que ingresan al mercado para satisfacer necesidades de liquidez pero no son sensibles al precio, por lo que su señal parece aleatoria en una escala de tiempo corta. Sin embargo, su proceso de ruido de inversión de la media está conectado con el valor fundamental en una escala de tiempo larga y volverá lentamente a la media, según lo estimado por Buscher y sus colegas.

  • 00:20:00 Martin explica cómo simulan los mecanismos del mercado utilizando modelos basados en agentes, lo que les permite estudiar la ecología del mercado. Debido a la multitud de soluciones posibles, es difícil tratar analíticamente la simulación. Por lo tanto, utilizan un paquete de software para simular los diferentes mecanismos del mercado. Fijan dotaciones para garantizar que los resultados sean comparables entre diferentes ejecuciones del modelo. También dividen las dotaciones iniciales entre los individuos de diferentes especies y realizan un seguimiento de la participación relativa. Ejecutan la simulación durante 200 años y observan el rendimiento anual medio de cada una de las especies. Observan que, para las tres estrategias, hay al menos una región donde son más rentables, incluso si esa región no es donde la especie es más abundante.

  • 00:25:00 Martin Scholl de la Universidad de Oxford analiza un experimento con seguidores de tendencias, donde los precios se desvían de los valores fundamentales, lo que genera ganancias y pérdidas masivas debido a la realización aleatoria del proceso de dividendos y al ruido introducido. El sistema pasa la mayor parte de su diseño en una región inestable y caótica, con grandes valores atípicos que crean ruido moteado. En el segundo experimento, a los inversionistas se les permitió reinvertir las ganancias y las trayectorias se trazaron en un símplex, con la riqueza redistribuida, pero convergieron débilmente hacia el punto central identificado, fluctuando en cambio de un lado a otro. El sistema tiende a encontrarse en una región alrededor del punto fijo atractivo identificado, y el precio de liquidación del mercado se anuncia todos los días de negociación, lo que afecta la valoración de los comerciantes y los precios.

  • 00:30:00 Martin explica las diferentes líneas de flujo obtenidas a través de los experimentos de Monte Carlo al analizar un punto fijo en un sistema con seguidores de tendencias, inversores de valor y comerciantes de ruido. El grosor de las líneas indica la cantidad de riqueza que se redistribuye entre las estrategias anualmente, lo que muestra cómo una gran cantidad de seguidores de tendencias puede causar pérdidas masivas en el sistema. Scholl continúa destacando que el crowding funciona de manera diferente para los seguidores de tendencias que para los inversores de valor, y que aumentar la concentración de seguidores de tendencias conduce a una mayor volatilidad en los rendimientos. La causa fundamental por la que el sistema se aleja rápidamente de los seguidores de tendencias es la racionalidad de los inversores y la autocorrelación positiva en el proceso de dividendos.

  • 00:35:00 Martin Scholl explica cómo se pueden usar los modelos basados en agentes para estudiar la ecología del mercado y cómo se puede construir la matriz de la comunidad financiera. Scholl establece una analogía con las ecuaciones de Volterra de depredador y presa utilizadas en la dinámica de poblaciones en biología, que se utilizan para describir la dinámica de diferentes poblaciones, es decir, cómo interactúan las diferentes especies en función del tamaño de la población. Señala que este concepto también se puede aplicar a los mercados financieros, donde el retorno de una estrategia en particular se consideraría como el tamaño de la población y la sensibilidad del retorno de una especie a los cambios en el tamaño de la población representaría la matriz de la comunidad.

  • 00:40:00 Martin de la Universidad de Oxford explica cómo las especies en la ecología del mercado financiero compiten entre sí en el punto de equilibrio, ya que todas las entradas diagonales son negativas y todas las entradas positivas son positivas. El sistema es estable ya que el punto fijo es estable con una matriz comunitaria que es robusta frente a ciertos cambios en la población. Sin embargo, cuando el mercado se aleja bastante de los puntos de equilibrio, empieza a haber competencia entre los seguidores de tendencia y los inversores de valor cuando hay bastantes inversores de valor. La dependencia de la densidad hace que las interacciones entre especies sean más complejas que la biológica y es mucho más común en las finanzas que en la naturaleza. En la región inestable donde los precios divergen, los seguidores de tendencias se benefician de otros seguidores de tendencias y el precio sigue subiendo en forma de burbuja, pero este escenario es bastante poco realista.

  • 00:45:00 Martin Scholl analiza los beneficios de los seguidores de tendencias en una escala de tiempo corta, ya que pueden beneficiarse de los seguidores de tendencias que son un poco más lentos que ellos porque pueden vender en la parte superior o al menos no antes de que el precio se desplome por completo. Sin embargo, en este modelo, los seguidores de tendencias son simples y operan en la misma escala de tiempo, independientemente de la estrategia de un individuo. Scholl también analiza cómo un fondo pasivo o un rastreador de índices podría representarse como un fondo que tiene una asignación de riqueza consensuada a activos específicos. Una mayor proporción de indexadores haría que el sistema fuera más estable y amortiguaría todo el sistema. Por último, Scholl señala que calculó toda esta información para comprender las relaciones binarias entre las especies, lo que dio como resultado algo llamado red alimentaria.

  • 00:50:00 Martin analiza el estudio de la ecología del mercado utilizando modelos basados en agentes. Scholl explica cómo los nodos son especies diferentes y los bordes son las interacciones entre ellos. Usando el nivel trófico, pueden determinar qué especie tiene el nivel de ganancias más bajo, lo que significa que no se alimenta de otras especies, y cuál tiene el nivel de tráfico más alto, lo que significa que se alimenta de todas las demás especies, lo que lo convierte en el depredador principal. Scholl explica cómo los niveles de tráfico cambian drásticamente según la densidad y cómo cada grupo sigue un descuento de dividendos, con el inversor de valor aprovechándose de los comerciantes de ruido y el seguidor de tendencias explotando las correlaciones.

  • 00:55:00 Martin Scholl explica las implicaciones prácticas de estudiar la ecología del mercado usando modelos basados en agentes. Un experimento basado en la calidad del mercado y la manipulación de precios muestra que un modelo lineal simple que utiliza la abundancia de especies funciona bastante bien para describir la relación entre los diferentes tipos de depredadores, lo que afecta los resultados del mercado. El modelo desarrollado permite observar cómo las inversiones son multidimensionales, destacando que las estrategias tienen diferentes impactos en la calidad del mercado. Según el estudio de Scholl, los mercados financieros dependen en gran medida de la densidad, lo que significa que los inversores deben dimensionar su estrategia adecuadamente para evitar incurrir en pérdidas o convertirse en presas. Este enfoque permite la descripción de los mercados como un sistema complejo influenciado por varias condiciones, contrario a las finanzas tradicionales, donde se cree que los precios de las acciones reflejan toda la información fundamental disponible.

  • 01:00:00 En esta sección del video, Martin Scholl analiza su uso de un modelo lineal simple para estudiar la ecología del mercado utilizando modelos basados en agentes. Al observar las participaciones y la abundancia relativa de las actividades del mercado, descubrió que este enfoque ofrecía un mejor pronosticador que el uso de modelos derivados de departamentos que asumen la racionalidad y traducen automáticamente los fundamentos. También analiza las limitaciones de su modelo y la necesidad de más investigación para hacerlo más realista. Una pregunta que aborda es sobre la sensibilidad del modelo a diferentes recetas y definiciones, particularmente con respecto al seguimiento de tendencias, que explica que se debe principalmente a los dividendos en su modelo, pero que requeriría más pasos para hacerlo más realista para el mundo financiero real. mercados.

  • 01:05:00 Martin Scholl analiza su enfoque para estudiar la ecología del mercado utilizando modelos basados en agentes. Scholl no asume que los agentes puedan adaptar sus creencias en su modelo. Las operaciones de mercado generalmente implican que los administradores de fondos sigan estrategias descritas en un prospecto durante décadas, lo que indica que el proceso de asignación de activos tiende a ser mecánico. Scholl tiende a inclinarse hacia un comportamiento menos adaptativo y menos inteligente en su modelado. Sin embargo, otros en el grupo de investigación de la Universidad de Oxford trabajan en la aplicación de algoritmos evolutivos para cambiar los parámetros de las estrategias e incluso innovar otras nuevas.
Martin Scholl (University of Oxford): "Studying Market Ecology Using Agent-Based Models"
Martin Scholl (University of Oxford): "Studying Market Ecology Using Agent-Based Models"
  • 2022.03.23
  • www.youtube.com
Abstract: This talk presents a mathematical analogy between financial trading strategies and biological species and shows how to apply standard concepts fro...
 

Kevin Webster: "Cómo el impacto del precio distorsiona la contabilidad de pérdidas y ganancias"



Kevin Webster: "Cómo el impacto del precio distorsiona la contabilidad de pérdidas y ganancias"

En un video de YouTube, Kevin Webster profundiza en el tema de cómo el impacto de los precios puede distorsionar los estados contables de pérdidas y ganancias (P&L). Enfatiza la importancia de modelar con precisión el impacto de los precios para administrar el riesgo de manera efectiva y destaca la importancia de administrar el riesgo de liquidez para evitar quedarse con una posición ilíquida. Webster reconoce que existen varios modelos de impacto de precio disponibles, pero generalmente están de acuerdo en la mayoría de los datos.

La charla comienza abordando la intersección entre el impacto de los precios y el riesgo de liquidez, señalando en particular que la liquidez de los principales mercados a menudo se daba por sentada antes de la crisis financiera. Webster comparte poderosas citas que ilustran cómo el impacto de los precios crea una ilusión de ganancias, lo que lleva a dislocaciones de precios que se alejan de los valores financieros. El objetivo de la charla es formalizar matemáticamente este concepto, proporcionando un marco cuantitativo basado en estimar el impacto de mercado de la liquidación para eliminar la ilusión de ganancia.

Webster explica el impacto del precio como un modelo causal para el comercio, donde el comercio más agresivo empuja los precios aún más y viceversa. Los modelos de impacto de precios se utilizan ampliamente en el análisis de costos de transacción y la ejecución óptima, sirviendo como herramientas previas a la negociación para estimar los costos de transacción esperados y optimizar las estrategias de ejecución. Muestra un informe de análisis de costos de transacción simulado que permite a los comerciantes evaluar el rendimiento de sus algoritmos trimestralmente, con un enfoque en minimizar el deslizamiento de órdenes y considerar tanto los movimientos mecánicos como el deslizamiento alfa.

El ponente analiza las directrices publicadas por la Autoridad Europea de Valores y Mercados (ESMA) en relación con las pruebas de estrés de liquidez, que implican simular la liquidación de activos durante los períodos de estrés del mercado. La simulación de reacciones del mercado, como dislocaciones de precios, y el empleo de estrategias de cobertura son cruciales para reducir la exposición al riesgo. Webster hace referencia a diversas publicaciones sobre pruebas de estrés de liquidez e impacto de los precios en las pérdidas y ganancias contables, incluidos los trabajos de Cascioli, Boucheron, Farmer y comités reguladores como ESMA y Baffled Committee. Enfatiza la necesidad de pruebas de estrés de liquidez para mitigar situaciones que podrían afectar la contabilidad de pérdidas y ganancias y resultar en altos costos de liquidación.

Se introduce el concepto de huella comercial, que mide el efecto distorsionador del impacto del precio en las pérdidas y ganancias contables y vincula diferentes definiciones de pérdidas y ganancias. Webster presenta un modelo simple de venta forzosa para ilustrar las importantes conclusiones sobre la contabilidad de pérdidas y ganancias extraídas del artículo de Casadio-Bouchard-Farmer. Explica cómo el número de comerciantes y gerentes de plataforma que observan a diario sobreestima su P&L final, lo que lleva a una deflación cuando se completa la operación. Sin embargo, esta propiedad de inflación se puede medir y mostrar en tiempo real, proporcionando información procesable para los comerciantes. Webster señala que las pérdidas por inflación de posición suelen ser temporales y dependen de la tolerancia al riesgo.

Se discuten los temas relacionados con la valoración de una posición accionaria y su impacto en el P&L de una empresa. Webster destaca la ambigüedad a la hora de determinar qué precios utilizar para marcar la posición de las acciones y la diferencia entre las pérdidas y ganancias contables y las pérdidas y ganancias fundamentales utilizadas por los algoritmos de negociación. La huella comercial se define como la diferencia entre las pérdidas y ganancias contables y las pérdidas y ganancias fundamentales, y la ambigüedad se resuelve cuando se cierra la posición. El disertante explora la inflación de posiciones, haciendo ciertas suposiciones bajo las cuales se cumple esta propiedad. También se aborda el modelo de impacto y sus dos casos, el topo OW original y el topo W estudiado por Fruehwirth y Bond.

Webster explica que para que el modelo tenga sentido, se debe cumplir una condición de no arbitraje entre lambda y beta, junto con una condición de ecuación de autofinanciamiento. Profundiza en el cálculo de las pérdidas y ganancias esperadas en el momento del cierre y cómo la huella comercial introduce un sesgo en las pérdidas y ganancias contables. La propiedad de inflación de la posición hace que la posición se infle durante la fase de entrada de la posición, permanezca durante la fase de mantenimiento y finalmente se evapore. Todos estos aspectos se pueden observar en tiempo real en una pantalla de operaciones, proporcionando a los operadores información valiosa.

Webster explica además las distorsiones en la contabilidad de pérdidas y ganancias causadas por el impacto de los precios. Analiza cómo los comerciantes pueden realizar transacciones rentables incluso sin alfa, pero advierte que estas ganancias son de corta duración debido a los costos de transacción. Monitorear las dislocaciones de precios desde el principio es crucial para evitar pérdidas. Además, Webster señala que los administradores de carteras prefieren ver sus carteras como un todo e introduce el concepto de una cartera estacionaria, que controla el tamaño y la rotación de una cartera en el mundo de las finanzas matemáticas.

Luego se explora el concepto de una cartera estacionaria en relación con la estimación de los costos de transacción corrientes. Al comprender la escala de tiempo del propagador, los comerciantes pueden estimar hasta qué punto sus posiciones están infladas y la ilusión de ganancias que pueden perder al liquidar sus posiciones. Webster demuestra el marco utilizando datos empíricos, mostrando su aplicabilidad a escenarios del mundo real. Aplica el marco a un modelo de venta forzosa y explica las diferencias entre las pérdidas y ganancias contables y las pérdidas y ganancias fundamentales, destacando cómo informan diferentes funciones objetivas basadas en la aversión al riesgo de un comerciante.

El orador profundiza en el impacto de las ventas forzadas o la actividad comercial de otros participantes del mercado en la posición y las pérdidas y ganancias de un operador. La cobertura agresiva puede generar efectos de hacinamiento e inflación de posición, lo que resulta en pérdidas permanentes. Modelar con precisión el impacto de los precios es crucial para una gestión de riesgos eficaz, y se enfatiza la gestión del riesgo de liquidez para evitar terminar con posiciones ilíquidas.

Webster reconoce que, si bien hay muchos modelos diferentes de impacto de precios disponibles, generalmente coinciden en la mayoría de los datos. Sin embargo, pueden surgir diferencias en la cantidad y duración de la persistencia del impacto. Las dislocaciones temporales pueden durar desde un par de días hasta un mes. Desde una perspectiva de gestión de riesgos, existe un curso de acción claro, mientras que desde una perspectiva de comerciante y rendimiento, la comunicación efectiva se vuelve clave. Comprender si las pérdidas y ganancias son mecánicas o no y eliminar la parte mecánica permite a los operadores centrarse en el alfa real o en la ventaja de sus operaciones.

El orador explica el principio de "no manipulación de precios", destacando que incluso si los comerciantes obtienen ganancias, no pueden mantenerlas, ya que eventualmente se evaporarán. La inflación de la posición conduce a la deflación del valor comercial a lo largo del tiempo o a la liquidación inmediata, lo que da como resultado pérdidas y ganancias nulas o incluso negativas. Por lo tanto, los comerciantes deben confiar en otras variables para generar ganancias sostenibles. Webster explora aún más la correlación entre el estado de impacto inicial, el impacto causado por el resto del mercado y el impacto de las coberturas del comerciante y el resto del mercado.

En conclusión, Kevin Webster brinda una comprensión integral de cómo el impacto de los precios puede distorsionar la contabilidad de pérdidas y ganancias. Arroja luz sobre los costos adicionales durante los regímenes de liquidez de alta volatilidad y su correlación con el mercado en general, enfatizando su impacto en el sesgo. Desde una perspectiva regulatoria, es probable que los bonos corporativos y las compañías de seguros se vean más afectados por este sesgo. Si bien Webster admite que carece de respuestas detalladas para los mercados fuera de las acciones, proporciona una base matemática sólida para comprender el impacto de los precios y su posible distorsión de las pérdidas y ganancias.

  • 00:00:00 es la base de esta charla sobre cómo el impacto del precio distorsiona la contabilidad de pérdidas y ganancias. La charla está motivada por la intersección entre el impacto del precio y el riesgo de liquidez, y el hecho de que la liquidez de los principales mercados a menudo se daba por sentada antes de la crisis financiera. El orador proporciona dos citas poderosas que ilustran la ilusión de ganancias causada por el impacto de los precios y cómo conduce a dislocaciones de precios que se alejan de los valores financieros. La charla tiene como objetivo formalizar matemáticamente esta idea y proporcionar un marco cuantitativo basado en el impacto de mercado estimado de la liquidación para eliminar esta ilusión de ganancias.

  • 00:05:00 El orador analiza el impacto del precio como un modelo causal para el comercio y cómo hace que el precio aumente aún más si se negocia de manera más agresiva y viceversa. La industria utiliza modelos de impacto de precios para el análisis de costos de transacción y la ejecución óptima, y los profesionales los utilizan como una herramienta previa a la negociación para estimar el costo de transacción esperado de una orden y optimizar la estrategia de ejecución. El orador brinda un informe TCA simulado para emular esta perspectiva de liquidez para que los comerciantes evalúen cómo les está yendo a sus algoritmos trimestralmente. Los comerciantes intentan minimizar el deslizamiento de la orden, y el impacto del precio y el deslizamiento alfa entran en juego según el porcentaje de deslizamiento de la orden causado por movimientos mecánicos o alfa.

  • 00:10:00 Kevin Webster analiza las directrices publicadas por la Autoridad Europea de Valores y Mercados sobre cómo realizar pruebas de estrés de liquidez, que implican simular la liquidación de activos durante los períodos de estrés del mercado. También explica la importancia de simular las reacciones del mercado, como las dislocaciones de precios, y cómo la cobertura puede reducir la exposición al riesgo. Además, revisa dos líneas de literatura sobre las pruebas de estrés de liquidez y el impacto de los precios en la contabilidad de pérdidas y ganancias, incluidos los trabajos de Cascioli Boucheron Farmer y reguladores como el Comité Desconcertado y la ESMA. Finalmente, enfatiza la necesidad de realizar pruebas de estrés de liquidez para evitar situaciones que puedan impactar la cuenta de pérdidas y ganancias e incurrir en altos costos de liquidación.

  • 00:15:00 El orador analiza las conclusiones de varios documentos sobre pruebas de estrés de liquidez, incluida la necesidad de que los tomadores de decisiones las utilicen y su estructura basada en simulación. Recomiendan un artículo específico de Francelli sobre la simulación de dislocaciones de precios durante la tensión del mercado, junto con un par de artículos de Schweizer y Urzúa que brindan una prueba alternativa para el modelo OB y aumentan en gran medida su aplicabilidad. El orador también presenta el concepto de una huella comercial que une diferentes definiciones de P&L y mide el efecto distorsionador del impacto del precio en la contabilidad de P&L. Finalmente, establecieron un modelo simple de venta forzosa para ilustrar las poderosas conclusiones sobre la contabilidad de pérdidas y ganancias del artículo de Casadio-Bouchard-Farmer.

  • 00:20:00 Kevin Webster analiza cómo el impacto del precio puede distorsionar la contabilidad de pérdidas y ganancias. Explica cómo los comerciantes de números y los gerentes de plataforma observan a diario sobreestimar su P&L final, lo que hace que se desinfle cuando finalizan la operación. Sin embargo, la propiedad de la inflación se puede medir y mostrar en tiempo real, lo que la hace procesable para los comerciantes. Webster señala que la parte de la inflación de la posición de las pérdidas suele ser temporal y depende de la tolerancia al riesgo. Concluye con una introducción a la configuración matemática, las variables y las cantidades que los comerciantes deben tener en cuenta al calcular las pérdidas y ganancias.

  • 00:25:00 En esta sección, Kevin Webster explica los problemas relacionados con la valoración de una posición de acciones y cómo afecta las pérdidas y ganancias (P&L) de una empresa. Habla de la ambigüedad a la hora de determinar qué precios utilizar para marcar la posición de las acciones y la diferencia entre el P&L contable y el P&L fundamental que utiliza el algoritmo de negociación. Define la huella comercial como la diferencia entre las pérdidas y ganancias contables y las pérdidas y ganancias fundamentales y explica cómo se elimina la ambigüedad cuando se cierra la posición. También analiza la inflación de posiciones y proporciona algunos supuestos bajo los cuales se cumple esta propiedad. Finalmente, menciona el modelo de impacto y sus dos casos, el mol OW original y el mol W que estudiaron Fruehwirth y Bond.

  • 00:30:00 Kevin Webster explica que para que el modelo tenga sentido, debe haber una condición de no arbitraje entre lambda y beta, así como una condición de ecuación de autofinanciamiento que debe cumplirse. También analiza cómo calcular las pérdidas y ganancias esperadas en el momento del cierre y cómo la huella comercial introduce un sesgo en las pérdidas y ganancias contables. Finalmente, analiza cómo la propiedad de inflación de la posición hace que la posición se infle durante la fase de entrada de la posición, permanezca durante la fase de mantenimiento y finalmente se evapore. Todo esto se puede observar en tiempo real y en una pantalla de negociación.

  • 00:35:00 En esta sección, Kevin Webster, un experto en finanzas, explica las distorsiones del impacto de los precios que ocurren en la contabilidad de pérdidas y ganancias. Analiza cómo los comerciantes pueden realizar operaciones rentables incluso cuando su operación no tiene alfa, al tiempo que advierte que estas ganancias no durarán mucho debido a los costos de transacción y que los comerciantes deben monitorear estas ubicaciones de precios temprano para evitar pérdidas. Además, explica que los administradores de cartera prefieren pensar en su cartera como un todo, y define una cartera estacionaria para controlar el tamaño y la rotación de una cartera en el mundo de las finanzas matemáticas.

  • 00:40:00 Kevin Webster analiza el concepto de una cartera estacionaria y cómo se puede utilizar para estimar los costos de transacción corrientes. Al conocer la escala de tiempo del propagador, los comerciantes pueden estimar cuánto se infla su posición y la ilusión de ganancias que podrían perder si comienzan a liquidar su posición. Luego, Webster simula el marco en datos empíricos y destaca que estas fórmulas se pueden aplicar a escenarios del mundo real. Finalmente, aplica el marco a un modelo de venta forzosa y explica las diferencias entre las pérdidas y ganancias contables y las pérdidas y ganancias fundamentales y cómo pueden informar diferentes funciones objetivas según la aversión al riesgo de un comerciante.

  • 00:45:00 Kevin analiza cómo las ventas forzadas, o la actividad comercial de otros participantes del mercado, pueden afectar las pérdidas y ganancias y la posición de un comerciante. Demuestra que la cobertura agresiva puede generar efectos de acumulación e inflación de posiciones, lo que puede resultar en pérdidas permanentes. Además, enfatiza la importancia de modelar con precisión el impacto del precio para administrar el riesgo de manera efectiva y destaca la importancia de administrar el riesgo de liquidez antes de terminar con una posición ilíquida. Finalmente, señala que si bien existen muchos modelos de impacto de precio diferentes, generalmente coinciden en la mayoría de los datos.

  • 00:50:00 El orador analiza cómo los diferentes modelos de impacto pueden oponerse no solo a la cantidad o cambio en el impacto del precio, sino también a la duración para que desaparezca el impacto. Proporcionan un ejemplo de una dislocación temporal que podría ser de un par de días a un mes. Sin embargo, si los comerciantes o los gerentes de rendimiento desean eliminar el sesgo de sus posiciones o realizar una gestión de riesgos, cualquier modelo de impacto debería ser suficiente y existe un conjunto procesable para comunicarse de manera efectiva con las partes interesadas. Desde el punto de vista de la gestión de riesgos, existe un conjunto claro de acciones. Por el contrario, desde la perspectiva del comerciante y el rendimiento, es principalmente una cuestión de comunicación, al comprender si p/l es mecánico o no, eliminando la parte mecánica del p/l, uno puede centrarse en el alfa real o la ventaja real en el comercio. .

  • 00:55:00 Kevin Webster explica que el principio de no manipulación de precios significa que incluso si los comerciantes obtienen ganancias, no pueden asegurarlas porque eventualmente se evaporarán. La inflación de la posición de prueba da como resultado la deflación del valor comercial a lo largo del tiempo o la liquidación inmediata, lo que conduce a pérdidas y ganancias nulas o incluso negativas. Los comerciantes deben confiar en otras variables para obtener ganancias, ya que la inflación de la posición no permite que las ganancias se vuelvan permanentes. Webster analiza además la correlación entre el estado de impacto inicial, el impacto inicial causado por el resto del mercado y el impacto de las coberturas del comerciante y el resto del mercado.

  • 01:00:00 Kevin Webster analiza cómo el impacto de los precios distorsiona la contabilidad de pérdidas y ganancias. Explica que los costos adicionales durante los regímenes de liquidez de alta volatilidad y la correlación con el resto del mercado pueden contribuir bastante al sesgo. Desde la perspectiva de la regulación, los bonos corporativos y las compañías de seguros probablemente se verían más afectados por este sesgo. Sin embargo, como admite, no tiene una respuesta muy detallada ya que no está seguro de cómo responder a ciertas preguntas fuera de las acciones. En general, proporciona una comprensión matemática del impacto de los precios y cómo puede distorsionar las pérdidas y ganancias.
Kevin Webster: "How Price Impact Distorts Accounting P&L"
Kevin Webster: "How Price Impact Distorts Accounting P&L"
  • 2022.02.16
  • www.youtube.com
Full Talk Title: "How Price Impact Distorts Accounting P&L - Revisiting Caccioli, Bouchaud and Farmer's Impact-Adjusted Valuation"This presentation revisits ...
 

Laura Leal (Universidad de Princeton) - "Aprendizaje de un Control Funcional para Finanzas de Alta Frecuencia"



Laura Leal (Universidad de Princeton) - "Aprendizaje de un Control Funcional para Finanzas de Alta Frecuencia"

Laura Leal, investigadora de la Universidad de Princeton, realizó una presentación informativa sobre la aplicación de las redes neuronales profundas en las finanzas de alta frecuencia. Hizo hincapié en las limitaciones de las soluciones convencionales y exploró las ventajas de utilizar redes neuronales en este dominio. Leal destacó su capacidad para adaptarse a factores complejos como la autocorrelación y la estacionalidad intradiaria, con los que luchan los modelos tradicionales. Al aprovechar las redes neuronales, los comerciantes pueden lograr una ejecución óptima al minimizar el impacto en el mercado y operar sin problemas.

Para abordar las preocupaciones sobre la naturaleza de caja negra de las redes neuronales, Leal introdujo el concepto de explicabilidad. Discutió la proyección del control de la red neuronal en una variedad de dimensiones más bajas, lo que permite una mejor comprensión de los riesgos asociados y la desviación de los sectores de riesgo familiares. El equipo evaluó el rendimiento del control de la red neuronal comparándolo con la clásica solución PDE (ecuación diferencial parcial) de forma cerrada. Examinaron la función de valor, la riqueza ajustada al mercado y los errores relativos en las proyecciones para evaluar la precisión y eficacia del enfoque de red neuronal.

Leal profundizó en las complejidades del entrenamiento de la red neuronal, enfatizando la importancia de incorporar datos del mundo real y dinámicas precisas. También propuso un controlador de preferencias múltiples que permite a los operadores ingresar sus preferencias de riesgo, lo que permite una adaptación más rápida a las nuevas condiciones del mercado. Al considerar los parámetros de aversión al riesgo e incorporar las preferencias de un operador, la red neuronal puede generar una solución al problema de optimización estocástica en las finanzas de alta frecuencia.

El presentador discutió la estructura de la red neuronal utilizada para el control de riesgos, destacando su carácter recurrente. Si bien la red no es excesivamente profunda, emplea una estructura recurrente en cada paso de tiempo, actualizando los pesos simultáneamente. Las entradas a la red incluyen el tiempo y el inventario, mientras que la salida es el control en sí mismo, que determina la cantidad óptima de acciones para negociar en cada paso de tiempo. Para abordar el desafío de la disponibilidad limitada de datos financieros, se emplea el aprendizaje de transferencia, simulando datos utilizando métodos de Monte Carlo.

Leal describió el proceso de proyectar el control de la red neuronal en un espacio de función lineal mediante regresión lineal. Esta técnica de proyección facilita una mejor comprensión de las funciones no lineales de la red neuronal y su alineación con soluciones de control de forma cerrada. Los resultados demostraron el impacto de incorporar parámetros de estacionalidad y aversión al riesgo en la reacción del modelo al mercado. Además, el presentador enfatizó la importancia de gamma, que generalmente se establece en dos en la literatura, pero mostró una solución no lineal cuando se toma como tres sobre dos.

Se evaluaron minuciosamente el rendimiento y la precisión del control de la red neuronal en la ejecución de operaciones de financiación de alta frecuencia. Leal comparó la función de valor, la riqueza a precio de mercado y los errores relativos en las proyecciones en diferentes escenarios y valores gamma. Si bien la red neuronal exhibió un rendimiento superior, ejecutó transacciones de manera no lineal, desviándose de la solución de control conocida. Esto planteó dudas sobre la decisión de operar utilizando la red neuronal y determinar los niveles de margen apropiados en función de su divergencia con respecto a la solución establecida.

Leal exploró los beneficios del enfoque del controlador de preferencias múltiples, lo que permite a los operadores ingresar sus parámetros de conversión de riesgo y comenzar a operar de inmediato con un modelo previamente entrenado. Si bien la solución de red neuronal tardó más en ejecutarse que la solución PDE, ofreció una mayor flexibilidad y adaptabilidad a diferentes preferencias de riesgo. Para mejorar la explicabilidad, Leal propuso una idea de proyección utilizando la regresión lineal, lo que reduce la carga computacional y conserva la capacidad de múltiples preferencias. También destacó las aplicaciones más amplias del concepto de aproximación de redes neuronales, sugiriendo su relevancia en otros problemas financieros, como la cobertura.

Se discutió el proceso de entrenamiento de la red neuronal en finanzas de alta frecuencia, enfatizando el entrenamiento fuera de línea para evitar problemas de latencia asociados con el aprendizaje por refuerzo en línea. La red toma el tiempo, el inventario y los parámetros de aversión al riesgo potencial como entradas y produce una tasa como salida. Leal también describió el procedimiento de ajuste fino en el aprendizaje de transferencia, pasando de datos simulados a incrementos de datos reales obtenidos de la Bolsa de Valores de Toronto una vez que la red ha convergido. El presentador subrayó la importancia de utilizar datos del mundo real y dinámicas precisas durante el proceso de capacitación, ya que mejora la capacidad de la red para captar las complejidades de las finanzas de alta frecuencia.

En la sección siguiente, Laura Leal proporcionó información sobre las entradas y la función objetivo empleada en la red neuronal para las finanzas de alta frecuencia. La red neuronal incorpora el inventario como una proporción del volumen promedio de un stock específico durante un día, lo que permite una representación normalizada. La función objetivo se enmarca como un problema de maximización, con la salida sirviendo como control para una ejecución óptima. La estructura de la red neuronal se basa en la aproximación de funciones, utilizando dos nodos de entrada y cuatro capas ocultas para capturar las relaciones subyacentes.

Ante una pregunta sobre la discrepancia entre dos soluciones de control, Leal aclaró que podría interpretarse como un reflejo de la utilidad cambiante del inversionista. Al ajustar el parámetro gamma, se pueden emplear diferentes funciones de utilidad, lo que genera variaciones en las soluciones de control. En su investigación, el equipo eligió el valor gamma de tres mitades basándose en pruebas empíricas con comerciantes reales, lo que dio como resultado un rendimiento satisfactorio.

Leal destacó además que la salida de la red neuronal es observable y analizable. Pueden monitorear las posiciones tomadas por la red y cómo evolucionan a lo largo del día de negociación, brindando transparencia e información sobre el proceso de toma de decisiones. Este nivel de interpretación y comprensión permite a los operadores ganar confianza en las estrategias de ejecución de la red neuronal.

Leal también discutió los desafíos asociados con el desarrollo de controles funcionales para las finanzas de alta frecuencia. Si bien un proceso de control promedio puede proporcionar información general sobre la ejecución comercial, es posible que no represente con precisión el comportamiento de las trayectorias individuales. La dinámica del mercado, como la aparición de acciones de memes, requiere la adaptación de los métodos de control para capturar las condiciones en evolución de manera efectiva.

En conclusión, la presentación de Laura Leal arrojó luz sobre las complejidades de crear controles efectivos en el ámbito de las finanzas de alta frecuencia. Al aprovechar las redes neuronales profundas, los investigadores y comerciantes pueden superar las limitaciones de los modelos tradicionales y adaptarse a la intrincada dinámica de este dominio. La incorporación de preferencias de riesgo, medidas de explicabilidad y datos del mundo real contribuye al desarrollo de soluciones de control sólidas y adaptables. A través de su trabajo, Leal y su equipo ofrecen información y soluciones valiosas que allanan el camino para una toma de decisiones más eficiente e informada en las finanzas de alta frecuencia.

  • 00:00:00 Laura Leal presenta su trabajo conjunto con Matthias y Charlotte sobre el uso de una red neuronal profunda para resolver el problema de la ejecución óptima en finanzas de alta frecuencia. El objetivo es evitar un gran impacto en el mercado y operar de la manera más fluida y sigilosa posible. El equipo introduce la idea de la explicabilidad para abordar la preocupación de que las redes neuronales sean una caja negra, donde proyectan el control de la red neuronal en una variedad de dimensiones más bajas para comprender mejor el riesgo y qué tan lejos está la solución de la red neuronal del riesgo familiar. sector. Evalúan el rendimiento, analizan la función de valor, el mercado marcado por la riqueza y los errores relativos en las proyecciones, y comparan la solución de red neuronal con la solución clásica de PDE de forma cerrada.

  • 00:05:00 Laura Leal de la Universidad de Princeton analiza cómo las redes neuronales pueden mejorar las limitaciones de las soluciones tradicionales, como los modelos PD (diferenciales parciales), que luchan por adaptarse a las complejidades de las finanzas de alta frecuencia, como la autocorrelación y las colas pesadas. y la estacionalidad intradiaria. Sin embargo, la ejecución de las redes neuronales puede llevar mucho tiempo, por lo que propone un controlador de preferencias múltiples que ingresa las preferencias de riesgo de un comerciante para adaptarse más rápidamente a los nuevos días, generando una solución al problema de optimización estocástica. Luego, Leal proporciona una descripción general de la literatura, incluidos los modelos de ejecución óptima, y explica las variables de estado como el inventario, el control y el precio de las que la red neuronal puede aprender en las finanzas de alta frecuencia.

  • 00:10:00 Laura analiza la evolución del proceso de precios en las finanzas de alta frecuencia y cómo se ve afectado por la velocidad de negociación. Ella explica cómo cuanto más rápido operas, más liquidez consumes, lo que eleva el precio y genera un impacto permanente en el mercado. El criterio objetivo a minimizar depende del control, que es la velocidad de negociación, y tiene un componente terminal y un componente de coste de funcionamiento. El costo terminal se divide en tres partes, que incluyen la riqueza final en efectivo, la multa por mantener inventario y por cuánto se puede vender el inventario final. El costo de funcionamiento es una penalización por mantener el inventario durante todo el día, y estos dos parámetros son esenciales para la gestión de riesgos. Leal también analiza cómo gamma es importante para su solución de red neuronal y generalmente se toma igual a dos en la literatura.

  • 00:15:00 Laura Leal, oradora de la Universidad de Princeton, explica el uso de una red neuronal para aprender la aproximación en un problema financiero de alta frecuencia donde la función de valor tiene algún término cuadrático en el inventario. La solución equivalente cuando se usa una métrica neuronal es diferente de optimizar el control mu, ya que se deben elegir los parámetros de la red neuronal. La red neuronal se utiliza para todos los pasos de tiempo, lo que le permite aprender cómo reaccionar en función del precio, el inventario y la riqueza del agente. El proceso utiliza una estructura de red neuronal totalmente conectada y realimentada con entradas de tiempo e inventario. Sin embargo, las entradas se pueden generalizar de muchas maneras para incluir más entradas que los parámetros de preferencia de riesgo utilizados en el video con fines ilustrativos.

  • 00:20:00 Laura Leal explica la estructura de la red neuronal que se utiliza para el control de riesgos en las finanzas de alta frecuencia. La red no es muy profunda, pero es recurrente, reutilizando la misma estructura en cada paso de tiempo para actualizar los pesos simultáneamente. La entrada a la red es el tiempo y el inventario, y la salida es el control, que es la propia red neuronal, que genera para cada paso de tiempo una cierta cantidad de acciones para negociar. El aprendizaje por transferencia se usa para simular datos usando Monte Carlo en lugar de usar datos financieros costosos o escasos. Los datos utilizados son de la Bolsa de Valores de Toronto de enero de 2008 a diciembre de 2009, y la red neuronal se utiliza para abordar problemas de colas pesadas, autocorrelación y estacionalidad intradiaria.

  • 00:25:00 En esta sección, Laura Leal explica el proceso de proyectar el control alcanzado por la red neuronal en el espacio de funciones lineales de q usando regresión lineal para encontrar los términos beta1 y beta2 para determinar la r al cuadrado, mostrando cuánto de las funciones no lineales de la red neuronal se pueden proyectar en el espacio de los controles de forma cerrada. Los resultados mostraron que al agregar funcionalidad al código, como estacionalidad y aprender los parámetros de aversión al riesgo del agente, hubo un impacto significativo en la reacción del modelo al mercado, pero al considerar gamma igual a 3 sobre 2, hubo un impacto no significativo. -solución lineal para la red neuronal.

  • 00:30:00 Laura examina el rendimiento y la precisión del control de la red neuronal en la ejecución de transacciones para finanzas de alta frecuencia. Compara la función de valor y la marca con la riqueza del mercado para diferentes escenarios y valores gamma. También evalúa el error relativo en la proyección y observa que, si bien la red neuronal tiene un mejor desempeño, se ejecuta de una manera no lineal que es diferente al control conocido. Esto plantea dudas sobre si operar o no utilizando la red neuronal y cuánto margen establecer en función de su distancia de la solución conocida cómoda.

  • 00:35:00 En esta sección, Laura analiza sus hallazgos sobre el controlador multipreferencia para una ejecución óptima en finanzas de alta frecuencia. Leal descubrió que la solución de red neuronal tarda más en ejecutarse que la solución PDE para todos los conjuntos de parámetros porque la primera reacciona a la estacionalidad. Sin embargo, con este enfoque, los comerciantes pueden ingresar sus parámetros de conversión de riesgo actuales y comenzar a operar de inmediato con algo que ya ha sido entrenado. Leal también propone la explicabilidad a través de una idea de proyección que utiliza una regresión lineal y una versión multipreferencia del mismo problema para eliminar parte de la carga computacional. Además, Leal analiza otros artículos en su tesis y cómo esta idea de aproximación de redes neuronales se puede aplicar a muchos otros problemas financieros, incluida la cobertura.

  • 00:40:00 Laura Leal habla sobre el proceso de entrenamiento de la red neuronal utilizada en las finanzas de alta frecuencia. Ella explica que la red se entrena fuera de línea, en lugar de mediante el aprendizaje de refuerzo en línea, para evitar problemas de latencia. Una vez que la red ha sido entrenada, toma entradas de tiempo e inventario, potencialmente con parámetros de aversión al riesgo, y genera una tasa. El usuario final no necesita comprender el funcionamiento interno de la red. Leal también explica el procedimiento de ajuste fino utilizado en el aprendizaje de transferencia, que implica cambiar a incrementos de datos reales de la Bolsa de Valores de Toronto después de que la red haya convergido. Finalmente, aborda preguntas sobre preprocesamiento y optimización, enfatizando la importancia de usar datos del mundo real y dinámicas precisas en el proceso de capacitación.

  • 00:45:00 En esta sección del video, Laura Leal analiza las entradas y la función objetivo utilizada en la red neuronal para las finanzas de alta frecuencia. La red neuronal toma el inventario como una proporción del volumen promedio de ese stock durante un día, que se toma como un valor entre menos uno y uno. La función objetivo es un problema de maximización en el que la salida es un control, y la estructura de la red neuronal se basa en la aproximación de funciones. Leal también explica que hay dos nodos de entrada y cuatro capas ocultas en la estructura de la red neuronal. Por último, aborda una pregunta sobre la diferencia entre dos soluciones de control y aclara que podría interpretarse como resultado del cambio de utilidad del inversionista.

  • 00:50:00 Laura discute las diferencias entre los modelos gamma 2 y tres mitades y sus funciones de utilidad. Ella explica que con gamma 2, la solución ya no es una solución de forma cerrada y, en cambio, se produce una solución aproximada a través de una red neuronal. La razón para elegir gamma tres mitades se debió a que se probó con comerciantes reales dentro de una empresa y resultó en un buen rendimiento. Además, Leal confirma que la salida de la red neuronal se puede observar y analizar, y sí saben qué posiciones toma y cómo cambian a lo largo del día.

  • 00:55:00 En esta sección, Laura Leal analiza los desafíos de hacer un control funcional para finanzas de alta frecuencia. Si bien un proceso de control promedio puede proporcionar una idea de cómo se verá la ejecución de una operación, puede que no sea del todo preciso cuando se observa una sola trayectoria. También aborda una pregunta sobre el uso de un método de dos bloques para la optimización y explica cómo el método debería adaptarse a las dinámicas cambiantes, como con las existencias de memes. En general, la presentación de Leal arroja luz sobre las complejidades de la creación de controles funcionales para las finanzas de alta frecuencia.
Laura Leal (Princeton University) - "Learning a Functional Control for High-Frequency Finance"
Laura Leal (Princeton University) - "Learning a Functional Control for High-Frequency Finance"
  • 2021.11.17
  • www.youtube.com
Laura Leal (Princeton University) is our last speaker for the Fall 2021 seminar series. Her topic is called "Learning a Functional Control for High-Frequency...
 

Zihao Zhang (Oxford-Man Institute) - "Aprendizaje profundo para el mercado por datos de pedidos"



Zihao Zhang (Oxford-Man Institute) - "Aprendizaje profundo para el mercado por datos de pedidos"

Zihao Zhang, investigador postdoctoral en el Oxford-Man Institute y parte del grupo de investigación de aprendizaje automático, presenta el trabajo reciente de su equipo sobre la aplicación del aprendizaje profundo al mercado por datos de pedidos. Su atención se centra en los datos de la microestructura del mercado, en particular el libro de órdenes de límite, que proporciona información valiosa sobre la demanda general y la dinámica de la oferta de un instrumento financiero específico. Al combinar el mercado por orden y los datos del libro de órdenes limitadas, Zhang y su equipo han descubierto que pueden reducir la varianza de la señal y obtener mejores señales predictivas. Esta aplicación de su modelo tiene potencial para mejorar la ejecución comercial y las estrategias de creación de mercado.

Zhang comienza su presentación brindando una breve introducción a los datos de la microestructura del mercado, enfatizando específicamente la importancia del mercado por datos de pedidos. Esta fuente de datos ofrece información altamente granular, proporcionando actualizaciones y eventos frecuentes en comparación con los datos del libro de órdenes limitadas, que ha recibido más atención en la literatura existente. Presenta su modelo de aprendizaje profundo y explica las arquitecturas de red que han diseñado para analizar datos de mercado por pedido. Zhang destaca que su trabajo representa el primer modelo predictivo que utiliza datos de mercado por pedido para pronosticar movimientos de alta frecuencia, lo que ofrece una fuente alternativa de información que amplía las posibilidades de descubrimiento alfa.

A continuación, Zhang profundiza en el concepto del libro de órdenes limitadas, que sirve como un registro completo de todas las órdenes limitadas pendientes para un instrumento financiero en un momento determinado. Él enfatiza que, si bien los datos de los gráficos ofrecen información de baja frecuencia, el precio de una acción en realidad está representado por el libro de órdenes límite, que es una serie de tiempo multivariada. Zhang explica cómo el libro de órdenes limitadas se organiza en diferentes niveles de precios en función de las órdenes enviadas, y cada nivel de precios consta de numerosas órdenes pequeñas segmentadas por diferentes comerciantes. También analiza cómo se actualiza el libro de pedidos cuando llegan nuevos mensajes, que pueden introducir nuevas posiciones, cancelar pedidos existentes o modificar pedidos actuales. Zhang señala que los datos derivados del libro de órdenes limitadas revelan la relación general entre la oferta y la demanda de un instrumento financiero específico, y su objetivo es determinar si utilizar datos de mercado por orden, que contienen información sobre la colocación y cancelación de órdenes, puede proporcionar información adicional. por hacer predicciones.

En el futuro, Zhang explora cómo se pueden utilizar los datos de mercado por pedido en el aprendizaje profundo para predecir los movimientos del mercado. Aunque las cadenas de mensajes en los datos de órdenes de mercado poseen dimensiones más bajas en comparación con el libro de órdenes limitadas, ofrecen información adicional que se puede aprovechar para realizar predicciones. Zhang explica cómo los eventos pasados se pueden transformar en matrices 2D, formando imágenes que se pueden alimentar a una red neuronal para la predicción. Las características resultantes de la capa convolucional luego se pueden integrar en las capas neuronales recurrentes para aprender la estructura y capturar dependencias adicionales. La capa final produce predicciones basadas en una configuración de clasificación utilizando retornos de umbral.

Zhang procede a discutir la arquitectura de red empleada para hacer predicciones utilizando datos de libros de pedidos limitados. En este caso, los dos primeros componentes se reemplazan con mensajes de comerciantes individuales, y las capas convolucionales se sustituyen por una capa LSTM o capa de atención. Zhang explica brevemente el mecanismo de atención, que facilita la predicción de un solo punto e implica una estructura de codificador-decodificador. El codificador extrae características significativas de los tiempos de entrada y las resume en un estado oculto, mientras que el decodificador genera la predicción. La normalización se emplea para determinar si una orden es una compra o una venta en función del precio medio.

En la sección siguiente, Zhang presenta los resultados de su modelo entrenado con un grupo de activos, normalizado a una escala similar y probado con diferentes modelos, como el modelo lineal simple, el perceptrón multicapa, el LSTM y el modelo de atención, que incorporan el orden límite. datos de libros y datos ambientales puros. Los resultados indican que las señales predictivas de los datos ambientales exhiben una menor correlación con las señales del libro de órdenes límite, lo que sugiere que una combinación de estas dos fuentes puede reducir la variación de la señal, beneficiarse de la diversificación y producir señales predictivas superiores. Por lo tanto, un modelo de conjunto que promedia las señales predictivas de ambos tipos de datos demuestra el mejor rendimiento.

Zhang procede a discutir los beneficios potenciales de incorporar datos de mercado por pedido (MBO) en las predicciones y destaca la capacidad de realizar ingeniería de características con estos datos. Presenta los resultados para horizontes de predicción que van de dos a 20 ticks por delante, observando comportamientos similares observados para 50 y 100 ticks por delante. Zhang también aborda las preguntas de la audiencia, incluida la posibilidad de entrenar un solo modelo utilizando todos los instrumentos para mejorar la generalización y la fuente de datos de MBO de la Bolsa de Valores de Londres. En respuesta a la pregunta de un miembro de la audiencia sobre centrarse en NF1 en lugar de PNL, Zhang está de acuerdo y reconoce que PNL es una medida de éxito más relevante.

Zhang analiza además el uso de señales predictivas y varias formas de definirlas, como usar una señal sin procesar o establecer un umbral basado en probabilidades softmax. Resume los puntos clave del documento, que propone modelar datos de mercado por pedido (MBO) en lugar de datos de libros de pedidos limitados y probar modelos de aprendizaje profundo, incluido el mecanismo de retención LSTM. Los resultados indican que una combinación de MBO y datos del libro de órdenes limitadas produce los mejores resultados. Zhang responde a las preguntas de la audiencia sobre la autocorrelación entre los movimientos del mercado, el filtrado de operaciones de ruido y la motivación para usar capas de CNN en el modelado de imágenes de órdenes límite.

En la siguiente sección, Zhang explica cómo se puede tratar el libro de pedidos como una estructura espacial que se puede explorar de manera efectiva mediante redes neuronales convolucionales (CNN). El uso de una CNN para extraer información de cada nivel de precios ha demostrado ser valioso para las predicciones. La capa de memoria a corto plazo (LSTM) se elige sobre perceptrones multicapa, ya que mantiene el flujo temporal de datos y resume eventos pasados para hacer predicciones. Zhang señala que los beneficios de utilizar un mecanismo de atención son limitados debido a la naturaleza de las series temporales financieras. El documento incluye una descripción detallada de los hiperparámetros empleados en su modelo.

Zhang aborda la preocupación sobre la gran cantidad de parámetros utilizados en los métodos de redes neuronales y su efectividad para predecir el mercado de valores. Reconoce que la abundancia de parámetros puede ser objeto de críticas, pero enfatiza que su equipo solo ha perfeccionado algunos parámetros específicos de su modelo. Todavía no han considerado usar el diferencial entre oferta y demanda como criterio para el éxito, pero reconocen su potencial para una mayor exploración. Zhang cree que su modelo tiene un valor práctico para la ejecución comercial y las estrategias de creación de mercado. Sin embargo, menciona que si uno tiene la intención de cruzar el diferencial, puede ser necesario reducir la muestra de los datos, ya que las actualizaciones frecuentes en los datos del libro de órdenes pueden complicar la ejecución de la operación. Finalmente, al modelar el libro de órdenes límite de Elo, agregan el tamaño total en cada nivel de precio en lugar de incluir información sobre los tamaños de órdenes individuales.

En la sección final, Zhang explica las diferencias entre los datos de mercado por pedido y mercado por precio. Los datos de mercado por orden permiten el seguimiento de órdenes individuales, lo que no es posible con los datos de mercado por precio. Con la ingeniería de funciones adecuada, los datos de mercado por pedido pueden proporcionar información adicional y generar alfa. Zhang también analiza cómo su modelo trata las modificaciones en el precio de una orden límite específica mientras mantiene el tamaño sin cambios. Cada nuevo mensaje con precios actualizados se trata como una nueva actualización, enriqueciendo el conjunto de datos.

En general, la presentación de Zihao Zhang muestra la aplicación del aprendizaje profundo al mercado por datos de pedidos, destacando su potencial para extraer información valiosa de los datos de la microestructura del mercado. Al combinar datos de mercado por orden y libro de órdenes límite, el equipo de Zhang ha demostrado la reducción de la varianza de la señal y la generación de señales predictivas mejoradas. Su trabajo promete mejorar la ejecución comercial y las estrategias de creación de mercado, ofreciendo una valiosa contribución al campo del análisis del mercado financiero.

  • 00:00:00 Zihao Zhang, posdoctorado en Oxford Man Institute y parte del grupo de investigación de aprendizaje automático, presenta su trabajo reciente con Brian Ling y Stefan Loren sobre la aplicación de un modelo de aprendizaje profundo al mercado por datos de pedidos. Zhang comienza con una breve introducción de los datos de la microestructura del mercado, incluidos el libro de órdenes límite y los datos de mercado por orden. Él enfatiza que este último es posiblemente la fuente de información más granular, que proporciona más actualizaciones y eventos en comparación con los datos del libro de pedidos limitados y, sin embargo, se descuida en gran medida en la literatura actual. Zhang presenta su modelo de aprendizaje profundo y analiza las arquitecturas de red que diseñaron para este tipo de datos. También enfatiza que su trabajo es el primer modelo predictivo que utiliza datos de mercado por orden para pronosticar movimientos de alta frecuencia y que proporciona una fuente ortogonal de información que expande el universo del descubrimiento alfa.

  • 00:05:00 Zihao explica el concepto de un libro de órdenes limitadas, que es un registro de todas las órdenes limitadas pendientes para un instrumento financiero en un momento determinado. Destaca que, si bien los datos de los gráficos proporcionan información de baja frecuencia, el precio de una acción es en realidad una serie temporal multivariada representada por el libro de órdenes límite. Zhang explica cómo el libro de órdenes de límite se clasifica en diferentes niveles de precios en función de las órdenes enviadas, y cada nivel de precios consta de muchas órdenes pequeñas segmentadas por diferentes comerciantes. También analiza cómo se actualiza el libro de pedidos cuando llega un nuevo mensaje, que puede agregar una nueva posición, cancelar un pedido existente o actualizar pedidos existentes. Zhang señala que los datos derivados del libro de órdenes limitadas muestran la relación general entre la oferta y la demanda de un instrumento financiero específico, y su enfoque es ver si usar los datos de mercado por orden, que contienen información sobre la colocación y cancelación de órdenes, puede proporcionar información adicional para hacer predicciones.

  • 00:10:00 Zihao Zhang analiza cómo se pueden usar los datos de órdenes de mercado para el aprendizaje profundo para hacer predicciones sobre el movimiento del mercado. Si bien las cadenas de mensajes en los datos de órdenes de mercado tienen una dimensión más baja que el libro de órdenes límite, brindan información adicional que se puede usar para las predicciones. Zhang explica que las imágenes de eventos pasados pueden formarse como una matriz 2D e ingresarse en una red neuronal para la predicción. Las características resultantes de la capa convolucional se pueden colocar en las capas neuronales recurrentes para aprender la estructura y las dependencias adicionales. La capa final genera predicciones basadas en una configuración de clasificación utilizando retornos de umbral.

  • 00:15:00 Zihao Zhang del Oxford-Man Institute explica la arquitectura de red utilizada para hacer predicciones a partir de los datos del libro de órdenes limitadas, donde los primeros dos componentes se reemplazan con mensajes de comerciantes individuales y las capas convolucionales se reemplazan con una capa LSTM o atención capa. Zhang también explica brevemente el mecanismo de atención, que se usa para la predicción de un solo punto en este caso e involucra una estructura de codificador y decodificador, con el codificador extrayendo características significativas de los tiempos de entrada y resumiéndolas en un estado oculto, mientras que el decodificador genera la predicción. . La normalización se utiliza para determinar si una orden es una compra o una venta en función del precio medio.

  • 00:20:00 En esta sección del video, Zihao Zhang presenta los resultados del modelo entrenado con un grupo de activos, normalizados a una escala similar y probados en diferentes modelos como el modelo lineal simple, percepciones multicapa, LSTM y modelo de atención utilizando datos de grupo de orden límite y datos ambientales puros. Los resultados muestran que las señales predictivas de los datos ambientales están menos correlacionadas con las señales del libro de órdenes límite, lo que sugiere que una combinación de estas dos señales puede reducir la variación de la señal, beneficiarse de la diversificación y generar mejores señales predictivas. Por lo tanto, el modelo de conjunto que promedia las señales predictivas de ambos tipos de datos ofrece el mejor rendimiento.

  • 00:25:00 Zihao Zhang analiza los beneficios potenciales de incorporar datos de mercado por pedido (MBO) en las predicciones y menciona la capacidad de realizar ingeniería de características con los datos. Se mostraron los resultados para el horizonte de predicción de dos a 20 ticks por delante, con comportamientos similares observados para 50 y 100 ticks por delante. Zhang también responde preguntas de implementación de la audiencia, incluida la capacidad de entrenar un solo modelo utilizando todos los instrumentos para mejorar la generalización y el origen de los datos de MBO de la Bolsa de Valores de Londres. Un miembro de la audiencia pregunta si se enfoca en NF1 en lugar de PNL, a lo que Zhang está de acuerdo y reconoce que PNL es una medida de éxito más relevante.

  • 00:30:00 Zihao Zhang analiza el uso de señales predictivas y las diferentes formas en que se pueden definir, como usar una señal sin procesar o establecer un umbral para la probabilidad del softmax. Él resume el documento, que propone modelar datos de mercado por orden (MBO) en lugar de limitar los datos del libro de órdenes y probar modelos de aprendizaje profundo, incluido el mecanismo de retención LSTM. Los resultados muestran que una combinación de MBO y datos del libro de órdenes limitadas da los mejores resultados. Zhang también aborda las preguntas de la audiencia sobre la correlación automática entre los movimientos del mercado, el filtrado de operaciones de ruido y la motivación para usar capas de CNN en el modelado de imágenes de órdenes límite.

  • 00:35:00 En esta sección del video, Zihao Zhang del Oxford-Man Institute explica cómo el libro de pedidos puede tratarse como una estructura espacial que puede explorarse utilizando las mismas capas. Se descubrió que el uso de una red neuronal convolucional (CNN) para extraer información de cada nivel de precios es útil para las predicciones. La capa de memoria a corto plazo (LSTM) se eligió sobre las percepciones de múltiples capas porque no distorsiona el flujo de tiempo y resume eventos pasados para hacer predicciones. Se encontró que los beneficios de usar un mecanismo de atención son limitados debido a la propiedad de las series temporales financieras. El documento incluye una descripción detallada de los hiperparámetros utilizados.

  • 00:40:00 Zihao Zhang analiza la cantidad de parámetros utilizados en los métodos de redes neuronales y su eficacia para predecir el mercado de valores. Señala que, si bien la gran cantidad de parámetros puede ser una crítica de los métodos de redes neuronales, él y su equipo solo han ajustado algunos parámetros para su modelo específico. No han considerado utilizar el diferencial entre oferta y demanda como criterio de éxito, pero reconocen que podría explorarse más a fondo. Zhang cree que la aplicación de su modelo es útil para la ejecución comercial y las estrategias de creación de mercado, pero si uno quiere cruzar el margen, es posible que deba reducir la muestra de los datos para realizar una operación, ya que los datos del libro a menudo pueden tener demasiadas actualizaciones para Hacer un trato. Finalmente, al modelar el libro de órdenes límite de Elo, agregan el tamaño total en cada nivel de precio en lugar de incluir información sobre los tamaños de órdenes individuales.

  • 00:45:00 En esta sección, Zihao Zhang, del Oxford-Man Institute, explica las diferencias entre el mercado por orden y el mercado por datos de precio. Los datos de mercado por orden permiten el seguimiento de órdenes individuales, lo que no es posible con los datos de mercado por precio. Con la ingeniería de funciones adecuada, los datos del mercado por orden pueden proporcionar información adicional y generar alfa. Además, Zhang analiza cómo su modelo trata las modificaciones en el precio de una orden límite en particular mientras mantiene el tamaño sin cambios. Explica que cada nuevo mensaje con precios actualizados se trata como una nueva actualización.
Zihao Zhang (Oxford-Man Institute) - "Deep Learning for Market by Order Data"
Zihao Zhang (Oxford-Man Institute) - "Deep Learning for Market by Order Data"
  • 2021.10.27
  • www.youtube.com
Next up in the Cornell-Citi webinar series is Dr. Zihao Zhang, who spoke on Tuesday, Oct. 26.Abstract: Market by order (MBO) data - a detailed feed of indiv...
 

Vineel Yellapantula (Cornell MFE '20): "Cuantificación de texto en archivos de la SEC"


Vineel Yellapantula (Cornell MFE '20): "Cuantificación de texto en archivos de la SEC"

Vineel Yellapantula presenta su proyecto de verano, que implica la aplicación de técnicas de procesamiento de lenguaje natural (NLP) para negociar acciones en función de la información textual que se encuentra en los archivos de la SEC, centrándose particularmente en la sección MD&A. El objetivo del proyecto es asignar una puntuación a cada informe de las 430 acciones presentes en el mercado estadounidense y analizar su desempeño agrupándolas en cinco cuantiles en función de la puntuación. Yellapantula utiliza métodos tradicionales como el coseno y la similitud de Jaccard para determinar la puntuación de similitud entre textos, y la similitud de Jaccard demuestra ser más consistente con el tiempo. También explora la creación de un modelo de análisis de sentimientos utilizando redes neuronales recurrentes (RNN) con Keras en un conjunto de datos de texto, logrando una precisión impresionante del 87,5 % con su modelo.

Durante la presentación, Yellapantula destaca la importancia de seleccionar el método adecuado para cada problema específico e incorporar datos adicionales para mejorar los resultados. Destaca la abundancia de información disponible a través de datos de texto, particularmente dentro de las presentaciones 10-K, y menciona que los factores desarrollados utilizando documentos anteriores pueden ser más efectivos que aquellos que se basan únicamente en el presente documento. Yellapantula señala varias alternativas para utilizar técnicas de aprendizaje profundo con datos de texto, incluidos guante, word2vec, BERT y RNN. Sugiere además incorporar más fuentes de datos, como presentaciones de 8-K y ciclos de noticias, para mejorar el poder predictivo de los modelos. Sin embargo, reconoce la presencia de un sesgo de selección en su estudio, ya que se centra en las acciones de buen desempeño presentes en el índice de 2007 a 2020.

En el apartado dedicado al análisis de sentimiento, Yellapantula explica el proceso de creación de un modelo utilizando RNNs con Keras. Los pasos implican tokenizar el texto para comprender su significado, reducir la dimensionalidad a través de incrustaciones y emplear una capa LSTM y una capa densa con una función sigmoidea para la clasificación de sentimientos. Demuestra la aplicación de este enfoque usando reseñas de IMDB, restringiendo la extensión de la reseña a 500 palabras y completando las reseñas más cortas con ceros para mantener la consistencia. A través de una evaluación rigurosa, Yellapantula logra una tasa de precisión del 87,5 % con su modelo de análisis de sentimiento.

Además, Yellapantula destaca la importancia de la correlación de información para determinar la efectividad de los factores y su consistencia a lo largo del tiempo. Hace referencia a un estudio que sugiere que las empresas con informes estables tienden a tener un buen desempeño, lo que lo indica como un factor prometedor para explorar. En conclusión, Yellapantula agradece a la audiencia por su interés y espera una mayor participación en el futuro.

El proyecto de Vineel Yellapantula demuestra la aplicación de técnicas de PNL para extraer información valiosa de la información textual en las presentaciones de la SEC. Al asignar puntajes a los informes y analizar su desempeño, su trabajo contribuye a la comprensión de cómo el lenguaje puede influir en el comercio de acciones. Además, su exploración del análisis de sentimientos utilizando RNN muestra el potencial del aprendizaje profundo para capturar el sentimiento de los datos textuales. A través de una cuidadosa selección de metodología y la incorporación de fuentes de datos adicionales, Yellapantula enfatiza la oportunidad de mejorar la precisión y efectividad de tales modelos.

  • 00:00:00 En esta sección, Vineel Yellapantula describe su proyecto de verano que involucró el uso de técnicas de procesamiento de lenguaje natural (NLP) para negociar acciones basadas en información textual presente en los archivos de la SEC, específicamente la sección MD&A. El proyecto se centró en encontrar una puntuación para cada informe de las 430 acciones presentes en el mercado estadounidense y analizar su desempeño después de agruparlas en cinco cuantiles en función de la puntuación. Vineel usó métodos tradicionales como el coseno y la similitud de jaccard para encontrar una puntuación de similitud entre los textos, y la similitud de jaccard demostró ser más consistente con el tiempo. Vineel también menciona que se pueden usar técnicas de aprendizaje profundo como RNN para este propósito.

  • 00:05:00 En esta sección, Vineel Yellapantula explica cómo crear un modelo de análisis de sentimientos utilizando redes neuronales recurrentes (RNN) con keras en un conjunto de datos de texto. El proceso implica tokenizar el texto para comprender su significado, reducir la dimensionalidad mediante incrustaciones y luego usar una capa LSTM y una capa densa con una función sigmoidea para clasificar el sentimiento del texto. Vineel muestra cómo procesó los datos usando las reseñas de IMDB, limitando la extensión de las reseñas a 500 palabras y rellenando las más cortas con ceros para mantener la consistencia en la extensión. Pudo lograr una precisión del 87,5 % con su modelo.

  • 00:10:00 En esta sección del video, Vineel Yellapantula analiza la abundancia de información disponible a través de los datos de texto, particularmente dentro de las presentaciones de 10-K. Señala que se pueden desarrollar muchos factores a través de estas presentaciones, y los factores que usan documentos anteriores pueden ser más efectivos que aquellos que se enfocan únicamente en el presente documento. Además, Yellapantula señala que existen varias alternativas para usar el aprendizaje profundo con datos de texto, como guante, word2vec, BERT y RNN. Él enfatiza que seleccionar el método correcto para el problema específico es crucial, y la incorporación de más datos, como las presentaciones de 8-K y los ciclos de noticias, puede conducir a mejores resultados. Finalmente, Yellapantula reconoce que existe cierto sesgo de selección en su estudio, ya que se centró en las acciones de buen desempeño presentes en el índice de 2007 a 2020.

  • 00:15:00 En esta sección, Vineel Yellapantula analiza la importancia de la correlación de información para determinar si un factor funciona o no, así como la consistencia de los factores a lo largo del tiempo. También menciona un estudio que encontró que las empresas con informes estables se desempeñan bien, lo que indica que es un buen factor para explorar. Concluye agradeciendo a la audiencia por su interés y espera verlos en el otoño.
Vineel Yellapantula (Cornell MFE '20): "Quantifying Text in SEC Filings"
Vineel Yellapantula (Cornell MFE '20): "Quantifying Text in SEC Filings"
  • 2021.05.12
  • www.youtube.com
CFEM alumnus Vineel Yellapantula discusses his summer project at AbleMarkets under Prof. Irene Aldridge, “Quantifying Sentiment in SEC Filings.” By utilizing...
 

Peter Carr (NYU) "Stoptions" hazaña. Lorenzo Torricelli (Universidad de Parma)



Peter Carr (NYU) "Stoptions" hazaña. Lorenzo Torricelli (Universidad de Parma)

Peter Carr presenta un producto financiero llamado "stoptions" que combina características de contratos de futuros y opciones de venta. Las stoptions permiten al propietario evitar cambios de precios desfavorables mediante la incorporación de un elemento de opción de venta de las Bermudas. Carr explica el concepto de opciones y proporciona un ejemplo de una opción de tres días con diferentes pisos asociados. Luego pasa a discutir la valoración de las paradas de un día y dos días, teniendo esta última dos pisos y la flexibilidad para ejercer en el primer o segundo día.

Carr explora aún más la valoración de stoption durante períodos más largos profundizando en la recursividad hacia atrás, la valoración de una opción de venta casada y el uso de pseudosumas. Sugiere utilizar la distribución logística para representar los cambios de precio en las opciones de venta casadas. El valor de las paradas se puede obtener utilizando fórmulas simples para opciones "en el dinero", y la valoración y la cobertura se pueden realizar de forma analítica.

Carr concluye el artículo discutiendo los desafíos asociados con la adopción de tales opciones por parte del mercado. Destaca la importancia de encontrar un comprador y un vendedor para estos productos y comparte sus conversaciones con compradores y vendedores potenciales. Además, Carr reconoce que el modelo de paradas es una alternativa a los modelos existentes como Black-Scholes y Bachelier, pero puede que no se adapte de manera óptima a todas las situaciones. No obstante, destaca que su modelo pretende capturar la multitud de operaciones binarias con especial trascendencia en las finanzas.

En una sección posterior, Carr y Lorenzo Torricelli proponen un modelo de "paradas" utilizando un paradigma conjugado y una distribución logística. Este modelo ofrece flexibilidad en la estructura de plazos con un solo parámetro, lo que permite acomodar varias estructuras de plazos de una sola vez. Sin embargo, es posible que no encaje perfectamente en el mercado debido a su gráfico de volatilidad implícita con pendiente descendente. Los autores reconocen las limitaciones de su modelo y reconocen las innumerables operaciones binarias en finanzas que su modelo pretende capturar. Discuten la opcionalidad entre un strike y una sola opción, así como la opcionalidad repetida a través de la pseudosuma. La sección concluye con el aprecio mutuo y la anticipación de asistir a los seminarios de los demás.

  • 00:00:00 Peter Carr presenta "stoptions", un nuevo producto financiero que es un híbrido entre un contrato de futuros y una opción de venta. La stoption tiene un activo subyacente y un plazo fijo, y un seguimiento diario, devengando el propietario cada cambio de precio en el subyacente. La suspensión se diferencia de un contrato de futuros en que el propietario puede evitar un cambio de precio desfavorable, gracias al elemento de opción de venta. La opción de venta es bermudeña, lo que significa que el propietario puede ejercerla al final de cualquier día, reemplazando el cambio de precio de ese día con un piso, una constante especificada contractualmente que puede ser cualquier función del tiempo.

  • 00:05:00 Peter Carr explica el concepto de opciones y cómo funcionan en los acuerdos financieros. Una opción es un producto financiero que permite elegir cuándo detener la exposición a los cambios de precios siempre que haya más de un día en el contrato de suspensión de operaciones, lo que brinda flexibilidad. Uno solo puede ejercer una opción una vez y, en ese momento, debe ejercerla. El término opción se refiere a cuándo detener la exposición al subyacente mediante el ejercicio. Carr ilustra este concepto con un ejemplo de una opción de tres días y describe los tres pisos diferentes asociados con esta opción. El contrato luego expira cuando uno ejerce la opción, lo que debe ocurrir solo una vez. Si bien dichos contratos no se negocian actualmente, están integrados en muchos acuerdos financieros.

  • 00:10:00 Peter Carr analiza un ejemplo de un contrato con el estilo de ejercicio de las Bermudas llamado "stoptions". Aunque no se negocia directamente, las stoptions pueden ayudar a comprender las swaptions de las Bermudas y sus diferencias con las opciones escritas sobre niveles de precios. Al suponer cambios de precio iid, la valoración de parada se reduce a iteración de funciones, y al imponer un supuesto de distribución particular sobre los cambios de precio, la valoración se reduce a pseudo suma. La información obtenida de las paradas se puede utilizar para las opciones de las Bermudas negociadas con liquidez, y Carr continúa explicando la valoración de las paradas de uno y dos días. Los stop de un día pagan un piso fijo, mientras que los stop de dos días tienen dos pisos y pueden ejercerse tanto en el primer como en el segundo día.

  • 00:15:00 en esta sección, Peter Carr analiza la recompensa al final del segundo día si el ejercicio se realiza allí mismo. Conocido como u1, se calcula al final del primer día. Carr señala que dado que u1 es una constante conocida al final del día uno, también podría asumirse al final del día uno. Además, Carr sugiere factorizar u1 en el momento cero y cambiar el pago de a1 para que sea a1 - u1. Esto hace que el pago sea similar a una opción de venta casada o una opción de venta suscrita en u1, con u1 agregado al pago de la opción de venta. Carr explica que una vez que existe un modelo para valorar una opción vainilla, se puede valorar una opción de varios días, incluida una opción de 2 días, mediante el cálculo de la opción de venta incorporada.

  • 00:20:00 En esta sección, Peter Carr de NYU y Lorenzo Torricelli de la Universidad de Parma analizan cómo valorar opciones de dos y tres días asumiendo que los incrementos de precios son estadísticamente independientes entre sí y tienen la misma distribución. Usan una suposición común en estadística, conocida como iid (independiente e idénticamente distribuida), para una secuencia de variables aleatorias. Para valorar una opción de venta casada para una opción de dos días, utilizan una notación que involucra una parte conocida del pago, llamada a1, y el precio actual del activo subyacente, llamado a2. Para una opción de tres días, introducen un valor de continuación, que denotan por cv, y usan programación dinámica para calcular su valor.

  • 00:25:00 Peter Carr explica el proceso de recursividad hacia atrás y la valoración de una opción de venta casada. Comienza en el día dos porque todas las incertidumbres que se necesitan en el problema se resuelven al final del día dos. Establece el valor de continuación en el día dos con una oportunidad de ejercicio restante, que es el día tres, y luego retrocede hasta el día uno para calcular el valor del pago y el valor de continuación. Luego retrocede al tiempo cero en la fecha de valoración y calcula el valor de continuación y el pago, que es el valor de una opción de venta casada. La media del pago aleatorio es el valor de venta casado que se calculó anteriormente, y los parámetros que contribuyen a la distribución de los cambios de precios se conocen en el momento cero.

  • 00:30:00 En esta sección, Peter Carr analiza la valoración de una opción de venta casada con un precio de ejercicio A1 cuyo subyacente es otra opción de venta casada con un precio de ejercicio A2. Explica que esta valoración implica iterar una función, con un parámetro que puede diferir en diferentes momentos, y permitir que la función se componga sola. La función que se está iterando es una función de valor de estilo europeo de un día, y Carr señala que se puede encontrar una función que describa este valor y se itere en forma cerrada explotando algo llamado ecuación funcional asociativa. Al valorar la función de valor de venta casada directamente y exigir que resuelva la ecuación funcional de asociatividad, la distribución neutral al riesgo se puede determinar utilizando los resultados de Breeden-Litzenberger. La sección concluye con una explicación de que, con una función de un argumento y una g invertible, se puede determinar el valor de venta casado.

  • 00:35:00 Peter Carr explica el concepto de pseudosuma, que es una combinación de dos argumentos en una función. Al usar una función invertible, esta cantidad se puede usar para encontrar el valor de una opción basada en n a través de pseudosumas repetidas de los pisos. Para que este método esté libre de arbitraje, la función debe elegirse cuidadosamente y representarse como una expectativa neutral al riesgo de su pago. Carr revela que el generador de este método debe ser un logaritmo de cualquier base y el escalar b debe ser positivo. La opción de venta casada también debe evaluarse adecuadamente mediante el uso de inversas logarítmicas naturales g, lo que requiere diferenciar dos veces con respecto a la huelga para obtener la función de distribución. En última instancia, este método implica volver a un factor proporcional de b, que no es la desviación estándar, pero es proporcional a ella.

  • 00:40:00 Peter Carr analiza el uso de la distribución logística para representar los cambios de precio en la opción de venta casada. Deriva una fórmula para la venta casada con un precio de ejercicio a1 y una media subyacente a2, utilizando la exponencial de un producto financiero con dos componentes subyacentes. Se refiere a esto como una pseudo-suma y expande el conjunto de números reales para incluir menos infinito como elemento neutral. Explica que esto crea una estructura monoide conmutativa, que solo es posible con una valoración de opciones sin arbitraje y una distribución logística simétrica con colas exponenciales. La distribución logística permite una función de distribución acumulativa explícita y se considera más amigable que la distribución normal. Carr sugiere que la escala de la distribución logística es una función creciente del tiempo hasta el vencimiento de la opción.

  • 00:45:00 Peter habla de "stoptions", un contrato que combina las características de opciones y swaps. Las paradas implican el intercambio de una variable aleatoria logística por otra, donde las variables son independientes e idénticamente distribuidas. Para valorar una parada con n días, se necesita especificar una función b de t que conecte el ancho de la distribución logística con la longitud del horizonte temporal. El valor de una parada de las Bermudas con suelo viene dado por fórmulas sencillas, y la valoración y la cobertura se pueden realizar de forma analítica. Para una parada "at-the-money", el valor crece de forma sencilla, por el logaritmo del tiempo.

  • 00:50:00 Peter Carr analiza el modelo de fijación de precios de "paradas", que supone incrementos de iid y reduce la valoración a la evaluación de funciones iteradas. Al asumir una distribución logística para los incrementos comunes, el modelo se simplifica aún más a una pseudosuma de un tipo particular llamada función exponencial de suma logarítmica. Los precios de los valores subyacentes deben ser reales y no negativos debido a la responsabilidad limitada. El modelo se puede extender a las acciones, redefiniendo el contrato de opciones para multiplicar los relativos de precios en lugar de agregar incrementos de precios. La distribución resultante para respaldar una variable aleatoria positiva se denomina digum de potencia conjugada, que es una distribución de cola pesada con asimetría negativa, lo que la convierte en una buena elección. Hay futuras oportunidades de investigación para este modelo, y se puede aplicar a usos prácticos como contratos sincronizados con reuniones de la Reserva Federal.

  • 00:55:00 Peter Carr, profesor de la Universidad de Nueva York, analiza la adopción de un tipo de opción por parte del mercado y el proceso de encontrar un comprador y un vendedor. Habla de su conversación con el trader jefe de exóticos del Bank of America, quien mostró interés en comprar la opción, y los posibles vendedores, como una compañía de seguros o un plan de pensiones. El proceso de adopción implica encontrar un comprador, y Peter comparte que tiene planeada una llamada de Zoom con un amigo que trabaja para una compañía de seguros a este respecto. La conversación termina con la discusión de Lorenzo Torricelli sobre los modelos financieros basados en la distribución logística y los procesos asociados.

  • 01:00:00 En esta sección, Peter Carr analiza los detalles técnicos de la estructura de impuestos de las devoluciones de troncos del modelo positivo y las devoluciones en los modelos, que incluyen los procesos de logística de troncos, logística sesgada y devolución logística. Explica que estos procesos son puro salto y pueden ser considerados como una familia de tiempo infinitamente divisible, por lo que un teorema garantiza la existencia de un proceso aditivo estocásticamente continuo con incrementos independientes. Además, este proceso aditivo respalda la distribución de precios implícita que subyace en la fórmula de distribución de valores. Carr luego explica cómo este proceso es naturalmente un mercado y cómo posee buenas propiedades deseables que respaldan fórmulas de fijación de precios simples. Finalmente, presenta los resultados de pruebas numéricas y una comparación de densidad de los modelos de precios logísticos con modelos normales estándar.

  • 01:05:00 Peter Carr analiza las diferencias entre la forma de la distribución normal y logística en el modelo CPDA. Señala que en el modelo CPDA, la asimetría y la forma de la distribución cambian con el tiempo, mientras que en el mundo normal esto no sucede. Al observar la comparación entre la distribución normal y la logística, afirma que las distribuciones son bastante similares, pero se puede apreciar claramente la curtosis. También muestra los resultados de la estructura de su sistema acumulativo, donde observa que puede generar formas mucho más flexibles, como una variante de explosión y un aumento muy pronunciado a corto plazo de la asimetría. Finalmente, analiza las superficies de volatilidad implícitas para los modelos cpda, donde señala que la superficie de volatilidad puede ser flexible con solo unos pocos parámetros.

  • 01:10:00 Peter Carr de la Universidad de Nueva York y Lorenzo Torricelli de la Universidad de Parma analizan su modelo de "paradas" propuesto, que utiliza un paradigma conjugado y una distribución logística para crear una estructura temporal completamente flexible con un solo parámetro. El único parámetro crea simultáneamente más ancho y más sesgo negativo, pero debe estar entre cero y uno para evitar que la media del momento no exista. El modelo puede adaptarse a cualquier estructura de plazos en un ejercicio, pero es posible que no siempre se ajuste al mercado de manera óptima, ya que produce un gráfico con pendiente descendente, a diferencia de los gráficos con pendiente ascendente de volatilidad implícita contra el ejercicio. Carr y Torricelli reconocen que su modelo es una alternativa a los modelos de Black-Scholes y Bachelier, pero anticipan que su modelo no será lo suficientemente bueno para todas las situaciones. Argumentan que existe una infinidad incontable de operaciones binarias con propiedades similares a la suma y la multiplicación que tienen especial importancia para las finanzas, que su modelo pretende capturar.

  • 01:15:00 En esta sección, Peter Carr y Lorenzo Torricelli discuten la idea de la opcionalidad entre un strike y un simple, como una opción europea, así como la opcionalidad repetida como pseudosumatoria repetida, que es la opción Bermuda the remutants. Mencionan la importancia de tener en cuenta que hay más de dos relaciones de operaciones binarias al elegir una distribución, y terminan la discusión agradeciéndose mutuamente y deseando asistir a los seminarios de los demás.
Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (University of Parma)
Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (University of Parma)
  • 2021.04.14
  • www.youtube.com
Abstract: We introduce a new derivative security called a stoption. After paying an upfront premium, the owner of a stoption accrues realized price changes ...
 

Lorenzo Torricelli (Universidad de Parma) - "Procesos Logísticos Aditivos en Precios de Opciones"



Lorenzo Torricelli (Universidad de Parma) - "Procesos Logísticos Aditivos en Precios de Opciones"

Lorenzo Torricelli, un distinguido profesor de la Universidad de Parma, profundiza en las complejidades de la valoración de opciones al explorar el modelo logístico aditivo y la especificación autosimilar. En su esclarecedora presentación, aclara la fórmula para fijar el precio de las opciones vainilla utilizando estos modelos innovadores y ejemplifica su aplicación al mostrar una comparación de densidad entre el modelo de fijación de precios logístico y los modelos normales tradicionales.

Además, Torricelli realiza un análisis de referencia de la estructura de términos acumulativa para el modelo logístico frente a una revolución lineal de la estructura de términos para modelos homogéneos. Sus perspicaces observaciones revelan que el modelo logístico ofrece una flexibilidad significativamente mayor para dar forma a la estructura de términos, lo que proporciona una ventaja notable sobre los enfoques convencionales.

Para proporcionar una comprensión integral, Torricelli también examina las superficies de volatilidad asociadas con estos modelos. Señala la presencia de un sesgo positivo en el modelo derivado de la distribución sesgada de los rendimientos de los logaritmos y la curtosis de la distribución logística. Sin embargo, destaca la ausencia de sesgo en la distribución logística en sí misma, ya que exhibe simetría. Torricelli analiza además el impacto de los parámetros modales en la estructura temporal de la volatilidad, reconociendo el potencial de mejora en la parametrización elegida.

Como conclusión, Torricelli destaca que las fórmulas de opción derivadas de estos modelos son explícitas y conocidas, lo que facilita su implementación práctica. En particular, elogia la impresionante velocidad demostrada durante la prueba de rendimiento. Como testimonio de transparencia y colaboración académica, Torricelli planea hacer que el código asociado con estos modelos sea de acceso público, lo que beneficiará a investigadores y profesionales por igual.

  • 00:00:00 Lorenzo Torricelli de la Universidad de Parma presenta modelos financieros basados en la distribución logística, comenzando con ecuaciones de valoración para funcionales de opciones y funciones para valorar la cabina de mérito. Al tomar la derivada con respecto a k, se obtiene la distribución implícita del precio del valor, y se ve que la función logística está asociada con el subyacente de valor real, mientras que la distribución logística sesgada está asociada con el proceso de precio positivo proveniente de la valuación de venta por mérito. . Se considera la estructura infinitamente divisible de las distribuciones como una familia temporal y se verifica la existencia de un proceso aditivo, resultando procesos estocásticamente continuos con incrementos independientes que sustentan la distribución de precios implícita y determinan la fórmula del enunciado.

  • 00:05:00 Lorenzo Torricelli, profesor de la Universidad de Parma, está discutiendo el modelo logístico aditivo y la especificación auto-similar en el precio de opciones. Explica la fórmula para fijar el precio de las opciones estándar utilizando los modelos y las ejemplifica en términos del precio de la función del término. Muestra una comparación de densidad entre el modelo de precios logísticos y los modelos normales y observa que la forma de la distribución del modelo logístico cambia con el tiempo mientras que la forma de la distribución normal no. También compara la estructura de términos acumulativa para el modelo logístico con una revolución lineal de la estructura de términos para modelos homogéneos y observa formas mucho más flexibles con el primero.

  • 00:10:00 Lorenzo Torricelli analiza los gráficos del modelo CPDA y las superficies de volatilidad implícita de los modelos SLA y CPDA. Las superficies de volatilidad muestran que existe un sesgo en el modelo positivo debido a la distribución sesgada de los rendimientos de los logaritmos y la curtosis de la distribución logística. Sin embargo, no hay sesgo en la distribución logística ya que es simétrica. Torricelli menciona que los parámetros modales también impactan la estructura de términos de volatilidad de manera similar y que hay margen para mejorar la parametrización elegida. En general, las fórmulas de las opciones son explícitas y conocidas y la prueba de velocidad fue muy rápida. El código también se hará público.
Lorenzo Torricelli (University of Parma) - "Additive Logistic Processes in Option Pricing"
Lorenzo Torricelli (University of Parma) - "Additive Logistic Processes in Option Pricing"
  • 2021.04.12
  • www.youtube.com
On April 13th, 2021, as part of the Cornell-Citi Financial Data Science Seminar Series, Lorenzo Torricelli explains his work on logistic models in conjunctio...
 

Yumeng Ding (Cornell MFE '20) - "Interpretación de modelos de aprendizaje automático"



Yumeng Ding (Cornell MFE '20) - "Interpretación de modelos de aprendizaje automático"

Yumeng Ding, un investigador competente, profundiza en el ámbito de la interpretación de modelos de aprendizaje automático para predicciones de precios de acciones. En su análisis integral, explora una variedad de métodos de interpretación, incluidos diagramas de dependencia parcial, importancia de características de permutación, estadísticas de borde y LIME, para arrojar luz sobre el funcionamiento interno de estos modelos. Al emplear estos métodos, Ding pretende desentrañar la contribución de los factores individuales y sus efectos interactivos en la predicción de los precios de las acciones.

El estudio de Ding gira en torno a tres tipos de factores: técnicos, de calidad y de valor, que se utilizan como entradas para varios modelos de aprendizaje automático, como clasificadores y regresiones. Aprovechando los métodos de interpretabilidad mencionados anteriormente, desentraña las intrincadas relaciones entre estos factores y las predicciones del precio de las acciones. A través de un riguroso backtesting, Ding descubre que los modelos no lineales superan a los modelos lineales en términos de rendimiento. Además, observa que los efectos de diferentes factores exhiben variaciones temporales, destacando la naturaleza dinámica de la predicción del precio de las acciones. En última instancia, Ding identifica a AdaBoost como el modelo más adecuado para su escenario específico.

Es importante destacar que Ding subraya la importancia de los métodos de interpretabilidad para comprender los modelos de aprendizaje automático. Ella subraya que, si bien el enfoque vectorial proporciona información rápida sobre las interacciones más predictivas, no revela la calidad de estas interacciones. Ding enfatiza el valor de emplear diagramas de dependencia parcial bidimensionales para visualizar interacciones más simples de manera efectiva. Además, recomienda el método de diagrama de líneas para profundizar en las complejidades de las interacciones individuales y visualizar los efectos locales, siempre que los datos estén lo suficientemente claros del ruido.

Al resumir sus hallazgos, Ding enfatiza dos conclusiones clave de su proyecto. En primer lugar, confirma que los modelos de aprendizaje automático superan a las regresiones lineales ingenuas en la mayoría de los escenarios debido a su capacidad para capturar efectos de interacción complejos. En segundo lugar, destaca la viabilidad de interpretar modelos de aprendizaje automático aprovechando una variedad de métodos de interpretabilidad. Estas técnicas permiten a los investigadores dilucidar las contribuciones individuales de los factores y comprender sus influencias interactivas en las predicciones.

  • 00:00:00 Yumeng Ding analiza su enfoque para interpretar los modelos de aprendizaje automático utilizados para hacer predicciones de precios de acciones. Utilizaron tres tipos de factores (técnicos, de calidad y de valor) para hacer predicciones utilizando varios modelos de aprendizaje automático, como clasificadores y regresiones. Para interpretar sus modelos, utilizaron métodos de interpretabilidad como gráficos de dependencia parcial, importancia de la característica de permutación, estadísticas de borde y LIME, que permitieron el desglose de los efectos de características individuales y sus interacciones. A través de su backtesting, encontraron que los modelos no lineales superaron a los modelos lineales y que los efectos de los factores cambiaron con el tiempo. Llegaron a la conclusión de que AdaBoost era el mejor modelo para su escenario.

  • 00:05:00 Yumeng Ding analiza varios métodos para interpretar modelos de aprendizaje automático. Ella enfatiza que si bien el enfoque vectorial es rápido y eficiente para encontrar las interacciones más predictivas, solo muestra la fuerza en lugar de la calidad de las interacciones. Ella destaca que la dependencia parcial bidimensional es necesaria para visualizar algunas interacciones fáciles. Ding sugiere que el método de diagrama de líneas es adecuado para sumergirse en los detalles de las interacciones individuales y visualizar las interacciones locales, siempre que los datos no sean demasiado ruidosos. Concluye señalando que su proyecto destaca dos conclusiones: en primer lugar, los modelos de aprendizaje automático superan las regresiones lineales ingenuas en la mayoría de los escenarios debido a su capacidad para capturar los efectos de interacción. En segundo lugar, la interpretación de los modelos de aprendizaje automático es posible con los diversos métodos de interpretabilidad disponibles, que nos permiten explicar cómo los factores individuales contribuyen a las predicciones tanto de forma individual como interactiva.
Yumeng Ding (Cornell MFE '20) - "Interpreting Machine Learning Models"
Yumeng Ding (Cornell MFE '20) - "Interpreting Machine Learning Models"
  • 2021.03.12
  • www.youtube.com
March 9, 2021CFEM alumna Yumeng Ding discusses her team capstone project, which was titled, “Interpreting Machine Learning Models.” By utilizing Machine Lear...
 

Silvia Ruiz (Cornell MFE '20): "Cómo predecir movimientos bursátiles utilizando técnicas de PNL"



Silvia Ruiz (Cornell MFE '20): "Cómo predecir movimientos bursátiles utilizando técnicas de PNL"

Silvia Ruiz, recién graduada del programa Cornell MFE, comparte ideas de su proyecto centrado en predecir los precios de las acciones utilizando técnicas de PNL (Procesamiento del lenguaje natural). El objetivo de la investigación de su equipo fue explorar la relación entre las presentaciones corporativas, como los informes 10-K y 10-Q, y el impacto posterior en los precios de las acciones. Para lograr esto, recopilaron un conjunto de datos sustancial que consta de 1095 informes del sitio web de EDGAR, que abarca 50 empresas en cinco sectores del S&P 500.

Inicialmente, Ruiz y su equipo experimentaron con modelos basados en diccionarios pero encontraron limitaciones en su efectividad. Para abordar esto, incorporaron métodos avanzados como el modelo word to back y Finberg, que resultó crucial para comprender los matices contextuales integrados en los archivos corporativos. Además, emplearon varias medidas de sentimiento, incluida la polaridad y la complejidad de las palabras, así como un modelo de impulso xg, para predecir los movimientos del precio de las acciones.

La precisión de sus predicciones se evaluó en dos marcos de tiempo diferentes. A corto plazo, su modelo logró una notable precisión del 61 %, mientras que a largo plazo demostró una respetable precisión del 53 %. Aprovechando estas predicciones como señales para decisiones de inversión, superaron a una cartera igualmente ponderada. Sin embargo, Ruiz destaca la necesidad de realizar más investigaciones en diversos sectores para mejorar la precisión y la generalización de sus hallazgos.

Silvia Ruiz concluye su discusión ofreciendo generosamente su información de contacto y proporcionando un enlace al repositorio de su proyecto en Github. Este gesto fomenta las consultas de seguimiento y promueve la colaboración para avanzar en la comprensión y aplicación de las técnicas de PNL en el dominio de la predicción del precio de las acciones.

  • 00:00:00 Silvia Ruiz, recién graduada de Cornell MFE, habla sobre su proyecto sobre si los precios de las acciones se pueden predecir utilizando técnicas de PNL. Sylvia y su equipo intentaron investigar el impacto de las presentaciones corporativas como 10k y 10q en los precios de las acciones de una empresa y recopilaron datos de 1095 informes del sitio web de edgar de 50 empresas del S&P 500 de cinco sectores. Descubrieron que el uso de modelos basados en diccionarios no era efectivo y requería los métodos de la palabra para respaldar el modelo y Finberg para comprender el contexto. Finalmente, utilizaron una variedad de medidas de sentimiento, incluida la polaridad y la complejidad de las palabras, y ejecutaron un modelo de impulso xg con la variable de predicción de los precios de las acciones.

  • 00:05:00 Silvia Ruiz explica cómo intentó predecir los movimientos de las acciones utilizando técnicas de PNL. Ella menciona que su equipo tuvo en cuenta los rendimientos del mercado tomando los precios de las acciones antes de la publicación del informe y cinco días después, comparándolos con el rendimiento del mercado. La precisión a corto plazo fue del 61 %, mientras que a largo plazo fue del 53 %, y utilizaron sus predicciones como señales para invertir en acciones. Su estrategia fue más efectiva que la cartera de igual ponderación, pero se requiere más investigación, particularmente en diferentes sectores, para obtener resultados más precisos. Ella comparte su información de contacto y el enlace de Github para más consultas.
Silvia Ruiz (Cornell MFE '20): "How to Predict Stock Movements Using NLP Techniques"
Silvia Ruiz (Cornell MFE '20): "How to Predict Stock Movements Using NLP Techniques"
  • 2021.05.12
  • www.youtube.com
Silvia Ruiz will discuss her CFEM capstone project, which was titled, “How to Predict Stock Movements Using NLP Techniques.” By utilizing NLP techniques, the...
 

Charles-Albert Lehalle: "Un intento de comprender el procesamiento del lenguaje natural"



Charles-Albert Lehalle: "Un intento de comprender el procesamiento del lenguaje natural"

En esta presentación de video, Charles-Albert Lehalle y su equipo profundizan en las aplicaciones del procesamiento del lenguaje natural (NLP) en el dominio financiero. Su discusión gira en torno a tres áreas clave: análisis de sentimiento, predicción de precios de acciones y modelado de costos de transacción. Reconocen los desafíos asociados con la PNL, como el riesgo de sobreajuste y sesgo en las incrustaciones, y proponen posibles soluciones, incluido el aprendizaje multitarea y la expansión de léxicos. El equipo explora tanto el potencial como las limitaciones de la PNL en la industria financiera, enfatizando la importancia de comprender el contexto y los patrones de lenguaje dentro de diferentes sectores.

Lehalle y su equipo presentan sus propios experimentos utilizando técnicas de PNL, brindando información valiosa sobre cómo la PNL puede comprimir información y ofrecer indicadores informativos para los analistas financieros. Destacan los desafíos de emplear NLP en finanzas, incluido el requisito de conocimiento específico del dominio y la dificultad de extraer información significativa de datos de texto no estructurados. También se analizan las preocupaciones éticas en torno al uso de la PNL en las finanzas, como el aprovechamiento de los datos de las redes sociales con fines comerciales.

A lo largo de la presentación, Charles-Albert Lehalle comparte su experiencia y conocimiento sobre varios temas de PNL. Explica el uso de métodos de PNL basados en léxico y en incrustación en finanzas, proponiendo una combinación de ambos enfoques para capturar características léxicas y probabilísticas en datos de texto. Se abordan los desafíos de distinguir entre sinónimos y antónimos dentro de incrustaciones, y el equipo de Lehalle explora modelos generativos para controlar la estructura y el sentimiento del texto. Se enfatiza la importancia de comprender las incrustaciones y los modelos de referencia, como las matrices que representan distribuciones de palabras conjuntas.

Lehalle explora aún más la importancia del contexto en la PNL, analizando cómo las incrustaciones pueden estar sesgadas por palabras positivas y negativas según el contexto. Explica el uso de cadenas de Markov para estructurar modelos de matriz de referencia y presenta experimentos sobre la identificación de sinónimos dentro de incrustaciones. Se reconocen las limitaciones de NLP en la captura de nombres de empresas y sus polaridades asociadas, junto con la sugerencia de aprendizaje multitarea para incrustaciones supervisadas. Los ponentes también abordan el desequilibrio de palabras positivas y negativas del Loughran-McDonald Lexicon y los desafíos de procesar la ironía en los textos financieros.

La presentación concluye con una descripción general de un proyecto de Sylvia Ruiz, recién graduada de Ingeniería Financiera de Cornell. El proyecto se enfoca en predecir los precios de las acciones utilizando técnicas de NLP, específicamente extrayendo secciones de discusión de gestión de las presentaciones 10-K y 10-Q de 50 compañías S&P 500 y analizando el sentimiento para evaluar su impacto en los precios de las acciones. Lehalle analiza las limitaciones de los modelos basados en diccionarios y explica cómo su equipo amplió el diccionario, empleó FinBERT para comprender el contexto y utilizó varias funciones para medir el sentimiento. Lograron un mejor rendimiento que una cartera igualmente ponderada tanto a corto como a largo plazo.

En resumen, Charles-Albert Lehalle y su equipo arrojaron luz sobre el potencial y los desafíos de la PNL en las finanzas. Ofrecen conocimientos, experimentos y estrategias para aplicar técnicas de PNL de manera efectiva, al tiempo que enfatizan la importancia del uso responsable y una comprensión profunda tanto de la tecnología como del dominio financiero.

  • 00:00:00 El ponente presenta a Charles-Albert Lehalle, experto en finanzas cuantitativas, que hará una presentación de 40 minutos sobre PNL. El orador menciona las publicaciones anteriores de Lehalle sobre finanzas cuantitativas, que cubren múltiples temas sobre PNL. El orador también presenta a Sylvia Ruiz, quien recientemente se graduó de Cornell y trabajó en un proyecto de PNL con Rebellion Research. La charla tiene como objetivo ayudar a las personas a comenzar con la PNL, que a menudo puede resultar intimidante debido a la necesidad de extraer datos y aplicar paquetes. El orador aborda brevemente el uso de la PNL en las finanzas y menciona que el equipo de Lehalle está utilizando la PNL desde hace más de un año, con algunos predictores y estrategias en producción. La charla se basa en un trabajo en curso de Mengedar, y el orador alienta a la audiencia a enviar enlaces o artículos que consideren que deberían incluirse en la presentación.

  • 00:05:00 Charles-Albert Lehalle analiza las posibilidades de utilizar el procesamiento del lenguaje natural (NLP) en el comercio financiero. Al utilizar NLP, los comerciantes pueden acceder rápidamente a la información en forma de texto, como transcripciones de anuncios de ganancias, redes sociales y noticias financieras. Esta información puede dar a los comerciantes una ventaja de velocidad para comprar antes que otros y, por lo tanto, hacer subir el precio. Además, los comerciantes pueden usar NLP para cruzar una gran cantidad de texto sobre muchas empresas y clasificarlas según los rendimientos esperados. Sin embargo, Lehalle señala que la PNL tiene un alto riesgo de sobrealimentación debido a la cantidad de parámetros posibles. No obstante, al comprender la información recibida, los comerciantes pueden ajustar sus estrategias en consecuencia para obtener ganancias potenciales.

  • 00:10:00 Charles-Albert Lehalle analiza el uso de métodos de procesamiento de lenguaje natural (NLP) basados en léxico y en incrustación en finanzas. Explica cómo los sistemas basados en léxico son construidos por analistas humanos que anotan una gran cantidad de texto para identificar el sentimiento positivo o negativo sobre las acciones, mientras que los sistemas basados en incrustaciones modelan el contexto probabilístico de las palabras. Lehalle propone que estos dos métodos se combinen para capturar las características léxicas y probabilísticas de los datos de texto en los mercados financieros. También describe su enfoque para explorar cómo las incrustaciones pueden capturar sinónimos y antónimos, lo que puede tener implicaciones prácticas para el análisis predictivo en finanzas.

  • 00:15:00 En esta sección, Charles-Albert Lehalle analiza los desafíos que implica el procesamiento del lenguaje natural (PNL). Si bien la captura de sinónimos puede reducir la complejidad de un texto, las incrustaciones pueden tener dificultades para distinguir entre sinónimos y antónimos. Esto crea un desafío si desea inyectar su léxico en un sistema que no puede diferenciar entre ellos. El equipo de Lehalle está intentando desarrollar un modelo generativo de un texto para controlar la estructura del texto y el sentimiento y ver si pueden recuperar lo que pusieron en el idioma. Planean utilizar un gran corpus de noticias financieras para aplicar estas técnicas y analizar cómo funcionan. Los aspectos teóricos de este proceso incluyen el uso del método de palabra clave 2x y una matriz estocástica.

  • 00:20:00 En esta sección, Charles-Albert Lehalle explica el procesamiento del lenguaje natural usando el modelo skip-gram word2vec. Analiza la descomposición de bajo rango de la matriz para incrustaciones y cómo se puede reescribir como una red neuronal con una salida máxima suave. También explica cómo las cabezas de atención en modelos como BERT son más locales, con muchas incrustaciones locales que abordan el contexto. Él enfatiza la importancia de comprender las incrustaciones y el modelo de referencia, que es una gran matriz oculta que se utiliza para optimizar la función de pérdida.

  • 00:25:00 Charles-Albert Lehalle explica el concepto de modelos de referencia en el procesamiento del lenguaje natural. Analiza los diferentes tipos de modelos de referencia, incluida una gran matriz que representa la distribución conjunta de todas las palabras, una estimación estadística del verdadero modelo de referencia y el modelo de referencia oculto que generó el texto. También habla de los sinónimos frecuentistas, que son palabras que tienen la misma incrustación aunque sean antónimos desde el punto de vista semántico, debido a su frecuente aparición en la misma posición en un corpus. Esta comprensión es importante en la discusión de la ética en el procesamiento del lenguaje natural.

  • 00:30:00 En esta sección, Lehalle analiza la importancia del contexto en el procesamiento del lenguaje natural y brinda ejemplos de cómo las incrustaciones pueden estar sesgadas para palabras positivas y negativas según el contexto. También explica cómo generar un corpus usando una cadena de Markov puede ayudar a estructurar el modelo de matriz de referencia grande para palabras y cómo la función de pérdida para que una palabra se incruste correctamente es una entropía cruzada entre dos distribuciones. El primer experimento presentado consiste en diseñar lenguajes sintéticos con sinónimos y tratar de recuperar los sinónimos como bloques en las incrustaciones. Sin embargo, se encuentra que las incrustaciones tienen poca identificabilidad, lo que dificulta la recuperación de un espacio de baja dimensión a partir de una gran incrustación. Finalmente, se calculan las similitudes de coseno entre incrustaciones de sinónimos.

  • 00:35:00 Charles-Albert Lehalle analiza el uso del Lung Hand Micro Lexicon para entrenar incrustaciones para hacer una distinción entre titulares de noticias financieras positivas y negativas. Señala que las incrustaciones no están diseñadas para diferenciar sinónimos que aparecen juntos con frecuencia, como las palabras en los titulares, por lo que usar incrustaciones en los titulares para identificar palabras positivas y negativas es un desafío. Sin embargo, al observar el cuerpo de noticias financieras a lo largo del tiempo, las métricas de similitud de coseno muestran que las palabras positivas y negativas se distinguen claramente entre sí. Lehalle también muestra que los nombres de empresas, como los bancos, durante una crisis financiera, están más cerca de las palabras negativas que de las positivas. En general, el posicionamiento del vocabulario dentro de las incorporaciones afecta en gran medida su capacidad para distinguir entre palabras positivas y negativas en las noticias financieras.

  • 00:40:00 El orador Charles-Albert Lehalle analiza las limitaciones del procesamiento del lenguaje natural (NLP) cuando se trata de nombres de empresas y sus polaridades asociadas, así como la no estacionariedad de las incrustaciones. Sugiere que las incrustaciones se centren en priorizar la distribución de las palabras vecinas, lo que les dificulta diferenciar entre frecuencias y sinónimos. Lehalle continúa sugiriendo que el aprendizaje multitarea, entrenando incrustaciones simultáneamente con una tarea supervisada por un léxico polarizado, podría ser una buena idea. Además, señala que los nombres de las empresas pueden ser un indicador útil de la reputación, y que las noticias generadas por la PNL son más preocupantes que las empresas que intentan engañar a los algoritmos de la PNL. Finalmente, explica que los algoritmos de NLP podrían usarse potencialmente para extraer información y etiquetarla con un nuevo valor, lo que permitiría deducir estimaciones de analistas en lugar de precios.

  • 00:45:00 En esta sección del video, los oradores discuten el desequilibrio entre palabras negativas y positivas en el Loughran-McDonald Lexicon, que fue creado por humanos y se usa en el procesamiento del lenguaje natural (NLP) para el análisis de textos financieros. Sugieren que el desequilibrio podría deberse a la naturaleza legal y estructurada de los documentos financieros escritos por abogados que tienden a ser protectores. Los oradores también abordan el uso de PNL en el modelado de costos de transacción y los desafíos de procesar la ironía en textos financieros extensos. Luego presentan a Sylvia Ruiz, recién graduada del programa de Ingeniería Financiera de Cornell, quien presenta el proyecto de su equipo sobre la predicción de precios de acciones utilizando técnicas de PNL. El proyecto se centró en extraer secciones de discusión de gestión de las presentaciones 10K y 10Q de 50 empresas en el S&P 500 y analizar el sentimiento para determinar el impacto en los precios de las acciones.

  • 00:50:00 Charles-Albert Lehalle analiza los problemas del uso de modelos basados en diccionarios para el procesamiento del lenguaje natural (PNL) y cómo él y su equipo utilizaron técnicas de PNL para mejorar sus modelos. Explica cómo ampliaron su diccionario para tener una clasificación de palabras más equilibrada mediante el uso de un modelo skipgram y el modelo FinBERT para comprender el contexto. Luego utilizaron varias características para medir el sentimiento y la complejidad de las palabras antes de ejecutar un modelo de impulso xg para predecir si el precio de una acción subiría o bajaría. Aunque su precisión fue relativamente baja, pudieron crear una estrategia que se desempeñó mejor que una cartera de igual ponderación tanto a corto como a largo plazo.

  • 00:55:00 Charles-Albert Lehalle analiza el potencial del procesamiento del lenguaje natural (NLP) en la industria financiera. Él sugiere que se necesita más investigación y que puede ser beneficioso dividir la industria en sectores porque cada sector tiene un patrón de idioma diferente. Además, desaconseja tratar de comprender el texto y predecir simultáneamente cosas como las expectativas, ya que la PNL puede usarse mejor para comprimir información y proporcionar indicadores informativos. En cambio, los analistas pueden usar su propio razonamiento para comparar las predicciones con las expectativas y crear un "predictor sorpresa". En general, Lehalle enfatiza la necesidad de comprender las limitaciones y fortalezas de la PNL antes de intentar integrarla en el análisis financiero.

  • 01:00:00 En esta sección, los disertantes discuten el uso del entrenamiento contradictorio para modelos de PNL para aumentar su solidez. Esta técnica se puede aplicar para abordar los sesgos en el lenguaje, como la neutralidad de género. Los oradores también consideran usar el entrenamiento adversario para romper la neutralidad entre las palabras positivas y negativas, pero advierten que esto puede no ser adecuado para desarrollar estrategias comerciales. Luego, la discusión pasa a los desafíos de extraer secciones de documentos financieros, como presentaciones de 10K, debido a las diferencias en la forma en que las empresas etiquetan y dan formato a sus secciones.

  • 01:00:00 Los oradores discuten el uso del entrenamiento adversario para modelos de PNL para aumentar su robustez. Esta técnica se puede aplicar para abordar los sesgos en el lenguaje, como la neutralidad de género. Los oradores también consideran usar el entrenamiento adversario para romper la neutralidad entre las palabras positivas y negativas, pero advierten que esto puede no ser adecuado para desarrollar estrategias comerciales. Luego, la discusión pasa a los desafíos de extraer secciones de documentos financieros, como presentaciones de 10K, debido a las diferencias en la forma en que las empresas etiquetan y dan formato a sus secciones.

  • 01:05:00 En esta sección del video, Charles-Albert Lehalle explica que no comparó sus propias incrustaciones y el índice de sentimiento de Bloomberg porque no era el propósito del estudio. Él cree que los predictores de Bloomberg probablemente están tratando de construir predictores en lugar de índices, que son difíciles de comparar. Él revela que hay documentos sobre la construcción de factores empíricos de valoración de activos usando NLP y explica que NLP puede usarse para crear numerosos factores basados en la información contenida en el corpus, como el factor 10k o un factor de sección de riesgo. Por lo tanto, la PNL es solo una técnica y el corpus es el factor más importante en este caso.
Charles-Albert Lehalle: "An Attempt to Understand Natural Language Processing"
Charles-Albert Lehalle: "An Attempt to Understand Natural Language Processing"
  • 2021.02.17
  • www.youtube.com
Full Title: "An Attempt to Understand Natural Language Processing And Illustration On A Financial Dataset"Speaker: Charles-Albert Lehalle (Capital Fund Manag...