Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Martin Scholl (Universidad de Oxford): "Estudio de la ecología del mercado utilizando modelos basados en agentes"
Martin Scholl (Universidad de Oxford): "Estudio de la ecología del mercado utilizando modelos basados en agentes"
Martin Scholl, investigador de la Universidad de Oxford, ha profundizado en el estudio de la ecología del mercado utilizando modelos basados en agentes. A diferencia de los enfoques tradicionales que se basan en supuestos como la hipótesis del mercado eficiente, Scholl discrepa de la teoría del equilibrio de las expectativas racionales comúnmente empleada en las finanzas neoclásicas. Él cree que esta teoría exige que todos los participantes tengan una comprensión perfecta del mundo real, lo cual no es realista dadas las limitaciones cognitivas tanto de los inversores minoristas como de los administradores de fondos. En cambio, aboga por aplicar herramientas de la biología para analizar datos financieros del mundo real, ofreciendo una nueva perspectiva para comprender los mercados financieros.
Para explorar la ecología del mercado, Scholl compara las estrategias de inversión con las especies en biología, con inversores individuales que representan individuos de una especie determinada. La riqueza agregada invertida usando una estrategia particular es comparable a la abundancia o al tamaño total de la población de esa especie. En un modelo de juguete de un juego de inversión, Scholl presenta un escenario simplificado en el que los agentes pueden optar por dejar su riqueza en una cuenta del mercado monetario o invertir en acciones que pagan dividendos. Este modelo permite el examen de varias estrategias de inversión y objeciones al supuesto neoclásico de racionalidad perfecta.
Scholl identifica diferentes estrategias de inversión empleadas en modelos basados en agentes para estudiar la ecología del mercado. La primera es una estrategia perfectamente racional, donde el valor liquidativo se divide entre las acciones y el efectivo. Un inversor de valor estima la tasa de crecimiento del dividendo para hacer pronósticos futuros y comprender el precio futuro de las acciones. La segunda estrategia involucra seguidores de tendencias que analizan precios recientes y extrapolan tendencias. La tercera estrategia abarca a los comerciantes de ruido que ingresan al mercado para satisfacer las necesidades de liquidez pero que no son sensibles al precio en una escala de tiempo breve. Sin embargo, su proceso de ruido de inversión media está conectado con el valor fundamental en una escala de tiempo larga.
Para simular los mecanismos del mercado y estudiar la ecología del mercado, Scholl y su equipo utilizan modelos basados en agentes con la ayuda de paquetes de software. Aseguran la comparabilidad entre diferentes corridas del modelo fijando dotaciones y dividiendo las dotaciones iniciales entre individuos de diferentes especies, manteniendo un registro de la participación relativa. Las simulaciones se ejecutan durante un período de 200 años, lo que permite observar el rendimiento anual medio de cada especie. Curiosamente, encuentran que cada estrategia tiene al menos una región en la que es más rentable, independientemente de su abundancia.
En sus experimentos, Scholl examina el comportamiento de los seguidores de tendencias y el impacto de reinvertir las ganancias. Él observa que el mercado pasa la mayor parte de su tiempo en una región inestable y caótica con grandes valores atípicos, lo que resulta en un ruido moteado. Cuando los inversores reinvierten sus beneficios, las trayectorias fluctúan en torno a un punto central identificado, pero no convergen por completo hacia él. El aumento de la concentración de seguidores de tendencias conduce a una mayor volatilidad en los rendimientos. Scholl atribuye el rápido alejamiento de los seguidores de tendencias a la racionalidad de los inversores y la autocorrelación positiva en el proceso de dividendos.
Scholl explica que se pueden emplear modelos basados en agentes para construir una matriz de comunidad financiera, similar a las ecuaciones de Volterra de depredador y presa que se usan en biología. El retorno de una estrategia particular se equipara al tamaño de la población, y la sensibilidad del retorno a los cambios en el tamaño de la población representa la matriz de la comunidad. En el mercado financiero, la competencia entre diferentes estrategias surge cuando los precios se desvían de los puntos de equilibrio. Scholl enfatiza que los mercados financieros muestran una dependencia de la densidad, lo que hace que las interacciones entre especies sean más complejas que en los sistemas biológicos. Esta dependencia de la densidad conduce a escenarios como aumentos de precios similares a burbujas, pero reconoce que tales situaciones no son realistas.
En el contexto de la ecología del mercado, Scholl analiza las implicaciones prácticas de sus hallazgos. Presenta un modelo lineal que utiliza la abundancia de especies para describir las relaciones entre los diferentes tipos de depredadores, lo que impacta en los resultados del mercado. Este enfoque destaca la naturaleza multidimensional de las inversiones y demuestra la importancia de dimensionar adecuadamente las estrategias para evitar pérdidas o convertirse en presas en mercados financieros altamente dependientes de la densidad. Desafía la visión tradicional de que los precios de las acciones reflejan toda la información fundamental disponible y presenta los mercados financieros como sistemas complejos influenciados por diversas condiciones.
Scholl profundiza en su uso de un modelo lineal simple dentro de los modelos basados en agentes para estudiar la ecología del mercado. Al analizar las participaciones y la abundancia relativa de las actividades del mercado, descubrió que este enfoque superaba a los modelos derivados de departamentos que asumen la racionalidad y traducen los fundamentos automáticamente. Sin embargo, reconoce las limitaciones de su modelo y enfatiza la necesidad de más investigación para mejorar su realismo. Un aspecto que aborda es la sensibilidad del modelo a diferentes recetas y definiciones, particularmente en relación con el seguimiento de tendencias. Si bien los dividendos juegan un papel importante en su modelo, la incorporación de elementos más realistas para los mercados financieros del mundo real requeriría pasos adicionales.
Con respecto a la adaptabilidad de las creencias de los agentes en su modelo, Scholl señala que las operaciones de mercado a menudo implican que los administradores de fondos sigan las estrategias descritas en los prospectos durante períodos prolongados. Esto indica una tendencia hacia procesos mecánicos de asignación de activos. Como resultado, Scholl se inclina por modelar un comportamiento menos adaptativo y menos inteligente. Sin embargo, destaca que otros investigadores de su grupo en la Universidad de Oxford están explorando activamente la aplicación de algoritmos evolutivos para cambiar parámetros e incluso innovar nuevas estrategias.
La investigación de Martin Scholl se centra en el estudio de la ecología del mercado utilizando modelos basados en agentes. Desafía las teorías y suposiciones financieras tradicionales al aplicar conceptos de la biología para comprender mejor los mercados financieros. Al comparar estrategias de inversión con especies en biología, analizar diferentes estrategias y simular mecanismos de mercado, Scholl descubre la complejidad de los mercados financieros y la interacción entre varias estrategias. Sus hallazgos sugieren que los mercados financieros dependen en gran medida de la densidad, y el tamaño adecuado de las estrategias de inversión es crucial para evitar pérdidas y convertirse en presas de este ecosistema dinámico. El trabajo de Scholl proporciona información valiosa sobre la naturaleza de los mercados como sistemas complejos, en contraste con la visión tradicional de que los precios de las acciones reflejan únicamente información fundamental.
Kevin Webster: "Cómo el impacto del precio distorsiona la contabilidad de pérdidas y ganancias"
Kevin Webster: "Cómo el impacto del precio distorsiona la contabilidad de pérdidas y ganancias"
En un video de YouTube, Kevin Webster profundiza en el tema de cómo el impacto de los precios puede distorsionar los estados contables de pérdidas y ganancias (P&L). Enfatiza la importancia de modelar con precisión el impacto de los precios para administrar el riesgo de manera efectiva y destaca la importancia de administrar el riesgo de liquidez para evitar quedarse con una posición ilíquida. Webster reconoce que existen varios modelos de impacto de precio disponibles, pero generalmente están de acuerdo en la mayoría de los datos.
La charla comienza abordando la intersección entre el impacto de los precios y el riesgo de liquidez, señalando en particular que la liquidez de los principales mercados a menudo se daba por sentada antes de la crisis financiera. Webster comparte poderosas citas que ilustran cómo el impacto de los precios crea una ilusión de ganancias, lo que lleva a dislocaciones de precios que se alejan de los valores financieros. El objetivo de la charla es formalizar matemáticamente este concepto, proporcionando un marco cuantitativo basado en estimar el impacto de mercado de la liquidación para eliminar la ilusión de ganancia.
Webster explica el impacto del precio como un modelo causal para el comercio, donde el comercio más agresivo empuja los precios aún más y viceversa. Los modelos de impacto de precios se utilizan ampliamente en el análisis de costos de transacción y la ejecución óptima, sirviendo como herramientas previas a la negociación para estimar los costos de transacción esperados y optimizar las estrategias de ejecución. Muestra un informe de análisis de costos de transacción simulado que permite a los comerciantes evaluar el rendimiento de sus algoritmos trimestralmente, con un enfoque en minimizar el deslizamiento de órdenes y considerar tanto los movimientos mecánicos como el deslizamiento alfa.
El ponente analiza las directrices publicadas por la Autoridad Europea de Valores y Mercados (ESMA) en relación con las pruebas de estrés de liquidez, que implican simular la liquidación de activos durante los períodos de estrés del mercado. La simulación de reacciones del mercado, como dislocaciones de precios, y el empleo de estrategias de cobertura son cruciales para reducir la exposición al riesgo. Webster hace referencia a diversas publicaciones sobre pruebas de estrés de liquidez e impacto de los precios en las pérdidas y ganancias contables, incluidos los trabajos de Cascioli, Boucheron, Farmer y comités reguladores como ESMA y Baffled Committee. Enfatiza la necesidad de pruebas de estrés de liquidez para mitigar situaciones que podrían afectar la contabilidad de pérdidas y ganancias y resultar en altos costos de liquidación.
Se introduce el concepto de huella comercial, que mide el efecto distorsionador del impacto del precio en las pérdidas y ganancias contables y vincula diferentes definiciones de pérdidas y ganancias. Webster presenta un modelo simple de venta forzosa para ilustrar las importantes conclusiones sobre la contabilidad de pérdidas y ganancias extraídas del artículo de Casadio-Bouchard-Farmer. Explica cómo el número de comerciantes y gerentes de plataforma que observan a diario sobreestima su P&L final, lo que lleva a una deflación cuando se completa la operación. Sin embargo, esta propiedad de inflación se puede medir y mostrar en tiempo real, proporcionando información procesable para los comerciantes. Webster señala que las pérdidas por inflación de posición suelen ser temporales y dependen de la tolerancia al riesgo.
Se discuten los temas relacionados con la valoración de una posición accionaria y su impacto en el P&L de una empresa. Webster destaca la ambigüedad a la hora de determinar qué precios utilizar para marcar la posición de las acciones y la diferencia entre las pérdidas y ganancias contables y las pérdidas y ganancias fundamentales utilizadas por los algoritmos de negociación. La huella comercial se define como la diferencia entre las pérdidas y ganancias contables y las pérdidas y ganancias fundamentales, y la ambigüedad se resuelve cuando se cierra la posición. El disertante explora la inflación de posiciones, haciendo ciertas suposiciones bajo las cuales se cumple esta propiedad. También se aborda el modelo de impacto y sus dos casos, el topo OW original y el topo W estudiado por Fruehwirth y Bond.
Webster explica que para que el modelo tenga sentido, se debe cumplir una condición de no arbitraje entre lambda y beta, junto con una condición de ecuación de autofinanciamiento. Profundiza en el cálculo de las pérdidas y ganancias esperadas en el momento del cierre y cómo la huella comercial introduce un sesgo en las pérdidas y ganancias contables. La propiedad de inflación de la posición hace que la posición se infle durante la fase de entrada de la posición, permanezca durante la fase de mantenimiento y finalmente se evapore. Todos estos aspectos se pueden observar en tiempo real en una pantalla de operaciones, proporcionando a los operadores información valiosa.
Webster explica además las distorsiones en la contabilidad de pérdidas y ganancias causadas por el impacto de los precios. Analiza cómo los comerciantes pueden realizar transacciones rentables incluso sin alfa, pero advierte que estas ganancias son de corta duración debido a los costos de transacción. Monitorear las dislocaciones de precios desde el principio es crucial para evitar pérdidas. Además, Webster señala que los administradores de carteras prefieren ver sus carteras como un todo e introduce el concepto de una cartera estacionaria, que controla el tamaño y la rotación de una cartera en el mundo de las finanzas matemáticas.
Luego se explora el concepto de una cartera estacionaria en relación con la estimación de los costos de transacción corrientes. Al comprender la escala de tiempo del propagador, los comerciantes pueden estimar hasta qué punto sus posiciones están infladas y la ilusión de ganancias que pueden perder al liquidar sus posiciones. Webster demuestra el marco utilizando datos empíricos, mostrando su aplicabilidad a escenarios del mundo real. Aplica el marco a un modelo de venta forzosa y explica las diferencias entre las pérdidas y ganancias contables y las pérdidas y ganancias fundamentales, destacando cómo informan diferentes funciones objetivas basadas en la aversión al riesgo de un comerciante.
El orador profundiza en el impacto de las ventas forzadas o la actividad comercial de otros participantes del mercado en la posición y las pérdidas y ganancias de un operador. La cobertura agresiva puede generar efectos de hacinamiento e inflación de posición, lo que resulta en pérdidas permanentes. Modelar con precisión el impacto de los precios es crucial para una gestión de riesgos eficaz, y se enfatiza la gestión del riesgo de liquidez para evitar terminar con posiciones ilíquidas.
Webster reconoce que, si bien hay muchos modelos diferentes de impacto de precios disponibles, generalmente coinciden en la mayoría de los datos. Sin embargo, pueden surgir diferencias en la cantidad y duración de la persistencia del impacto. Las dislocaciones temporales pueden durar desde un par de días hasta un mes. Desde una perspectiva de gestión de riesgos, existe un curso de acción claro, mientras que desde una perspectiva de comerciante y rendimiento, la comunicación efectiva se vuelve clave. Comprender si las pérdidas y ganancias son mecánicas o no y eliminar la parte mecánica permite a los operadores centrarse en el alfa real o en la ventaja de sus operaciones.
El orador explica el principio de "no manipulación de precios", destacando que incluso si los comerciantes obtienen ganancias, no pueden mantenerlas, ya que eventualmente se evaporarán. La inflación de la posición conduce a la deflación del valor comercial a lo largo del tiempo o a la liquidación inmediata, lo que da como resultado pérdidas y ganancias nulas o incluso negativas. Por lo tanto, los comerciantes deben confiar en otras variables para generar ganancias sostenibles. Webster explora aún más la correlación entre el estado de impacto inicial, el impacto causado por el resto del mercado y el impacto de las coberturas del comerciante y el resto del mercado.
En conclusión, Kevin Webster brinda una comprensión integral de cómo el impacto de los precios puede distorsionar la contabilidad de pérdidas y ganancias. Arroja luz sobre los costos adicionales durante los regímenes de liquidez de alta volatilidad y su correlación con el mercado en general, enfatizando su impacto en el sesgo. Desde una perspectiva regulatoria, es probable que los bonos corporativos y las compañías de seguros se vean más afectados por este sesgo. Si bien Webster admite que carece de respuestas detalladas para los mercados fuera de las acciones, proporciona una base matemática sólida para comprender el impacto de los precios y su posible distorsión de las pérdidas y ganancias.
Laura Leal (Universidad de Princeton) - "Aprendizaje de un Control Funcional para Finanzas de Alta Frecuencia"
Laura Leal (Universidad de Princeton) - "Aprendizaje de un Control Funcional para Finanzas de Alta Frecuencia"
Laura Leal, investigadora de la Universidad de Princeton, realizó una presentación informativa sobre la aplicación de las redes neuronales profundas en las finanzas de alta frecuencia. Hizo hincapié en las limitaciones de las soluciones convencionales y exploró las ventajas de utilizar redes neuronales en este dominio. Leal destacó su capacidad para adaptarse a factores complejos como la autocorrelación y la estacionalidad intradiaria, con los que luchan los modelos tradicionales. Al aprovechar las redes neuronales, los comerciantes pueden lograr una ejecución óptima al minimizar el impacto en el mercado y operar sin problemas.
Para abordar las preocupaciones sobre la naturaleza de caja negra de las redes neuronales, Leal introdujo el concepto de explicabilidad. Discutió la proyección del control de la red neuronal en una variedad de dimensiones más bajas, lo que permite una mejor comprensión de los riesgos asociados y la desviación de los sectores de riesgo familiares. El equipo evaluó el rendimiento del control de la red neuronal comparándolo con la clásica solución PDE (ecuación diferencial parcial) de forma cerrada. Examinaron la función de valor, la riqueza ajustada al mercado y los errores relativos en las proyecciones para evaluar la precisión y eficacia del enfoque de red neuronal.
Leal profundizó en las complejidades del entrenamiento de la red neuronal, enfatizando la importancia de incorporar datos del mundo real y dinámicas precisas. También propuso un controlador de preferencias múltiples que permite a los operadores ingresar sus preferencias de riesgo, lo que permite una adaptación más rápida a las nuevas condiciones del mercado. Al considerar los parámetros de aversión al riesgo e incorporar las preferencias de un operador, la red neuronal puede generar una solución al problema de optimización estocástica en las finanzas de alta frecuencia.
El presentador discutió la estructura de la red neuronal utilizada para el control de riesgos, destacando su carácter recurrente. Si bien la red no es excesivamente profunda, emplea una estructura recurrente en cada paso de tiempo, actualizando los pesos simultáneamente. Las entradas a la red incluyen el tiempo y el inventario, mientras que la salida es el control en sí mismo, que determina la cantidad óptima de acciones para negociar en cada paso de tiempo. Para abordar el desafío de la disponibilidad limitada de datos financieros, se emplea el aprendizaje de transferencia, simulando datos utilizando métodos de Monte Carlo.
Leal describió el proceso de proyectar el control de la red neuronal en un espacio de función lineal mediante regresión lineal. Esta técnica de proyección facilita una mejor comprensión de las funciones no lineales de la red neuronal y su alineación con soluciones de control de forma cerrada. Los resultados demostraron el impacto de incorporar parámetros de estacionalidad y aversión al riesgo en la reacción del modelo al mercado. Además, el presentador enfatizó la importancia de gamma, que generalmente se establece en dos en la literatura, pero mostró una solución no lineal cuando se toma como tres sobre dos.
Se evaluaron minuciosamente el rendimiento y la precisión del control de la red neuronal en la ejecución de operaciones de financiación de alta frecuencia. Leal comparó la función de valor, la riqueza a precio de mercado y los errores relativos en las proyecciones en diferentes escenarios y valores gamma. Si bien la red neuronal exhibió un rendimiento superior, ejecutó transacciones de manera no lineal, desviándose de la solución de control conocida. Esto planteó dudas sobre la decisión de operar utilizando la red neuronal y determinar los niveles de margen apropiados en función de su divergencia con respecto a la solución establecida.
Leal exploró los beneficios del enfoque del controlador de preferencias múltiples, lo que permite a los operadores ingresar sus parámetros de conversión de riesgo y comenzar a operar de inmediato con un modelo previamente entrenado. Si bien la solución de red neuronal tardó más en ejecutarse que la solución PDE, ofreció una mayor flexibilidad y adaptabilidad a diferentes preferencias de riesgo. Para mejorar la explicabilidad, Leal propuso una idea de proyección utilizando la regresión lineal, lo que reduce la carga computacional y conserva la capacidad de múltiples preferencias. También destacó las aplicaciones más amplias del concepto de aproximación de redes neuronales, sugiriendo su relevancia en otros problemas financieros, como la cobertura.
Se discutió el proceso de entrenamiento de la red neuronal en finanzas de alta frecuencia, enfatizando el entrenamiento fuera de línea para evitar problemas de latencia asociados con el aprendizaje por refuerzo en línea. La red toma el tiempo, el inventario y los parámetros de aversión al riesgo potencial como entradas y produce una tasa como salida. Leal también describió el procedimiento de ajuste fino en el aprendizaje de transferencia, pasando de datos simulados a incrementos de datos reales obtenidos de la Bolsa de Valores de Toronto una vez que la red ha convergido. El presentador subrayó la importancia de utilizar datos del mundo real y dinámicas precisas durante el proceso de capacitación, ya que mejora la capacidad de la red para captar las complejidades de las finanzas de alta frecuencia.
En la sección siguiente, Laura Leal proporcionó información sobre las entradas y la función objetivo empleada en la red neuronal para las finanzas de alta frecuencia. La red neuronal incorpora el inventario como una proporción del volumen promedio de un stock específico durante un día, lo que permite una representación normalizada. La función objetivo se enmarca como un problema de maximización, con la salida sirviendo como control para una ejecución óptima. La estructura de la red neuronal se basa en la aproximación de funciones, utilizando dos nodos de entrada y cuatro capas ocultas para capturar las relaciones subyacentes.
Ante una pregunta sobre la discrepancia entre dos soluciones de control, Leal aclaró que podría interpretarse como un reflejo de la utilidad cambiante del inversionista. Al ajustar el parámetro gamma, se pueden emplear diferentes funciones de utilidad, lo que genera variaciones en las soluciones de control. En su investigación, el equipo eligió el valor gamma de tres mitades basándose en pruebas empíricas con comerciantes reales, lo que dio como resultado un rendimiento satisfactorio.
Leal destacó además que la salida de la red neuronal es observable y analizable. Pueden monitorear las posiciones tomadas por la red y cómo evolucionan a lo largo del día de negociación, brindando transparencia e información sobre el proceso de toma de decisiones. Este nivel de interpretación y comprensión permite a los operadores ganar confianza en las estrategias de ejecución de la red neuronal.
Leal también discutió los desafíos asociados con el desarrollo de controles funcionales para las finanzas de alta frecuencia. Si bien un proceso de control promedio puede proporcionar información general sobre la ejecución comercial, es posible que no represente con precisión el comportamiento de las trayectorias individuales. La dinámica del mercado, como la aparición de acciones de memes, requiere la adaptación de los métodos de control para capturar las condiciones en evolución de manera efectiva.
En conclusión, la presentación de Laura Leal arrojó luz sobre las complejidades de crear controles efectivos en el ámbito de las finanzas de alta frecuencia. Al aprovechar las redes neuronales profundas, los investigadores y comerciantes pueden superar las limitaciones de los modelos tradicionales y adaptarse a la intrincada dinámica de este dominio. La incorporación de preferencias de riesgo, medidas de explicabilidad y datos del mundo real contribuye al desarrollo de soluciones de control sólidas y adaptables. A través de su trabajo, Leal y su equipo ofrecen información y soluciones valiosas que allanan el camino para una toma de decisiones más eficiente e informada en las finanzas de alta frecuencia.
Zihao Zhang (Oxford-Man Institute) - "Aprendizaje profundo para el mercado por datos de pedidos"
Zihao Zhang (Oxford-Man Institute) - "Aprendizaje profundo para el mercado por datos de pedidos"
Zihao Zhang, investigador postdoctoral en el Oxford-Man Institute y parte del grupo de investigación de aprendizaje automático, presenta el trabajo reciente de su equipo sobre la aplicación del aprendizaje profundo al mercado por datos de pedidos. Su atención se centra en los datos de la microestructura del mercado, en particular el libro de órdenes de límite, que proporciona información valiosa sobre la demanda general y la dinámica de la oferta de un instrumento financiero específico. Al combinar el mercado por orden y los datos del libro de órdenes limitadas, Zhang y su equipo han descubierto que pueden reducir la varianza de la señal y obtener mejores señales predictivas. Esta aplicación de su modelo tiene potencial para mejorar la ejecución comercial y las estrategias de creación de mercado.
Zhang comienza su presentación brindando una breve introducción a los datos de la microestructura del mercado, enfatizando específicamente la importancia del mercado por datos de pedidos. Esta fuente de datos ofrece información altamente granular, proporcionando actualizaciones y eventos frecuentes en comparación con los datos del libro de órdenes limitadas, que ha recibido más atención en la literatura existente. Presenta su modelo de aprendizaje profundo y explica las arquitecturas de red que han diseñado para analizar datos de mercado por pedido. Zhang destaca que su trabajo representa el primer modelo predictivo que utiliza datos de mercado por pedido para pronosticar movimientos de alta frecuencia, lo que ofrece una fuente alternativa de información que amplía las posibilidades de descubrimiento alfa.
A continuación, Zhang profundiza en el concepto del libro de órdenes limitadas, que sirve como un registro completo de todas las órdenes limitadas pendientes para un instrumento financiero en un momento determinado. Él enfatiza que, si bien los datos de los gráficos ofrecen información de baja frecuencia, el precio de una acción en realidad está representado por el libro de órdenes límite, que es una serie de tiempo multivariada. Zhang explica cómo el libro de órdenes limitadas se organiza en diferentes niveles de precios en función de las órdenes enviadas, y cada nivel de precios consta de numerosas órdenes pequeñas segmentadas por diferentes comerciantes. También analiza cómo se actualiza el libro de pedidos cuando llegan nuevos mensajes, que pueden introducir nuevas posiciones, cancelar pedidos existentes o modificar pedidos actuales. Zhang señala que los datos derivados del libro de órdenes limitadas revelan la relación general entre la oferta y la demanda de un instrumento financiero específico, y su objetivo es determinar si utilizar datos de mercado por orden, que contienen información sobre la colocación y cancelación de órdenes, puede proporcionar información adicional. por hacer predicciones.
En el futuro, Zhang explora cómo se pueden utilizar los datos de mercado por pedido en el aprendizaje profundo para predecir los movimientos del mercado. Aunque las cadenas de mensajes en los datos de órdenes de mercado poseen dimensiones más bajas en comparación con el libro de órdenes limitadas, ofrecen información adicional que se puede aprovechar para realizar predicciones. Zhang explica cómo los eventos pasados se pueden transformar en matrices 2D, formando imágenes que se pueden alimentar a una red neuronal para la predicción. Las características resultantes de la capa convolucional luego se pueden integrar en las capas neuronales recurrentes para aprender la estructura y capturar dependencias adicionales. La capa final produce predicciones basadas en una configuración de clasificación utilizando retornos de umbral.
Zhang procede a discutir la arquitectura de red empleada para hacer predicciones utilizando datos de libros de pedidos limitados. En este caso, los dos primeros componentes se reemplazan con mensajes de comerciantes individuales, y las capas convolucionales se sustituyen por una capa LSTM o capa de atención. Zhang explica brevemente el mecanismo de atención, que facilita la predicción de un solo punto e implica una estructura de codificador-decodificador. El codificador extrae características significativas de los tiempos de entrada y las resume en un estado oculto, mientras que el decodificador genera la predicción. La normalización se emplea para determinar si una orden es una compra o una venta en función del precio medio.
En la sección siguiente, Zhang presenta los resultados de su modelo entrenado con un grupo de activos, normalizado a una escala similar y probado con diferentes modelos, como el modelo lineal simple, el perceptrón multicapa, el LSTM y el modelo de atención, que incorporan el orden límite. datos de libros y datos ambientales puros. Los resultados indican que las señales predictivas de los datos ambientales exhiben una menor correlación con las señales del libro de órdenes límite, lo que sugiere que una combinación de estas dos fuentes puede reducir la variación de la señal, beneficiarse de la diversificación y producir señales predictivas superiores. Por lo tanto, un modelo de conjunto que promedia las señales predictivas de ambos tipos de datos demuestra el mejor rendimiento.
Zhang procede a discutir los beneficios potenciales de incorporar datos de mercado por pedido (MBO) en las predicciones y destaca la capacidad de realizar ingeniería de características con estos datos. Presenta los resultados para horizontes de predicción que van de dos a 20 ticks por delante, observando comportamientos similares observados para 50 y 100 ticks por delante. Zhang también aborda las preguntas de la audiencia, incluida la posibilidad de entrenar un solo modelo utilizando todos los instrumentos para mejorar la generalización y la fuente de datos de MBO de la Bolsa de Valores de Londres. En respuesta a la pregunta de un miembro de la audiencia sobre centrarse en NF1 en lugar de PNL, Zhang está de acuerdo y reconoce que PNL es una medida de éxito más relevante.
Zhang analiza además el uso de señales predictivas y varias formas de definirlas, como usar una señal sin procesar o establecer un umbral basado en probabilidades softmax. Resume los puntos clave del documento, que propone modelar datos de mercado por pedido (MBO) en lugar de datos de libros de pedidos limitados y probar modelos de aprendizaje profundo, incluido el mecanismo de retención LSTM. Los resultados indican que una combinación de MBO y datos del libro de órdenes limitadas produce los mejores resultados. Zhang responde a las preguntas de la audiencia sobre la autocorrelación entre los movimientos del mercado, el filtrado de operaciones de ruido y la motivación para usar capas de CNN en el modelado de imágenes de órdenes límite.
En la siguiente sección, Zhang explica cómo se puede tratar el libro de pedidos como una estructura espacial que se puede explorar de manera efectiva mediante redes neuronales convolucionales (CNN). El uso de una CNN para extraer información de cada nivel de precios ha demostrado ser valioso para las predicciones. La capa de memoria a corto plazo (LSTM) se elige sobre perceptrones multicapa, ya que mantiene el flujo temporal de datos y resume eventos pasados para hacer predicciones. Zhang señala que los beneficios de utilizar un mecanismo de atención son limitados debido a la naturaleza de las series temporales financieras. El documento incluye una descripción detallada de los hiperparámetros empleados en su modelo.
Zhang aborda la preocupación sobre la gran cantidad de parámetros utilizados en los métodos de redes neuronales y su efectividad para predecir el mercado de valores. Reconoce que la abundancia de parámetros puede ser objeto de críticas, pero enfatiza que su equipo solo ha perfeccionado algunos parámetros específicos de su modelo. Todavía no han considerado usar el diferencial entre oferta y demanda como criterio para el éxito, pero reconocen su potencial para una mayor exploración. Zhang cree que su modelo tiene un valor práctico para la ejecución comercial y las estrategias de creación de mercado. Sin embargo, menciona que si uno tiene la intención de cruzar el diferencial, puede ser necesario reducir la muestra de los datos, ya que las actualizaciones frecuentes en los datos del libro de órdenes pueden complicar la ejecución de la operación. Finalmente, al modelar el libro de órdenes límite de Elo, agregan el tamaño total en cada nivel de precio en lugar de incluir información sobre los tamaños de órdenes individuales.
En la sección final, Zhang explica las diferencias entre los datos de mercado por pedido y mercado por precio. Los datos de mercado por orden permiten el seguimiento de órdenes individuales, lo que no es posible con los datos de mercado por precio. Con la ingeniería de funciones adecuada, los datos de mercado por pedido pueden proporcionar información adicional y generar alfa. Zhang también analiza cómo su modelo trata las modificaciones en el precio de una orden límite específica mientras mantiene el tamaño sin cambios. Cada nuevo mensaje con precios actualizados se trata como una nueva actualización, enriqueciendo el conjunto de datos.
En general, la presentación de Zihao Zhang muestra la aplicación del aprendizaje profundo al mercado por datos de pedidos, destacando su potencial para extraer información valiosa de los datos de la microestructura del mercado. Al combinar datos de mercado por orden y libro de órdenes límite, el equipo de Zhang ha demostrado la reducción de la varianza de la señal y la generación de señales predictivas mejoradas. Su trabajo promete mejorar la ejecución comercial y las estrategias de creación de mercado, ofreciendo una valiosa contribución al campo del análisis del mercado financiero.
Vineel Yellapantula (Cornell MFE '20): "Cuantificación de texto en archivos de la SEC"
Vineel Yellapantula presenta su proyecto de verano, que implica la aplicación de técnicas de procesamiento de lenguaje natural (NLP) para negociar acciones en función de la información textual que se encuentra en los archivos de la SEC, centrándose particularmente en la sección MD&A. El objetivo del proyecto es asignar una puntuación a cada informe de las 430 acciones presentes en el mercado estadounidense y analizar su desempeño agrupándolas en cinco cuantiles en función de la puntuación. Yellapantula utiliza métodos tradicionales como el coseno y la similitud de Jaccard para determinar la puntuación de similitud entre textos, y la similitud de Jaccard demuestra ser más consistente con el tiempo. También explora la creación de un modelo de análisis de sentimientos utilizando redes neuronales recurrentes (RNN) con Keras en un conjunto de datos de texto, logrando una precisión impresionante del 87,5 % con su modelo.
Durante la presentación, Yellapantula destaca la importancia de seleccionar el método adecuado para cada problema específico e incorporar datos adicionales para mejorar los resultados. Destaca la abundancia de información disponible a través de datos de texto, particularmente dentro de las presentaciones 10-K, y menciona que los factores desarrollados utilizando documentos anteriores pueden ser más efectivos que aquellos que se basan únicamente en el presente documento. Yellapantula señala varias alternativas para utilizar técnicas de aprendizaje profundo con datos de texto, incluidos guante, word2vec, BERT y RNN. Sugiere además incorporar más fuentes de datos, como presentaciones de 8-K y ciclos de noticias, para mejorar el poder predictivo de los modelos. Sin embargo, reconoce la presencia de un sesgo de selección en su estudio, ya que se centra en las acciones de buen desempeño presentes en el índice de 2007 a 2020.
En el apartado dedicado al análisis de sentimiento, Yellapantula explica el proceso de creación de un modelo utilizando RNNs con Keras. Los pasos implican tokenizar el texto para comprender su significado, reducir la dimensionalidad a través de incrustaciones y emplear una capa LSTM y una capa densa con una función sigmoidea para la clasificación de sentimientos. Demuestra la aplicación de este enfoque usando reseñas de IMDB, restringiendo la extensión de la reseña a 500 palabras y completando las reseñas más cortas con ceros para mantener la consistencia. A través de una evaluación rigurosa, Yellapantula logra una tasa de precisión del 87,5 % con su modelo de análisis de sentimiento.
Además, Yellapantula destaca la importancia de la correlación de información para determinar la efectividad de los factores y su consistencia a lo largo del tiempo. Hace referencia a un estudio que sugiere que las empresas con informes estables tienden a tener un buen desempeño, lo que lo indica como un factor prometedor para explorar. En conclusión, Yellapantula agradece a la audiencia por su interés y espera una mayor participación en el futuro.
El proyecto de Vineel Yellapantula demuestra la aplicación de técnicas de PNL para extraer información valiosa de la información textual en las presentaciones de la SEC. Al asignar puntajes a los informes y analizar su desempeño, su trabajo contribuye a la comprensión de cómo el lenguaje puede influir en el comercio de acciones. Además, su exploración del análisis de sentimientos utilizando RNN muestra el potencial del aprendizaje profundo para capturar el sentimiento de los datos textuales. A través de una cuidadosa selección de metodología y la incorporación de fuentes de datos adicionales, Yellapantula enfatiza la oportunidad de mejorar la precisión y efectividad de tales modelos.
Peter Carr (NYU) "Stoptions" hazaña. Lorenzo Torricelli (Universidad de Parma)
Peter Carr (NYU) "Stoptions" hazaña. Lorenzo Torricelli (Universidad de Parma)
Peter Carr presenta un producto financiero llamado "stoptions" que combina características de contratos de futuros y opciones de venta. Las stoptions permiten al propietario evitar cambios de precios desfavorables mediante la incorporación de un elemento de opción de venta de las Bermudas. Carr explica el concepto de opciones y proporciona un ejemplo de una opción de tres días con diferentes pisos asociados. Luego pasa a discutir la valoración de las paradas de un día y dos días, teniendo esta última dos pisos y la flexibilidad para ejercer en el primer o segundo día.
Carr explora aún más la valoración de stoption durante períodos más largos profundizando en la recursividad hacia atrás, la valoración de una opción de venta casada y el uso de pseudosumas. Sugiere utilizar la distribución logística para representar los cambios de precio en las opciones de venta casadas. El valor de las paradas se puede obtener utilizando fórmulas simples para opciones "en el dinero", y la valoración y la cobertura se pueden realizar de forma analítica.
Carr concluye el artículo discutiendo los desafíos asociados con la adopción de tales opciones por parte del mercado. Destaca la importancia de encontrar un comprador y un vendedor para estos productos y comparte sus conversaciones con compradores y vendedores potenciales. Además, Carr reconoce que el modelo de paradas es una alternativa a los modelos existentes como Black-Scholes y Bachelier, pero puede que no se adapte de manera óptima a todas las situaciones. No obstante, destaca que su modelo pretende capturar la multitud de operaciones binarias con especial trascendencia en las finanzas.
En una sección posterior, Carr y Lorenzo Torricelli proponen un modelo de "paradas" utilizando un paradigma conjugado y una distribución logística. Este modelo ofrece flexibilidad en la estructura de plazos con un solo parámetro, lo que permite acomodar varias estructuras de plazos de una sola vez. Sin embargo, es posible que no encaje perfectamente en el mercado debido a su gráfico de volatilidad implícita con pendiente descendente. Los autores reconocen las limitaciones de su modelo y reconocen las innumerables operaciones binarias en finanzas que su modelo pretende capturar. Discuten la opcionalidad entre un strike y una sola opción, así como la opcionalidad repetida a través de la pseudosuma. La sección concluye con el aprecio mutuo y la anticipación de asistir a los seminarios de los demás.
Lorenzo Torricelli (Universidad de Parma) - "Procesos Logísticos Aditivos en Precios de Opciones"
Lorenzo Torricelli (Universidad de Parma) - "Procesos Logísticos Aditivos en Precios de Opciones"
Lorenzo Torricelli, un distinguido profesor de la Universidad de Parma, profundiza en las complejidades de la valoración de opciones al explorar el modelo logístico aditivo y la especificación autosimilar. En su esclarecedora presentación, aclara la fórmula para fijar el precio de las opciones vainilla utilizando estos modelos innovadores y ejemplifica su aplicación al mostrar una comparación de densidad entre el modelo de fijación de precios logístico y los modelos normales tradicionales.
Además, Torricelli realiza un análisis de referencia de la estructura de términos acumulativa para el modelo logístico frente a una revolución lineal de la estructura de términos para modelos homogéneos. Sus perspicaces observaciones revelan que el modelo logístico ofrece una flexibilidad significativamente mayor para dar forma a la estructura de términos, lo que proporciona una ventaja notable sobre los enfoques convencionales.
Para proporcionar una comprensión integral, Torricelli también examina las superficies de volatilidad asociadas con estos modelos. Señala la presencia de un sesgo positivo en el modelo derivado de la distribución sesgada de los rendimientos de los logaritmos y la curtosis de la distribución logística. Sin embargo, destaca la ausencia de sesgo en la distribución logística en sí misma, ya que exhibe simetría. Torricelli analiza además el impacto de los parámetros modales en la estructura temporal de la volatilidad, reconociendo el potencial de mejora en la parametrización elegida.
Como conclusión, Torricelli destaca que las fórmulas de opción derivadas de estos modelos son explícitas y conocidas, lo que facilita su implementación práctica. En particular, elogia la impresionante velocidad demostrada durante la prueba de rendimiento. Como testimonio de transparencia y colaboración académica, Torricelli planea hacer que el código asociado con estos modelos sea de acceso público, lo que beneficiará a investigadores y profesionales por igual.
Yumeng Ding (Cornell MFE '20) - "Interpretación de modelos de aprendizaje automático"
Yumeng Ding (Cornell MFE '20) - "Interpretación de modelos de aprendizaje automático"
Yumeng Ding, un investigador competente, profundiza en el ámbito de la interpretación de modelos de aprendizaje automático para predicciones de precios de acciones. En su análisis integral, explora una variedad de métodos de interpretación, incluidos diagramas de dependencia parcial, importancia de características de permutación, estadísticas de borde y LIME, para arrojar luz sobre el funcionamiento interno de estos modelos. Al emplear estos métodos, Ding pretende desentrañar la contribución de los factores individuales y sus efectos interactivos en la predicción de los precios de las acciones.
El estudio de Ding gira en torno a tres tipos de factores: técnicos, de calidad y de valor, que se utilizan como entradas para varios modelos de aprendizaje automático, como clasificadores y regresiones. Aprovechando los métodos de interpretabilidad mencionados anteriormente, desentraña las intrincadas relaciones entre estos factores y las predicciones del precio de las acciones. A través de un riguroso backtesting, Ding descubre que los modelos no lineales superan a los modelos lineales en términos de rendimiento. Además, observa que los efectos de diferentes factores exhiben variaciones temporales, destacando la naturaleza dinámica de la predicción del precio de las acciones. En última instancia, Ding identifica a AdaBoost como el modelo más adecuado para su escenario específico.
Es importante destacar que Ding subraya la importancia de los métodos de interpretabilidad para comprender los modelos de aprendizaje automático. Ella subraya que, si bien el enfoque vectorial proporciona información rápida sobre las interacciones más predictivas, no revela la calidad de estas interacciones. Ding enfatiza el valor de emplear diagramas de dependencia parcial bidimensionales para visualizar interacciones más simples de manera efectiva. Además, recomienda el método de diagrama de líneas para profundizar en las complejidades de las interacciones individuales y visualizar los efectos locales, siempre que los datos estén lo suficientemente claros del ruido.
Al resumir sus hallazgos, Ding enfatiza dos conclusiones clave de su proyecto. En primer lugar, confirma que los modelos de aprendizaje automático superan a las regresiones lineales ingenuas en la mayoría de los escenarios debido a su capacidad para capturar efectos de interacción complejos. En segundo lugar, destaca la viabilidad de interpretar modelos de aprendizaje automático aprovechando una variedad de métodos de interpretabilidad. Estas técnicas permiten a los investigadores dilucidar las contribuciones individuales de los factores y comprender sus influencias interactivas en las predicciones.
Silvia Ruiz (Cornell MFE '20): "Cómo predecir movimientos bursátiles utilizando técnicas de PNL"
Silvia Ruiz (Cornell MFE '20): "Cómo predecir movimientos bursátiles utilizando técnicas de PNL"
Silvia Ruiz, recién graduada del programa Cornell MFE, comparte ideas de su proyecto centrado en predecir los precios de las acciones utilizando técnicas de PNL (Procesamiento del lenguaje natural). El objetivo de la investigación de su equipo fue explorar la relación entre las presentaciones corporativas, como los informes 10-K y 10-Q, y el impacto posterior en los precios de las acciones. Para lograr esto, recopilaron un conjunto de datos sustancial que consta de 1095 informes del sitio web de EDGAR, que abarca 50 empresas en cinco sectores del S&P 500.
Inicialmente, Ruiz y su equipo experimentaron con modelos basados en diccionarios pero encontraron limitaciones en su efectividad. Para abordar esto, incorporaron métodos avanzados como el modelo word to back y Finberg, que resultó crucial para comprender los matices contextuales integrados en los archivos corporativos. Además, emplearon varias medidas de sentimiento, incluida la polaridad y la complejidad de las palabras, así como un modelo de impulso xg, para predecir los movimientos del precio de las acciones.
La precisión de sus predicciones se evaluó en dos marcos de tiempo diferentes. A corto plazo, su modelo logró una notable precisión del 61 %, mientras que a largo plazo demostró una respetable precisión del 53 %. Aprovechando estas predicciones como señales para decisiones de inversión, superaron a una cartera igualmente ponderada. Sin embargo, Ruiz destaca la necesidad de realizar más investigaciones en diversos sectores para mejorar la precisión y la generalización de sus hallazgos.
Silvia Ruiz concluye su discusión ofreciendo generosamente su información de contacto y proporcionando un enlace al repositorio de su proyecto en Github. Este gesto fomenta las consultas de seguimiento y promueve la colaboración para avanzar en la comprensión y aplicación de las técnicas de PNL en el dominio de la predicción del precio de las acciones.
Charles-Albert Lehalle: "Un intento de comprender el procesamiento del lenguaje natural"
Charles-Albert Lehalle: "Un intento de comprender el procesamiento del lenguaje natural"
En esta presentación de video, Charles-Albert Lehalle y su equipo profundizan en las aplicaciones del procesamiento del lenguaje natural (NLP) en el dominio financiero. Su discusión gira en torno a tres áreas clave: análisis de sentimiento, predicción de precios de acciones y modelado de costos de transacción. Reconocen los desafíos asociados con la PNL, como el riesgo de sobreajuste y sesgo en las incrustaciones, y proponen posibles soluciones, incluido el aprendizaje multitarea y la expansión de léxicos. El equipo explora tanto el potencial como las limitaciones de la PNL en la industria financiera, enfatizando la importancia de comprender el contexto y los patrones de lenguaje dentro de diferentes sectores.
Lehalle y su equipo presentan sus propios experimentos utilizando técnicas de PNL, brindando información valiosa sobre cómo la PNL puede comprimir información y ofrecer indicadores informativos para los analistas financieros. Destacan los desafíos de emplear NLP en finanzas, incluido el requisito de conocimiento específico del dominio y la dificultad de extraer información significativa de datos de texto no estructurados. También se analizan las preocupaciones éticas en torno al uso de la PNL en las finanzas, como el aprovechamiento de los datos de las redes sociales con fines comerciales.
A lo largo de la presentación, Charles-Albert Lehalle comparte su experiencia y conocimiento sobre varios temas de PNL. Explica el uso de métodos de PNL basados en léxico y en incrustación en finanzas, proponiendo una combinación de ambos enfoques para capturar características léxicas y probabilísticas en datos de texto. Se abordan los desafíos de distinguir entre sinónimos y antónimos dentro de incrustaciones, y el equipo de Lehalle explora modelos generativos para controlar la estructura y el sentimiento del texto. Se enfatiza la importancia de comprender las incrustaciones y los modelos de referencia, como las matrices que representan distribuciones de palabras conjuntas.
Lehalle explora aún más la importancia del contexto en la PNL, analizando cómo las incrustaciones pueden estar sesgadas por palabras positivas y negativas según el contexto. Explica el uso de cadenas de Markov para estructurar modelos de matriz de referencia y presenta experimentos sobre la identificación de sinónimos dentro de incrustaciones. Se reconocen las limitaciones de NLP en la captura de nombres de empresas y sus polaridades asociadas, junto con la sugerencia de aprendizaje multitarea para incrustaciones supervisadas. Los ponentes también abordan el desequilibrio de palabras positivas y negativas del Loughran-McDonald Lexicon y los desafíos de procesar la ironía en los textos financieros.
La presentación concluye con una descripción general de un proyecto de Sylvia Ruiz, recién graduada de Ingeniería Financiera de Cornell. El proyecto se enfoca en predecir los precios de las acciones utilizando técnicas de NLP, específicamente extrayendo secciones de discusión de gestión de las presentaciones 10-K y 10-Q de 50 compañías S&P 500 y analizando el sentimiento para evaluar su impacto en los precios de las acciones. Lehalle analiza las limitaciones de los modelos basados en diccionarios y explica cómo su equipo amplió el diccionario, empleó FinBERT para comprender el contexto y utilizó varias funciones para medir el sentimiento. Lograron un mejor rendimiento que una cartera igualmente ponderada tanto a corto como a largo plazo.
En resumen, Charles-Albert Lehalle y su equipo arrojaron luz sobre el potencial y los desafíos de la PNL en las finanzas. Ofrecen conocimientos, experimentos y estrategias para aplicar técnicas de PNL de manera efectiva, al tiempo que enfatizan la importancia del uso responsable y una comprensión profunda tanto de la tecnología como del dominio financiero.