Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Ernest Chan (Predictnow.ai) - "How to Use Machine Learning for Optimization"
Ernest Chan (Predictnow.ai) - "How to Use Machine Learning for Optimization"
Ernest Chan, the co-founder of Predictnow.ai, delves into the challenges faced by traditional portfolio optimization methods when dealing with regime changes in markets. He suggests that machine learning can provide a solution to this problem. Chan explains how his team applies machine learning techniques to portfolio optimization, with a focus on incorporating time series features that measure various financial aspects such as volatility, prices, and interest rates. By combining the Farmer-French Three Factor model with the understanding that ranking is more crucial than prediction, they aim to achieve optimal portfolio optimization.
Chan goes on to share concrete results of the CBO model's performance and provides examples of clients who have experienced improvements in their portfolio's performance using this approach. He emphasizes that machine learning models have the ability to adapt to regime changes, enabling them to respond effectively to evolving market conditions. Additionally, he discusses how returns for the S&P 500 Index and its components can be computed using a machine learning algorithm that utilizes time series features.
Furthermore, Chan highlights the ensemble approach employed by his team for optimization and speculation. He mentions their "secret sauce" that eliminates the need for extensive computational power. Rather than following a two-step process of predicting regimes and conditioning on their distribution of returns, they utilize visual factors to directly predict the portfolio's performance. Moreover, Chan clarifies that by including a significant portion of the training sample in their algorithm, the expected return aligns with past results.
Dr. Ernest Chan explains the challenges faced by traditional portfolio optimization methods in the presence of regime changes and emphasizes the role of machine learning in addressing this issue. He discusses the application of machine learning techniques, the importance of time series features, and the significance of ranking in achieving optimal portfolio optimization. He shares specific results and client success stories, highlighting the adaptability of machine learning models to changing market conditions. Chan also provides insights into the computation of returns using machine learning algorithms and sheds light on their ensemble approach and unique methodology.
Aprendizaje automático financiero: la perspectiva de un profesional por el Dr. Ernest Chan
Aprendizaje automático financiero: la perspectiva de un profesional por el Dr. Ernest Chan
En este video informativo, el Dr. Ernest Chan profundiza en el ámbito del aprendizaje automático financiero, explora varios aspectos clave y arroja luz sobre consideraciones importantes. Enfatiza la importancia de evitar el sobreajuste y aboga por la transparencia en los modelos. Además, el Dr. Chan destaca los beneficios de utilizar modelos no lineales para predecir el comportamiento del mercado. Sin embargo, también analiza las limitaciones del aprendizaje automático en el mercado financiero, como la reflexividad y la dinámica cambiante del mercado.
Un punto crucial que enfatiza el Dr. Chan es la importancia de la experiencia en el dominio de la ciencia de datos financieros. Subraya la necesidad de seleccionar características para obtener una mejor comprensión de las variables esenciales que influyen en las conclusiones de un modelo. Al identificar estos datos importantes, los inversores y comerciantes pueden obtener información sobre sus pérdidas y comprender por qué se tomaron ciertas decisiones.
El Dr. Chan también aborda la aplicación del aprendizaje automático en la gestión de riesgos y la asignación de capital. Sugiere encontrar un nicho de mercado y evitar la competencia directa con organizaciones bien financiadas. Al hacerlo, los profesionales pueden mejorar sus posibilidades de éxito en estas áreas.
A lo largo del video, el Dr. Chan destaca las ventajas y los desafíos asociados con diferentes modelos y estrategias. Señala que, si bien las estrategias cuantitativas tradicionales, como los modelos lineales, son fáciles de entender y menos propensas al sobreajuste, luchan con la dependencia no lineal entre los predictores. Por el contrario, los modelos de aprendizaje automático se destacan en el manejo de relaciones no lineales, pero su complejidad y opacidad pueden plantear desafíos en la interpretación de sus resultados y la evaluación de la importancia estadística.
El Dr. Chan también analiza las limitaciones del uso del aprendizaje automático para predecir el mercado financiero. Él enfatiza que el mercado está en continua evolución, por lo que es difícil predecir con precisión. Sin embargo, sugiere que el aprendizaje automático puede tener éxito en la predicción de información privada, como las estrategias comerciales, donde es menos probable competir con parámetros idénticos.
Además, el Dr. Chan aborda la incorporación de datos fundamentales, incluidos datos categóricos, en modelos de aprendizaje automático. Señala que los modelos de aprendizaje automático tienen una ventaja sobre los modelos de regresión lineal en el manejo de datos categóricos y de valor real. Sin embargo, advierte que no se debe confiar únicamente en el aprendizaje automático y enfatiza que la experiencia profunda en el dominio sigue siendo crucial para crear funciones efectivas e interpretar los datos con precisión.
En el ámbito de la asignación de capital, el Dr. Chan destaca cómo el aprendizaje automático puede proporcionar rendimientos esperados más sofisticados, desafiando el uso del rendimiento pasado como único indicador del éxito futuro. También analiza los matices de la comprensión del mercado que puede ofrecer el aprendizaje automático, con probabilidades que varían diariamente, a diferencia de las distribuciones de probabilidad estáticas de las estadísticas clásicas.
El Dr. Chan concluye abordando las limitaciones del aprendizaje profundo en la creación de diversas funciones transversales que requieren experiencia en el dominio. Comparte sus pensamientos sobre la aplicabilidad del aprendizaje por refuerzo en los modelos financieros, destacando su efectividad potencial a altas frecuencias pero limitaciones en escalas de tiempo más largas.
Para aquellos interesados en explorar más a fondo el aprendizaje automático financiero, el Dr. Chan recomienda su empresa PredictNow.ai como un recurso valioso para la experiencia en aprendizaje automático financiero sin código.
Comercio con aprendizaje de refuerzo profundo | doctor thomas starke
Comercio con aprendizaje de refuerzo profundo | doctor thomas starke
El Dr. Thomas Starke, un experto en el campo del aprendizaje de refuerzo profundo para el comercio, realizó una presentación perspicaz y participó en una sesión de preguntas y respuestas con la audiencia. El siguiente es un resumen extenso de su charla:
El Dr. Starke comenzó presentando el aprendizaje de refuerzo profundo para el comercio, destacando su capacidad para permitir que las máquinas resuelvan tareas sin supervisión directa. Usó la analogía de un aprendizaje automático para jugar un juego de computadora, donde aprende a tomar decisiones en función de lo que ve en la pantalla y logra el éxito o el fracaso en función de su cadena de decisiones.
Luego discutió el concepto de un proceso de decisión de Markov en el comercio, donde los estados están asociados con los parámetros del mercado y las acciones hacen la transición del proceso de un estado a otro. El objetivo es maximizar la recompensa esperada dada una política y un estado específicos. Los parámetros del mercado son cruciales para ayudar a la máquina a tomar decisiones informadas sobre las acciones a realizar.
El proceso de toma de decisiones en el comercio implica determinar si comprar, vender o mantener en función de varios indicadores que informan el estado del sistema. El Dr. Starke enfatizó la importancia de no depender únicamente de las etiquetas de ganancias o pérdidas inmediatas para cada estado, ya que puede conducir a predicciones incorrectas. En cambio, la máquina necesita saber cuándo permanecer en una operación, incluso si inicialmente va en contra, esperando que la operación vuelva a la línea promedio antes de salir.
Para abordar la dificultad de etiquetar cada paso en las ganancias y pérdidas de una operación, el Dr. Starke introdujo el etiquetado retroactivo. Este enfoque utiliza la ecuación de Bellman para asignar un valor distinto de cero a cada acción y estado, incluso si no genera una ganancia inmediata. Esto permite la posibilidad de reversión a la media y eventual ganancia.
El aprendizaje de refuerzo profundo puede ayudar a tomar decisiones comerciales basadas en resultados futuros. Los métodos tradicionales de aprendizaje por refuerzo crean tablas basadas en experiencias pasadas, pero en el comercio, la cantidad de estados e influencias es enorme. Para manejar esta complejidad, el aprendizaje por refuerzo profundo utiliza redes neuronales para aproximar estas tablas, haciéndolo factible sin crear una tabla enorme. El Dr. Starke discutió la importancia de encontrar la función de recompensa correcta y las entradas para definir el estado, lo que en última instancia permite una mejor toma de decisiones para el comercio.
Se destacó la importancia de los insumos en el comercio, enfatizando su necesidad de tener valor predictivo. El Dr. Starke enfatizó la importancia de probar el sistema en busca de un comportamiento conocido y seleccionar el tipo, el tamaño y la función de costo apropiados de la red neuronal en función de la función de recompensa elegida. Explicó cómo se emplea la gamificación en el comercio, donde los precios históricos y actuales, los datos de protección técnica y las fuentes de datos alternativas constituyen el estado, y la recompensa es la ganancia y la pérdida (P&L) del comercio. La máquina etiqueta retroactivamente las observaciones utilizando la ecuación de Bellman y actualiza continuamente las tablas aproximadas por redes neuronales para mejorar la toma de decisiones.
Con respecto al entrenamiento con aprendizaje reforzado, el Dr. Starke analizó diferentes formas de estructurar la serie de precios, incluida la entrada y salida aleatoria en varios puntos. También abordó el desafío de diseñar una función de recompensa y brindó ejemplos como el porcentaje puro de P&L, la ganancia por tick y la relación de Sharpe, así como métodos para evitar tiempos de recorrido prolongados o reducciones.
En términos de entradas para el comercio, el Dr. Starke mencionó numerosas opciones, que incluyen valores de apertura-alto-bajo-cierre y volumen, patrones de velas japonesas, indicadores técnicos como el índice de fuerza relativa, hora del día/semana/año, y precios de entrada y valores técnicos. indicadores para otros instrumentos. También se pueden considerar fuentes de datos alternativas, como el sentimiento o las imágenes de satélite. La clave es construir estas entradas en un estado complejo, similar a cómo se usan las funciones de entrada en los juegos de computadora para tomar decisiones.
El Dr. Starke explicó la fase de prueba a la que debe someterse el aprendiz de refuerzo antes de ser utilizado para el comercio. Describió varias pruebas, incluidas ondas sinusoidales limpias, curvas de tendencia, series aleatorias sin estructura, diferentes tipos de correlaciones de orden, ruido en curvas de prueba limpias y patrones recurrentes. Estas pruebas ayudan a determinar si la máquina genera ganancias constantemente e identifican cualquier falla en la codificación. El Dr. Starke también analizó los diferentes tipos de redes neuronales utilizadas, como la memoria estándar, convolucional y de largo plazo (LSTM). Expresó su preferencia por redes neuronales más simples que satisfagan sus necesidades sin requerir un esfuerzo computacional excesivo.
El Dr. Starke luego profundizó en los desafíos de usar el aprendizaje por refuerzo para el comercio. Reconoció la dificultad de distinguir entre señal y ruido, particularmente en series temporales financieras ruidosas. También destacó la dificultad del aprendizaje por refuerzo para adaptarse a los cambios en el comportamiento del mercado, lo que dificulta el aprendizaje de nuevos comportamientos. Además, mencionó que si bien el aprendizaje por refuerzo requiere una cantidad significativa de datos de capacitación, los datos del mercado suelen ser escasos. El sobreajuste es otra preocupación, ya que el aprendizaje por refuerzo tiende a actuar sobre los patrones básicos del mercado y puede sobreajustarse fácilmente. La creación de redes neuronales más complejas puede mitigar este problema, pero es una tarea que requiere mucho tiempo. En general, el Dr. Starke enfatizó que el aprendizaje por refuerzo no es una solución garantizada para obtener resultados rentables, y es crucial tener experiencia en el mercado y conocimiento específico del dominio para lograr el éxito en el comercio.
Durante la sesión de preguntas y respuestas, el Dr. Starke abordó varias preguntas relacionadas con el comercio con aprendizaje de refuerzo profundo. Aclaró que la ecuación de Bellman no introduce un sesgo de anticipación y discutió el uso potencial de indicadores técnicos como entradas después de un análisis cuidadoso. También exploró la posibilidad de utilizar imágenes satelitales para predecir los precios de las acciones y explicó que el comercio de refuerzo se puede realizar en pequeños marcos de tiempo dependiendo del tiempo de cálculo de la red neuronal. Advirtió que los algoritmos de comercio de refuerzo son sensibles a las anomalías del mercado y explicó por qué entrenar árboles de decisión aleatorios utilizando el aprendizaje de refuerzo no produce resultados significativos.
El Dr. Starke recomendó el uso de redes neuronales para el comercio en lugar de árboles de decisión o máquinas de vectores de soporte debido a su idoneidad para el problema. Hizo hincapié en la importancia de ajustar la función de pérdida en función de la función de recompensa utilizada. Si bien se han realizado algunos intentos para aplicar el aprendizaje por refuerzo al comercio de alta frecuencia, el Dr. Starke destacó el desafío de las redes neuronales lentas que carecen de capacidad de respuesta en los mercados en tiempo real. Aconsejó a las personas interesadas en seguir una carrera comercial en la industria financiera que adquirieran conocimiento del mercado, participaran en transacciones reales y aprendieran de la experiencia. Por último, discutió los desafíos de combinar las redes neuronales y el comercio de opciones, reconociendo la complejidad de la tarea.
En conclusión, el Dr. Thomas Starke proporcionó información valiosa sobre el comercio con aprendizaje de refuerzo profundo. Abarcó temas como el proceso de toma de decisiones en el comercio, el etiquetado retroactivo, la ecuación de Bellman, la importancia de las entradas, las fases de prueba y los desafíos asociados con el aprendizaje de refuerzo para el comercio. A través de su charla y sesión de preguntas y respuestas, el Dr. Starke ofreció orientación y consideraciones prácticas para aprovechar el aprendizaje de refuerzo profundo en los mercados financieros.
Harrison Waldon (UT Austin): "Las ecuaciones de aprendizaje algorítmico"
Harrison Waldon (UT Austin): "Las ecuaciones de aprendizaje algorítmico"
Harrison Waldon, investigador de UT Austin, presentó su trabajo sobre la colusión algorítmica en los mercados financieros, centrándose en la interacción y la colusión potencial de los algoritmos de aprendizaje por refuerzo (RL). Abordó las preocupaciones de los reguladores con respecto al comercio algorítmico autónomo y su potencial para inflar los precios a través de la colusión sin comunicación explícita.
La investigación de Waldon tuvo como objetivo comprender el comportamiento de los algoritmos de RL en entornos financieros y determinar si pueden aprender a coludirse. Utilizó ecuaciones de aprendizaje algorítmico (ALE) para derivar un sistema de ecuaciones diferenciales ordinarias (EDO) que aproximan la evolución de los algoritmos en condiciones específicas. Estos ALE pudieron validar el comportamiento colusorio en los algoritmos de Q-learning y proporcionaron una buena aproximación de la evolución del algoritmo, demostrando una gran cuenca de atracción para los resultados colusorios.
Sin embargo, existen desafíos para calcular la distribución estacionaria y distinguir la verdadera colusión del comportamiento racional de autoconservación. Surgen dificultades numéricas para determinar la distribución estacionaria, y sigue siendo un desafío diferenciar la colusión genuina del comportamiento impulsado por el interés propio.
Waldon destacó las limitaciones del equilibrio del juego estático cuando se aplica a las interacciones dinámicas, enfatizando la necesidad de un enfoque integral para regular el comportamiento. El comportamiento colusorio facilitado por algoritmos sin comunicación directa entre las partes requiere una cuidadosa consideración. La charla concluyó con Waldon expresando su gratitud a los asistentes, marcando el final de la serie del semestre de primavera.
Irene Aldridge (AbleBlox y AbleMarkets): "Crypto Ecosystem y AMM Design"
Irene Aldridge (AbleBlox y AbleMarkets): "Crypto Ecosystem y AMM Design"
Irene Aldridge, fundadora y directora general de AbleMarkets, profundiza en varios aspectos de la tecnología blockchain, la creación de mercados automatizados (AMM) y la convergencia de los mercados tradicionales con el mundo de los AMM. Ella enfatiza la importancia de estos temas en las finanzas y explora los desafíos potenciales y las soluciones asociadas con ellos.
Aldridge comienza brindando una descripción general de su experiencia en la industria financiera y su experiencia en microestructura, que se enfoca en comprender las operaciones del mercado. Ella destaca la creciente adopción de modelos de creación de mercado automatizados, inicialmente prominentes en el mercado criptográfico pero que ahora se extienden a los mercados tradicionales. Ella describe la estructura de su presentación, que cubre conceptos introductorios de blockchain, la aplicación de blockchain en finanzas y programación, y estudios de casos del mundo real de creación de mercado y su impacto en los mercados tradicionales.
Al explorar la tecnología blockchain, Aldridge la describe como una base de datos avanzada en la que cada fila contiene un resumen criptográfico de la fila anterior, lo que garantiza la integridad de los datos. Ella explica el proceso de minería involucrado en blockchain, donde el contenido propuesto se valida y se agrega a la cadena, lo que lleva a una mayor transparencia y descentralización en el papeleo y los sistemas de pago.
Aldridge analiza el cambio hacia la descentralización en el ecosistema criptográfico, destacando la compensación entre la privacidad y la solidez de tener varias copias de la base de datos en los servidores. Ella explica el proceso de blockchain, desde la definición de bloques y la creación de firmas criptográficas hasta las principales innovaciones de prueba de trabajo y minería, que garantizan la seguridad contra los intentos de piratería.
Sin embargo, Aldridge reconoce los desafíos asociados con el sistema de minería de prueba de trabajo, incluido el costo creciente de la minería, una cantidad decreciente de mineros y vulnerabilidades potenciales. Ella destaca soluciones alternativas, como la agregación de bloques de Ethereum y la eliminación de acertijos para la minería de Coinbase.
El orador pasa a explorar la participación en el ecosistema criptográfico, donde las partes interesadas comprometen sus fondos para respaldar las operaciones de la red. Ella reconoce el problema potencial de los oligarcas criptográficos que manipulan el mercado y explica cómo se han implementado la validación fuera de la cadena y la creación de mercado automatizada para contrarrestar este problema. Aldridge enfatiza la importancia de comprender estos conceptos para comprender la importancia de la creación automatizada de mercados para prevenir la manipulación en el mercado de criptomonedas.
Aldridge profundiza en los principios detrás de los creadores de mercado automatizados (AMM), enfatizando su impacto revolucionario en el comercio de criptomonedas. Ella explica cómo las curvas AMM, formadas por invariantes relacionados con la liquidez, determinan los precios en función del inventario restante en el grupo de liquidez. Ella destaca los beneficios de los AMM, incluida la liquidez las 24 horas, los 7 días de la semana, la estimación de deslizamiento formulada y la determinación del valor razonable a través de curvas convexas. Sin embargo, también menciona que los AMM pueden enfrentar pérdidas en condiciones volátiles, lo que lleva a la introducción de tarifas de transacción.
Al comparar los AMM con los mercados tradicionales, Aldridge analiza las ventajas de la creación de mercado automatizada, como la liquidez continua, el deslizamiento predecible y la determinación del valor justo. Ella explica el método de creación de mercado de productos constantes empleado por UniSwap, que ilustra cómo los corredores de ejecución pueden seleccionar plataformas para la liquidez y la ejecución en función de los datos parametrizados.
El orador analiza el cálculo de los cambios de volumen y la distinción entre fondos de liquidez públicos y privados. Ella presenta ejemplos empíricos usando Bitcoin y Ethereum de diferentes intercambios, señalando diferencias en sus curvas y sugiriendo posibles preocupaciones con ciertas plataformas.
Aldridge enfatiza la importancia de diseñar curvas AMM utilizando formas convexas para garantizar la estabilidad del mercado. Ella explica las funciones de los proveedores de liquidez y los comerciantes en el sistema y cómo se benefician de las tarifas de transacción. También plantea la posibilidad de que los sistemas AMM se utilicen en mercados tradicionales, lo que lleva a considerar su aplicación a activos como las acciones de IBM.
Aldridge explora la convergencia de los mercados tradicionales con la creación de mercados automatizada y señala que los creadores de mercados tradicionales ya están implementando sistemas similares. Ella destaca los cambios esperados en las interacciones del mercado, las estrategias comerciales, los métodos de ejecución y la transparencia. También se analiza la influencia de los creadores de mercado automatizados en la microestructura de los mercados.
Al abordar la viabilidad de implementar liquidez automatizada en entornos comerciales 24/7 como el mercado criptográfico, Aldridge explica que la creación de mercado automatizada puede eliminar los riesgos asociados con los métodos tradicionales de creación de mercado y que la tecnología está fácilmente disponible. Sin embargo, advierte que no todos los intercambios de cifrado utilizan la creación de mercado automatizada, y enfatiza la necesidad de investigación para abordar la gestión de riesgos y las externalidades. Aldridge señala que la tecnología de creación de mercado automatizada surgió casi al mismo tiempo que las criptomonedas como Bitcoin en 2002.
Cuando se le preguntó acerca de la posible ventaja injusta de los comerciantes automatizados de creación de mercado que tienen acceso a información privada, Aldridge reconoce que plantea un problema. Sin embargo, sugiere que comparar y cuantificar la curva de creación de mercado automatizada en diferentes plataformas puede ayudar a mitigar este problema. Ella señala que los mineros tienen incentivos para continuar con su trabajo porque son ellos los que se benefician al acceder y validar los bloques de pedidos. Sin embargo, a menos que exista un incentivo privado, es cada vez más difícil generar ganancias en este espacio, lo que lleva a la formación de oligopolios. Aldridge propone que el seguro podría servir como un incentivo natural para que los mineros trabajen casi gratis. Sin embargo, las compañías de seguros perciben la cadena de bloques como una gran amenaza para su industria, lo que genera resistencia a tales diseños de sistemas. También aborda la posibilidad de esquemas de fraude, destacando la posible manipulación en la curva de IBM.
En el contexto de los libros de órdenes limitadas centralizados, Aldridge explica cómo los participantes del mercado están utilizando modelos de creación de mercado automatizados, como los AMM, que brindan liquidez de manera rentable y automatizada, lo que puede generar ganancias. Sin embargo, distinguir entre los comerciantes que usan AMM y los que colocan órdenes limitadas manualmente sigue siendo un desafío. Aldridge sugiere que la identificación de usuarios maliciosos a través del análisis de datos microestructurales podría ofrecer una posible solución. Ella cree que si los AMM continúan dominando el mercado, surgirá un modelo más eficiente y optimizado.
En resumen, la discusión de Irene Aldridge cubre varios aspectos de la tecnología blockchain, la creación automatizada de mercados y la convergencia de los mercados tradicionales con el mundo AMM. Explora los conceptos básicos de blockchain, analiza los desafíos y las posibles soluciones relacionadas con los sistemas de minería de prueba de trabajo y destaca los beneficios de los AMM sobre los mercados tradicionales. Aldridge también aborda las preocupaciones con respecto a la viabilidad de implementar la liquidez automatizada, el problema de que los comerciantes automatizados de creación de mercado tengan acceso a información privada y el papel potencial de los seguros como un incentivo para los mineros. A través de sus conocimientos, brinda perspectivas valiosas sobre el panorama actual y las posibilidades futuras en el mundo de las finanzas y la creación automatizada de mercados.
Agostino Capponi (Columbia): "¿Los pools de transacciones privadas mitigan el riesgo de frontrunning?"
Agostino Capponi (Columbia): "¿Los pools de transacciones privadas mitigan el riesgo de frontrunning?"
Agostino Capponi, investigador de la Universidad de Columbia, profundiza en el tema de la ejecución frontal en los intercambios descentralizados y propone grupos de transacciones privadas como una posible solución. Estos grupos privados operan fuera de la cadena y separados del grupo público, lo que garantiza que los validadores comprometidos a no involucrarse en la ejecución los manejen. Sin embargo, Capponi reconoce que el uso de grupos privados conlleva un riesgo de ejecución, ya que no todos los validadores participan en el grupo privado, lo que significa que existe la posibilidad de que las transacciones pasen desapercibidas y no se ejecuten. Es importante tener en cuenta que la adopción de grupos privados podría no necesariamente reducir la tarifa de prioridad mínima requerida para la ejecución. Además, Capponi señala que la competencia entre los atacantes de vanguardia beneficia a los validadores a través del valor extraíble máximo (MEV). En última instancia, si bien los fondos privados pueden mitigar el riesgo inicial, pueden aumentar la tarifa necesaria para la ejecución, lo que genera ineficiencias en la asignación.
Capponi destaca la correlación entre la proporción de transacciones enrutadas a través de grupos privados y la probabilidad de ser de primera ejecución, lo que complica la asignación óptima. También explora diferentes tipos de ataques frontales, incluidos los ataques de supresión y desplazamiento, y presenta datos que muestran las pérdidas sustanciales incurridas debido a la ejecución frontal. Para abordar estos riesgos, Capponi sugiere educar a los usuarios sobre el tiempo de las transacciones y hacer que la validación de las transacciones sea más determinista para crear un sistema más equitativo.
La discusión toca la dinámica de los grupos de transacciones privadas, los desafíos de la adopción y las posibles compensaciones involucradas. Capponi explica cómo los grupos privados brindan protección contra la ejecución anticipada, pero advierte que su efectividad depende de la cantidad de validadores que participan en el grupo privado. Además, aborda el tema de los validadores que no adoptan pools privados debido a la pérdida de MEV, proponiendo soluciones potenciales como subsidios a los usuarios para incentivar su adopción.
Si bien los grupos de transacciones privadas pueden mitigar los riesgos iniciales hasta cierto punto, Capponi enfatiza que no son infalibles y es posible que no logren una asignación óptima. La complejidad surge de factores como la competencia entre atacantes, la tasa de adopción de validadores en grupos privados y el impacto resultante en las tarifas de ejecución. La discusión plantea consideraciones importantes para la comunidad de blockchain al abordar los riesgos iniciales y garantizar un entorno de intercambio descentralizado justo y eficiente.
Dr. Kevin Webster: "Obtener más por menos: mejores pruebas A/B a través de la regularización causal"
Dr. Kevin Webster: "Obtener más por menos: mejores pruebas A/B a través de la regularización causal"
En este video, el Dr. Kevin Webster profundiza en los desafíos asociados con los experimentos comerciales y el aprendizaje automático causal, ampliando varios temas clave. Un problema destacado que aborda es el sesgo de predicción en el comercio, donde el rendimiento observado durante una operación es una combinación del impacto del precio y el movimiento del precio previsto. Para mitigar este sesgo, el Dr. Webster propone dos enfoques: el uso de datos comerciales aleatorios y la aplicación de la regularización causal. Al incorporar la señal comercial que provocó una operación en el modelo de regresión, se pueden eliminar los sesgos.
El Dr. Webster introduce el concepto de un gráfico causal, que involucra tres variables: el alfa de la operación, el tamaño de la operación y los rendimientos durante la operación. Afirma que estimar con precisión el impacto del precio es un desafío sin observar alfa, y las técnicas econométricas tradicionales se quedan cortas en este sentido. Destaca las limitaciones de los experimentos comerciales aleatorios debido a su tamaño y duración limitados, y enfatiza la necesidad de un diseño cuidadoso del experimento y una estimación de costos utilizando simuladores.
Para superar las deficiencias de la econometría tradicional, el Dr. Webster aboga por la regularización causal. Este método, derivado de Amazon, utiliza datos sesgados para el entrenamiento y datos imparciales para las pruebas, lo que da como resultado estimadores de baja varianza y sesgo bajo. Aprovecha la gran cantidad de datos organizacionales disponibles y corrige los sesgos, lo que permite predicciones más precisas.
Estimar alfa sin conocer su impacto plantea un desafío importante, especialmente cuando los datos comerciales carecen de confiabilidad. El Dr. Webster sugiere el uso de la presentación aleatoria de operaciones para obtener datos imparciales sin depender de la tecnología de fijación de precios. Sin embargo, este enfoque requiere renunciar a una gran fracción de operaciones para establecer un intervalo de confianza en alfa, lo que puede no ser práctico. Alternativamente, propone aprovechar el aprendizaje automático causal para lograr resultados similares con menos datos. El aprendizaje automático causal resulta particularmente valioso en las aplicaciones comerciales, como el análisis de costos de transacción, la evaluación del impacto de los precios y la investigación alfa, superando la econometría tradicional debido a la disponibilidad de datos comerciales profundos y sesgados.
El orador también profundiza en la importancia del análisis estadístico en las pruebas A/B, enfatizando la necesidad de definir el impacto del precio y adjuntar una medida estadística para combatir el sesgo de predicción. Sin abordar este sesgo, el análisis se vuelve subjetivo y depende de la interpretación individual. El Dr. Webster reconoce los desafíos que plantean los datos públicos de observación y destaca los conocimientos adquiridos a partir de los datos de intervención. Aunque responder a la pregunta de qué enfoque adoptar es complejo, las pruebas A/B siguen siendo una práctica común en las industrias bancarias y de corretaje.
Por último, el Dr. Webster analiza brevemente la relación entre el aprendizaje por transferencia y la regularización causal. Si bien ambos implican entrenar un modelo en un conjunto de datos y aplicarlo a otro, el aprendizaje de transferencia carece de una interpretación causal. La analogía entre los dos radica en su proceso de validación, con la validación cruzada jugando un papel fundamental. A pesar de sus similitudes matemáticas, el Dr. Webster enfatiza la novedad de la interpretación causal en el enfoque.
Yuyu Fan (Alliance Bernstein): "Aprovechamiento de la minería de texto para extraer información"
Yuyu Fan (Alliance Bernstein): "Aprovechamiento de la minería de texto para extraer información"
Yuyu Fan, investigador de Alliance Bernstein, brinda información valiosa sobre la aplicación del procesamiento del lenguaje natural (NLP) y el aprendizaje automático para analizar las transcripciones de llamadas de ganancias y generar estrategias comerciales efectivas.
El equipo de Fan empleó varias técnicas, incluido el análisis de sentimientos, el análisis contable y la puntuación de legibilidad, para evaluar más de 200 características extraídas de las transcripciones de llamadas de ganancias. Utilizaron modelos avanzados como BERT (Representaciones de codificador bidireccional de transformadores) para evaluar el sentimiento de los oradores, comparando el sentimiento de los directores ejecutivos con el de los analistas. Curiosamente, descubrieron que el sentimiento de los analistas tiende a ser más confiable.
El análisis se realizó tanto en secciones individuales como en secciones combinadas de las transcripciones, y el equipo descubrió que un enfoque basado en el contexto supera a un enfoque ingenuo basado en palabras de fondo. La señal de sentimiento, en particular para las empresas estadounidenses de pequeña capitalización, funcionó bien y fue recomendada por los equipos de inversión.
Al explicar la metodología, Fan describe cómo su equipo usó la selección por cuantiles y las pruebas retrospectivas para evaluar el rendimiento de diferentes funciones. Examinaron puntuaciones de sentimiento basadas en enfoques basados en diccionarios, así como enfoques basados en contexto utilizando BERT. El equipo también profundizó en las puntuaciones de legibilidad, que miden la facilidad de comprensión de un texto, centrándose en los comentarios del director general para identificar posibles correlaciones con el rendimiento de la empresa.
Fan brinda información sobre el funcionamiento de BERT, destacando su representación de codificador bidireccional que captura información contextual de la izquierda y la derecha de una palabra determinada. El equipo ajustó el modelo BERT para el análisis de opiniones agregando etiquetas de opiniones mediante autoetiquetado y conjuntos de datos externos. Sus hallazgos indicaron que el análisis de sentimientos basado en BERT superó al análisis de sentimientos basado en diccionarios, como lo demuestran los ejemplos de las transcripciones de llamadas de ganancias.
Además, Fan analiza los desafíos de establecer umbrales de precisión para el análisis de sentimientos y enfatiza que el rendimiento práctico puede no diferir significativamente entre los niveles de precisión. Destaca el éxito de su señal de confianza en las empresas estadounidenses de pequeña capitalización, lo que llevó a su recomendación por parte de los equipos de inversión. Fan también menciona la publicación de un documento que detalla las características de NLP que podrían servir como señales cuantitativas para crear estrategias comerciales eficientes, con esfuerzos continuos para mejorar el modelo a través del aumento de datos.
La discusión se expande para cubrir la correlación entre las funciones de NLP y las funciones fundamentales y cuantitativas tradicionales, destacando la correlación moderada observada para la legibilidad y la contabilidad de sentimientos. Fan aclara su metodología de devolución, incluida la selección de empresas en función de la última información disponible antes del reequilibrio.
Hacia el final, Fan toca temas como el arbitraje de CO2, la diferencia entre BERT y FinBERT, y el desarrollo de un modelo de uso financiero para BERT específicamente diseñado para presentaciones, ganancias y noticias relacionadas con las finanzas. También se menciona el proceso de convertir datos de audio en transcripciones para su análisis, con el uso de servicios de transcripción y soluciones de proveedores.
En resumen, la investigación de Yuyu Fan muestra el poder de la PNL y las técnicas de aprendizaje automático para analizar las transcripciones de llamadas de ganancias. La aplicación de análisis de sentimiento, análisis contable y puntuación de legibilidad, junto con la utilización de modelos avanzados como BERT, permite la generación de estrategias comerciales eficientes. El enfoque basado en el contexto supera a los enfoques ingenuos, y la señal de sentimiento resulta valiosa, en particular para las empresas estadounidenses de pequeña capitalización, según lo recomendado por los equipos de inversión de Alliance Bernstein.
Ciamac Moallemi (Columbia): "Provisión de liquidez y creación de mercado automatizada"
Ciamac Moallemi (Columbia): "Provisión de liquidez y creación de mercado automatizada"
En esta discusión integral, Ciamac Moallemi, profesor de la Universidad de Columbia, profundiza en las complejidades de la provisión de liquidez y la creación automatizada de mercados (AMM) desde varios ángulos. Él enfatiza la relevancia de los AMM para abordar los desafíos computacionales y de almacenamiento que enfrentan las plataformas blockchain y su capacidad para generar retornos positivos para los proveedores de liquidez. Para ilustrar el concepto, Moallemi presenta el costo de selección adversa por volatilidad en UniSwap V2, revelando un costo anual de aproximadamente $39,000 en un grupo de $125 millones. Hace hincapié en la importancia de la volatilidad y el volumen de negociación para determinar los rendimientos de los proveedores de liquidez y aclara cómo los AMM manejan a los arbitrajistas y a los comerciantes informados.
Moallemi destaca las ventajas de utilizar AMM en la cadena de bloques y explora los roles de las funciones de valor agrupado y las funciones de vinculación. Destaca la importancia de cubrir los riesgos y costos asociados con las estrategias de reequilibrio. Además, Moallemi presenta su propio modelo de provisión de liquidez y creación de mercado automatizada, comparándolo con datos reales de la cadena de bloques de Ethereum. Analiza cómo su modelo puede mejorar potencialmente los AMM al reducir los costos pagados a los intermediarios. Moallemi propone varios enfoques para mitigar las ineficiencias causadas por precios subóptimos, como utilizar un oráculo como fuente de datos y vender derechos de arbitraje a participantes autorizados, lo que les permite operar contra el grupo sin cargos.
Además, Moallemi aclara las ventajas de los AMM sobre los libros de órdenes limitadas tradicionales, particularmente en términos de simplicidad y accesibilidad. Destaca cómo los AMM nivelan el campo de juego para los participantes menos sofisticados al eliminar la necesidad de algoritmos complejos y recursos extensos. Moallemi concluye expresando optimismo sobre el potencial de mejores estructuras que beneficien a una gama más amplia de participantes, posicionando a las AMM como un paso en la dirección correcta.
Andreea Minca (Cornell ORIE): Agrupación de Redes Financieras Heterogéneas
Andreea Minca (Cornell ORIE): Agrupación de Redes Financieras Heterogéneas
La profesora Andreea Minca, reconocida experta en el campo de las redes financieras en Cornell ORIE, ha dedicado su investigación a explorar las complejidades de agrupar redes financieras heterogéneas. Ella presenta un término de regularización innovador para abordar los desafíos únicos que plantean estas redes, en particular la presencia de valores atípicos con patrones de conexión arbitrarios. Estos valores atípicos dificultan el rendimiento de los algoritmos de agrupamiento espectral y transforman el agrupamiento en un problema computacionalmente desafiante conocido como problema combinatorio NP-difícil.
Para identificar estos valores atípicos en función de sus patrones de conexión, Minca utiliza el modelo de bloques estocásticos y el modelo de bloques estocásticos corregidos en grado. Estos modelos ofrecen garantías teóricas para una recuperación precisa sin hacer suposiciones sobre los nodos atípicos, excepto para conocer sus números. La heterogeneidad inherente a las redes financieras complica aún más la detección de valores atípicos basados únicamente en los grados de los nodos.
Minca profundiza en el proceso de partición de la red en clústeres y valores atípicos mediante la construcción de una matriz de partición y una permutación de nodos. Ella ejemplifica este enfoque aplicándolo para analizar el sistema bancario coreano. Además, Minca emplea una muestra de Gibbs para llenar los vacíos en la red, lo que permite una asignación de riesgos eficiente y la diversificación de las inversiones mediante la agrupación de carteras superpuestas en función de su fuerza y nivel de superposición.
En su trabajo, Minca enfatiza la importancia de generar clústeres que muestren una interconectividad significativa en lugar de clústeres sin conectividad. Ella propone un enfoque que ofrece cinco alternativas para la diversificación bajo un marco de paridad de riesgo de clúster, destacando la necesidad de una consideración cuidadosa al usar algoritmos de agrupamiento para lograr la diversificación en las redes financieras. Minca aconseja cuantificar el desempeño de los algoritmos de agrupamiento utilizando categorías de inversión estándar y enfatiza la importancia de la toma de decisiones informada cuando se utilizan estas técnicas.
En general, la investigación de la profesora Andreea Minca proporciona información valiosa sobre las complejidades de agrupar redes financieras heterogéneas, ofreciendo enfoques innovadores y soluciones prácticas para abordar los desafíos asociados con estas redes. Su trabajo contribuye al avance del análisis de riesgos, la selección de carteras y la comprensión de la dinámica estructural de los sistemas financieros.