Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Uso de R en operaciones de mercado financiero en tiempo real
Uso de R en operaciones de mercado financiero en tiempo real
En este video informativo, el presentador profundiza en la aplicación práctica del uso del lenguaje de programación R en el comercio de mercados financieros en tiempo real, centrándose específicamente en el comercio de divisas. Comienzan discutiendo el atractivo del comercio de divisas, destacando su manejabilidad y el dominio de algunos pares clave en el comercio de divisas global. Se enfatiza que el comercio de divisas se lleva a cabo en el mercado extrabursátil, a diferencia de los intercambios regulados. El presentador reconoce los desafíos de identificar anomalías en los movimientos de divisas debido a la liquidez y aleatoriedad del mercado.
Se explica el concepto de negociación extrabursátil, señalando que se diferencia de otros tipos de negociación en que prioriza factores como la contraparte y el precio de cotización sobre la ejecución y la latencia. Luego, el video cubre la terminología estándar del mercado financiero, incluido el uso de velas para visualizar datos y la distinción entre operar en largo (comprar bajo y vender alto) y operar en corto (vender acciones prestadas a un precio más alto y recomprarlas a un precio más bajo para obtener ganancias). ).
Para demostrar el análisis en tiempo real del comercio del mercado financiero usando R, el presentador recorre dos ejemplos. El primer ejemplo se enfoca en probar la probabilidad de la dirección de la próxima vela en base a velas alcistas o bajistas consecutivas. Esta hipótesis se examina utilizando el conocimiento de los patrones de velas y su impacto potencial en las tendencias del mercado.
El video explora aún más la metodología de prueba de hipótesis en el comercio del mercado financiero en tiempo real utilizando R. Se presenta un ejemplo en el que los datos se procesan previamente y se crea una tabla de velas consecutivas para evaluar la probabilidad de un cambio en la dirección de la vela. Los costos de negociación se establecen en cero inicialmente y se establece y prueba un saldo de ganancias en una fecha modelo. Sin embargo, se destaca la importancia de probar rigurosamente las entradas y salidas en un entorno comercial, ya que establecer los costos comerciales en dos puntos genera pérdidas de dinero y logra la neutralidad del mercado.
Se abordan consideraciones como el deslizamiento y los costos comerciales, y el orador enfatiza la necesidad de tener en cuenta estos factores y sugiere la incorporación de un margen de error. Se presenta un ejemplo más complejo que involucra la naturaleza cíclica del eurodólar, con un enfoque en la medición de la ciclicidad en función de los puntos de inflexión y el movimiento de precios. El orador destaca la importancia de mantener un eje x uniforme en el análisis del mercado financiero para evitar distorsionar los movimientos del mercado durante los fines de semana.
El video profundiza en una estrategia comercial de reversión a la media, que implica identificar instancias en las que un mercado ha experimentado un movimiento ascendente rápido y anticipar una inversión de tendencia a corto plazo. Se analiza la distribución de precios y los movimientos de las velas para determinar los parámetros adecuados para implementar esta estrategia. Las pruebas se llevan a cabo inicialmente con cero costos comerciales, seguidas de un pequeño costo comercial de 2 pubs. Los resultados son cautelosamente optimistas, pero el orador reconoce la presencia de posibles problemas estadísticos que requieren más investigación y pruebas de mercado reales.
El análisis de regresión se presenta como un método para suavizar puntos de datos, pero se señalan los desafíos de predecir tendencias futuras cuando la línea de regresión cambia con datos adicionales. Se analizan las pruebas retrospectivas básicas y las pruebas directas utilizando R, destacando las limitaciones de las pruebas con un solo instrumento y la necesidad de un enfoque más integral.
Luego, el presentador comparte ideas sobre la incorporación del código R en entornos comerciales en tiempo real. Destacan la importancia de volver a calcular los valores de regresión con frecuencia para adaptarse a los cambios del mercado en lugar de depender de modelos sobreajustados para el éxito a largo plazo. El código incluye parámetros de toma de decisiones para comprar o vender basados en diferencias de velas y cambios de precio, así como una estrategia de salida basada en alcanzar un cierto umbral de ganancias. El presentador demuestra el proceso de backtesting y expresa confianza en obtener resultados positivos.
Se destaca la importancia de utilizar una curva de equidad Mark-to-Market en lugar de una curva de equidad comercial para evaluar los sistemas comerciales. Se discuten las limitaciones de la curva Trade Equity para reflejar la posición de efectivo de un sistema mientras las transacciones están activas. El presentador muestra dos gráficos que comparan los dos tipos de curvas, que revelan períodos de falla del sistema y reducción significativa. Se enfatiza la necesidad de una estrategia de stop-loss para mitigar las pérdidas y se comparte el código necesario para implementar dicha estrategia. El presentador reconoce que una falla en la estrategia de salida llevó a mantener posiciones durante demasiado tiempo, lo que resultó en pérdidas sustanciales.
Luego, el video profundiza en la integración del código R en la ejecución de algoritmos y la utilización de un paquete de Windows en el lado del modelado. El presentador explica que su comercio con dinero real ocurre en servidores Linux, que están perfectamente conectados a la plataforma CIRA a través de un espacio de memoria compartida. Esta configuración permite el intercambio de datos, incluidos FIX, operaciones y velas, entre su sistema y la plataforma. El ponente revela que gestionan el riesgo operando simultáneamente entre cuatro y ocho instrumentos diferentes. Sin embargo, advierten contra confiar únicamente en la probabilidad en el comercio del mundo real, ya que puede hacer que los operadores pierdan oportunidades valiosas a lo largo del día.
En conclusión, este video brinda información valiosa sobre la implementación práctica de R en el comercio de mercados financieros en tiempo real, centrándose específicamente en el comercio de divisas extranjeras. El presentador cubre varios aspectos, que incluyen el comercio extrabursátil, la terminología estándar del mercado financiero, la prueba de hipótesis, las estrategias comerciales de reversión a la media, consideraciones como el deslizamiento y los costos comerciales, y la integración del código R en la ejecución de algoritmos. Si bien destaca los beneficios potenciales del comercio algorítmico, el video también reconoce la necesidad de pruebas rigurosas, una consideración cuidadosa de los problemas estadísticos y la importancia de las estrategias de gestión de riesgos en los escenarios comerciales del mundo real.
Introducción al Trading Cuantitativo - Clase 1/8
Introducción al Trading Cuantitativo - Clase 1/8
Este curso integral sirve como una introducción profunda al fascinante mundo del comercio cuantitativo, equipando a los estudiantes con el conocimiento y las habilidades necesarias para sobresalir en este campo dinámico. El comercio cuantitativo gira en torno a la utilización de modelos matemáticos y programas informáticos para transformar las ideas comerciales en estrategias de inversión rentables. Todo comienza con un administrador de cartera o un operador que comienza con una intuición inicial o un concepto comercial vago. Mediante la aplicación de técnicas matemáticas, estas intuiciones se transforman en modelos comerciales matemáticos precisos y sólidos.
El proceso de negociación cuantitativa implica someter estos modelos a un análisis riguroso, pruebas retrospectivas y refinamiento. Se emplean pruebas estadísticas y simulaciones para evaluar su desempeño y asegurar su confiabilidad. Esta fase de prueba meticulosa es crucial para identificar y abordar cualquier falla o debilidad en los modelos antes de ponerlos en acción.
Una vez que un modelo de inversión cuantitativo ha demostrado su rentabilidad potencial, se implementa en un sistema informático, lo que permite la ejecución automatizada de operaciones. Esta integración de modelos matemáticos en programas informáticos se encuentra en el corazón del comercio cuantitativo, combinando el poder de las matemáticas con la eficiencia de la informática. A lo largo del curso, los estudiantes exploran varias estrategias de inversión extraídas de la literatura académica popular, obtienen información sobre sus principios matemáticos subyacentes y aprenden a traducirlos en modelos comerciales procesables.
El plan de estudios de este curso abarca una amplia gama de temas, equipando a los estudiantes con las habilidades cuantitativas, informáticas y de programación esenciales para el éxito en el campo del comercio cuantitativo. Los estudiantes profundizan en las complejidades del modelado matemático, el análisis estadístico y el comercio algorítmico. También adquieren competencia en los lenguajes de programación comúnmente utilizados en finanzas cuantitativas, como Python y R, lo que les permite implementar y probar sus modelos comerciales de manera efectiva.
Al completar este curso, los estudiantes no solo obtienen una visión holística del panorama comercial cuantitativo, sino que también desarrollan las habilidades necesarias para navegarlo con confianza. Se vuelven expertos en transformar ideas comerciales en modelos matemáticos, probar y refinar rigurosamente estos modelos y, en última instancia, implementarlos en escenarios comerciales del mundo real. Con su base sólida en técnicas cuantitativas y computacionales, los estudiantes están bien preparados para seguir carreras en comercio cuantitativo, comercio algorítmico u otros campos relacionados donde la fusión de las matemáticas y la tecnología impulsa el éxito.
Introducción al Trading Cuantitativo - Clase 2/8
Introducción al Trading Cuantitativo - Clase 2/8
En esta conferencia, el orador enfatiza la importancia de la tecnología y la programación en el comercio cuantitativo. Discuten cómo la tecnología y las habilidades de programación son esenciales para cooptar estrategias comerciales cuantitativas y realizar pruebas retrospectivas. El ponente destaca la importancia de las matemáticas y la programación informática en este campo. Presentan la programación básica de Java y la programación matemática usando Java, y enfatizan la necesidad de habilidades de programación en el comercio cuantitativo debido al requisito de backtesting.
El disertante discute los desafíos involucrados en simular y analizar el desempeño futuro de una estrategia. Mencionan que las ganancias y pérdidas históricas (PNL) no son un indicador confiable para capacitarse o decidir si cambiar una estrategia. En cambio, sugieren usar simulación y calibración de parámetros, que requieren una programación intensa, para encontrar parámetros óptimos y probar la sensibilidad de una estrategia a ellos. También enfatizan la importancia de usar el mismo software para la investigación y el comercio en vivo para evitar errores de traducción.
El orador analiza las responsabilidades de un comerciante cuantitativo y enfatiza la necesidad de crear prototipos eficientes de ideas comerciales. Sugieren pasar la mayor parte del tiempo haciendo una lluvia de ideas y proponiendo ideas, mientras minimizan el tiempo dedicado a las pruebas y la programación. Mencionan la importancia de tener una caja de herramientas de bloques de construcción para prototipar rápidamente nuevas estrategias.
El orador aborda los desafíos de usar herramientas populares como Excel, MATLAB y R en el comercio cuantitativo y afirma que no están diseñadas para estrategias matemáticas sofisticadas. Recomiendan usar otros lenguajes de programación como Java, C-sharp y C++ que tienen bibliotecas para construir e implementar estrategias comerciales.
El orador analiza específicamente las limitaciones del uso de R para el comercio cuantitativo. Mencionan que R es lento, tiene memoria limitada y posibilidades limitadas de paralelización. También destacan la falta de herramientas de depuración e interfaces estándar para la comunicación entre diferentes programas.
El orador enfatiza la importancia de la tecnología y el uso de herramientas adecuadas en el comercio cuantitativo. Mencionan que herramientas como R y MATLAB pueden mejorar significativamente la programación matemática y brindar acceso a bibliotecas para cálculos más rápidos. Destacan la necesidad de una buena caja de herramientas de investigación comercial que permita una fácil combinación de módulos, programación paralela y limpieza automática de datos y calibración de parámetros.
El orador analiza las ventajas de usar tecnologías más nuevas como Java y C# para el comercio cuantitativo. Mencionan que estos lenguajes eliminan la necesidad de depurar problemas como fugas de memoria y fallas de segmentación, lo que mejora la productividad. Demuestran la programación Java y brindan sesiones prácticas de laboratorio para los participantes.
El orador explica cómo corregir la entrada de un programa Java corrigiendo las importaciones y demuestra la programación matemática utilizando la biblioteca algo quant. Guían a los participantes a través de copiar y pegar el código del sitio web a sus computadoras para ejecutarlo.
El orador aborda las preguntas técnicas de la audiencia con respecto a la descarga y ejecución del código utilizado en la conferencia. Demuestran la versión clásica de una cadena de Markov oculta utilizando la función de seminario web.
El orador explica el concepto de una cadena de Markov y demuestra un modelo simple de dos estados con probabilidades de transición. Explican cómo se utilizan las cadenas de Markov como generadores de números aleatorios para simular observaciones y estimar parámetros del modelo. Animan a la audiencia a experimentar con la creación de sus propios modelos de cadenas de Markov.
El orador analiza la importancia de la comunicación y la colaboración en el comercio cuantitativo y alienta a los miembros del equipo a comunicarse entre sí y brindar actualizaciones sobre su progreso. Mencionan la posibilidad de usar modelos de Markov de orden superior e invitan a hacer preguntas y compartir la pantalla durante las discusiones en vivo.
El disertante analiza los desafíos de estimar parámetros en modelos comerciales cuantitativos con observaciones limitadas. Explican que se requieren más datos para una estimación precisa y recomiendan usar modelos de estado más grandes o aumentar el número de observaciones. Analizan el algoritmo de Baum-Welch para entrenar modelos ocultos de Markov e introducen el concepto de backtesting.
El orador demuestra una estrategia de cruce de promedio móvil simple en AlgoQuant y explica el proceso de creación de estrategias, simuladores y ejecución de simulaciones. Resaltan la importancia de las pruebas y el análisis de rendimiento utilizando medidas como pérdidas y ganancias, relación de información, reducción máxima y más.
El orador explica explorar diferentes estrategias comerciales y probar su rendimiento a través de la simulación. El orador explica que la simulación permite a los comerciantes evaluar la rentabilidad potencial y los riesgos asociados con una estrategia antes de implementarla en operaciones reales. Al simular diferentes condiciones y escenarios de mercado, los comerciantes pueden obtener información sobre el rendimiento de la estrategia y tomar decisiones informadas.
El orador también enfatiza la importancia de los costos de transacción en las estrategias comerciales. Los costos de transacción, como las tarifas de corretaje y el deslizamiento, pueden tener un impacto sustancial en la rentabilidad general de una estrategia. Por lo tanto, es crucial tener en cuenta los costos de transacción durante la simulación y el backtesting para obtener una evaluación realista del desempeño de una estrategia.
Además, el disertante introduce el concepto de gestión de riesgos en el comercio cuantitativo. Explican que la gestión de riesgos implica implementar estrategias para controlar y mitigar pérdidas potenciales. Las técnicas de gestión de riesgos pueden incluir el establecimiento de órdenes de límite de pérdida, el tamaño de la posición y la diversificación. Es esencial incorporar principios de gestión de riesgos en las estrategias comerciales para protegerse contra pérdidas financieras significativas.
El ponente concluye reiterando la importancia del aprendizaje y la mejora continua en el trading cuantitativo. Animan a los participantes a explorar diferentes estrategias, analizar su desempeño e iterar en función de los resultados. Al aprovechar la tecnología, las habilidades de programación y un enfoque sistemático para el desarrollo de estrategias, los comerciantes pueden mejorar su rentabilidad y éxito en los mercados financieros.
En general, la conferencia se centra en la importancia de la tecnología, la programación, la simulación y la gestión de riesgos en el comercio cuantitativo. Destaca la necesidad de experimentación, aprendizaje continuo y el uso de herramientas especializadas para desarrollar y refinar estrategias comerciales.
Parte 1
Parte 2
parte 3
Área de juegos de ingeniería financiera: procesamiento de señales, estimación robusta, Kalman, optimización
Área de juegos de ingeniería financiera: procesamiento de señales, estimación robusta, Kalman, optimización
En este cautivador video, Daniel Palomar, profesor del departamento de ingeniería eléctrica, electrónica e informática de HKUST, arroja luz sobre la amplia gama de aplicaciones del procesamiento de señales en el ámbito de la ingeniería financiera. Palomar disipa la idea errónea que rodea a la ingeniería financiera y enfatiza la ubicuidad de las técnicas de procesamiento de señales dentro de este campo. Destaca la relevancia de varios temas, como la teoría de matrices aleatorias, los filtros de partículas, los filtros de Kalman, los algoritmos de optimización, el aprendizaje automático, el aprendizaje profundo, la optimización estocástica y las restricciones de probabilidad.
Palomar profundiza en las propiedades distintivas de los datos financieros, conocidos como hechos estilizados, que se mantienen consistentes en diferentes mercados. Explica cómo los ingenieros financieros emplean rendimientos en lugar de precios para modelar el mercado de valores. Los retornos lineales y logarítmicos, a pesar de sus pequeñas diferencias, son ampliamente utilizados debido a la pequeña magnitud de los retornos. Estos rendimientos se analizan para determinar su estacionariedad, siendo la no estacionariedad una característica destacada de los datos financieros. El orador también aborda otros hechos estilizados, como las distribuciones de colas pesadas, la asimetría en los rendimientos de baja frecuencia y el fenómeno del agrupamiento de volatilidad.
Se enfatiza la importancia de modelar los rendimientos de las acciones en finanzas, con un enfoque particular en la volatilidad. Palomar establece paralelismos entre la señal de retorno y una señal de voz, explorando posibles colaboraciones entre el modelado financiero y el procesamiento de señales de voz. Se analizan diferentes regímenes de frecuencia en el modelado, incluido el modelado de alta frecuencia, y se destacan los desafíos que plantea la necesidad de datos en tiempo real y recursos informáticos potentes.
También se examinan las limitaciones de los modelos que se enfocan únicamente en modelar los rendimientos sin considerar la covarianza o la varianza de los rendimientos. El ponente destaca la importancia de capturar la información y la estructura proporcionada por los modelos de covarianza y varianza, que pueden permitir una toma de decisiones más rentable. Palomar introduce el concepto de modelar la varianza y la covarianza de los rendimientos utilizando un residuo compuesto por un término aleatorio normalizado y un término envolvente que captura la covarianza de los residuos. Sin embargo, modelar un residuo multivariante con una matriz de coeficiente grande requiere modelos más sofisticados.
El video explora los desafíos de estimar parámetros frente a datos limitados y una gran cantidad de parámetros, lo que puede conducir a un sobreajuste. Para abordar esto, se introduce la dispersión de rango bajo como un medio para analizar el modelo Vega y formular restricciones. Palomar analiza el concepto de robustez y la inadecuación de asumir una distribución gaussiana para la ingeniería financiera debido a las colas pesadas y los regímenes de muestras pequeñas. Explica que los estimadores de muestras tradicionales basados en la distribución gaussiana arrojan resultados inferiores, lo que requiere una reformulación sin tales suposiciones. Técnicas como la reducción y la regularización se presentan como medios efectivos para abordar colas pesadas, con su implementación exitosa en finanzas y comunicaciones.
Se explora la estimación robusta, una herramienta utilizada en finanzas para mejorar la precisión a pesar de los valores atípicos. El orador presenta distribuciones elípticas para modelar distribuciones de colas pesadas y explica cómo se pueden calcular los pesos para cada muestra mediante un método iterativo. El estimador de Tyler, que normaliza las muestras y estima la función de densidad de probabilidad (PDF) de la muestra normalizada, se analiza como un medio para eliminar la forma de la cola. El estimador de Tyler, en combinación con estimadores robustos, mejora la precisión de la estimación de la matriz de covarianza. La inclusión de términos de regularización y el desarrollo de algoritmos contribuyen aún más a mejorar las observaciones y la estimación de matrices de covarianza.
Palomar profundiza en conceptos financieros como la estimación de Wolfe, la estimación de Tyler y la cointegración. Si bien la estimación de Wolfe representa una mejora significativa, todavía se basa en la suposición de una distribución gaussiana. La estimación de Tyler, una alternativa atractiva, requiere un número suficiente de muestras para modelos con múltiples dimensiones. La cointegración, un concepto crucial en finanzas, sugiere que predecir el precio relativo de dos acciones puede ser más fácil que predecir precios individuales, lo que abre oportunidades para el comercio de pares. Se explora la distinción entre correlación y cointegración, centrándose la correlación en las variaciones a corto plazo y la cointegración en el comportamiento a largo plazo.
El video revela el concepto de una tendencia común y su relación con el comercio de diferenciales. La tendencia común se describe como un paseo aleatorio compartido por dos acciones que tienen un componente común. Al restar la tendencia común del diferencial entre los precios de las acciones, los comerciantes obtienen un residual con una media de cero, que sirve como un indicador confiable para la reversión a la media. Esta propiedad se vuelve fundamental en las estrategias comerciales de spread. El orador explica que al establecer umbrales en el diferencial, los comerciantes pueden identificar situaciones infravaloradas y capitalizar la recuperación del precio, beneficiándose así de la diferencia de precio. La estimación del parámetro gamma y la identificación de acciones cointegradas son pasos esenciales en este proceso, que se puede lograr utilizando técnicas como mínimos cuadrados.
El ponente profundiza en el papel del filtro de Kalman en escenarios donde un cambio en el régimen conduce a la pérdida de cointegración debido a la variación de gamma. La adaptabilidad del filtro de Kalman a estas variaciones se destaca a través de una comparación con los métodos de mínimos cuadrados y mínimos cuadrados móviles. Se demuestra que el filtro de Kalman supera a las otras técnicas, ya que mantiene un seguimiento constante alrededor de cero, mientras que los mínimos cuadrados exhiben fluctuaciones que resultan en pérdidas durante un período de tiempo. Por lo tanto, el disertante recomienda emplear el filtro de Kalman para una estimación robusta en ingeniería financiera.
Se presenta una comparación entre el rendimiento de los modelos de filtro de mínimos cuadrados y de Kalman, lo que confirma la eficacia del método de Kalman en la ingeniería financiera. Luego, el orador profundiza en la aplicación de modelos ocultos de Markov para detectar regímenes de mercado, lo que permite a los comerciantes ajustar sus estrategias de inversión en función de las condiciones predominantes del mercado. La optimización de cartera se introduce como un concepto fundamental, que implica el diseño de carteras que equilibren el rendimiento esperado y la varianza del rendimiento de la cartera. El orador establece paralelismos entre la optimización de cartera y los modelos de formación de haces y filtrado lineal, ya que comparten modelos de señal similares.
El video analiza cómo las técnicas de comunicación y procesamiento de señales se pueden aplicar a las finanzas. El concepto de relación señal-ruido en comunicación se compara con la relación de Sharpe en finanzas, que mide la relación entre el rendimiento de la cartera y la volatilidad. El orador presenta la cartera de Markowitz, que busca maximizar el rendimiento esperado y minimizar la varianza. Sin embargo, debido a su sensibilidad a los errores de estimación y la dependencia de la varianza como medida de riesgo, la cartera de Markowitz no se usa mucho en la práctica. Para abordar esto, se pueden emplear técnicas de dispersión del procesamiento de señales, particularmente en el seguimiento de índices, donde solo se usa un subconjunto de acciones para rastrear un índice, en lugar de invertir en todas las acciones constituyentes. El ponente propone mejoras a las técnicas de escasez para reducir los errores de seguimiento.
El video profundiza en el concepto de "comercio de monedero" y destaca el papel de las carteras en el comercio. Usando el modelo de valor en riesgo (VaR), el orador explica cómo se puede lograr el comercio de cartera al construir una cartera de dos acciones con pesos específicos. La matriz PI y la matriz beta se presentan como herramientas que proporcionan un subespacio de diferenciales de reversión a la media, lo que permite el arbitraje estadístico. La incorporación de la matriz beta en la optimización facilita la identificación de la dirección óptima dentro del subespacio, lo que genera resultados superiores en comparación con el uso de beta solo. El orador también menciona su libro, "Una perspectiva de procesamiento de señales en ingeniería financiera", que sirve como punto de entrada para los profesionales de procesamiento de señales interesados en el campo de las finanzas.
Hacia la conclusión del video, se exploran diferentes enfoques para operar en ingeniería financiera. El ponente distingue entre estrategias que capitalizan pequeñas variaciones y tendencias y aquellas que se enfocan en explotar el ruido. Estas dos familias de estrategias de inversión ofrecen vías distintas para generar ganancias. El orador también aborda los desafíos que plantea la falta de datos para aplicar técnicas de aprendizaje profundo en finanzas, ya que el aprendizaje profundo generalmente requiere cantidades sustanciales de datos, que pueden estar limitados en contextos financieros. Además, se analiza el concepto de estimación de dimensiones vectoriales para más de dos acciones, y el orador brinda información sobre varios enfoques.
En el segmento final, el disertante aborda el tema del dominio del mercado por parte de las grandes empresas y su impacto en el mercado financiero. El ponente destaca la influencia potencial que pueden tener las grandes empresas con importantes recursos financieros cuando realizan inversiones sustanciales. Esta concentración de poder plantea consideraciones importantes para la dinámica del mercado y el comportamiento de otros participantes del mercado.
El video toca brevemente el tema de la ejecución de órdenes en finanzas. Explica que cuando se trata de órdenes grandes, es una práctica común dividirlas en partes más pequeñas y ejecutarlas gradualmente para evitar perturbar el mercado. Este aspecto de las finanzas implica técnicas de optimización complejas y, a menudo, se basa en principios de la teoría del control. El ponente destaca el carácter matemático de la ejecución de órdenes y menciona la existencia de numerosos trabajos académicos sobre el tema.
A medida que el video llega a su fin, el orador invita a la audiencia a plantear más preguntas durante la pausa para el café, reconociendo su presencia y participación. El video es un recurso valioso que brinda información sobre la aplicación del procesamiento de señales en la ingeniería financiera. Ofrece perspectivas para mejorar las estimaciones, optimizar carteras y detectar regímenes de mercado a través de la lente de las técnicas de procesamiento de señales.
En general, el video proporciona una descripción completa de las diversas aplicaciones del procesamiento de señales en la ingeniería financiera. Enfatiza la importancia de modelar los rendimientos, la varianza y la covarianza de las acciones en las finanzas al tiempo que aborda los desafíos de la estimación de parámetros, el sobreajuste y las limitaciones de los modelos financieros tradicionales. Los conceptos de estimación robusta, cointegración, optimización de cartera y técnicas de escasez se analizan en detalle. Al destacar los paralelismos entre la comunicación y el procesamiento de señales en las finanzas, el orador subraya la relevancia y el potencial de colaboración entre estos dos dominios. El video concluye arrojando luz sobre las estrategias comerciales, el aprendizaje automático en las finanzas y la importancia de la dinámica del mercado influenciada por las grandes empresas.
"Kalman Filtering with Applications in Finance" de Shengjie Xiu, tutorial del curso 2021
"Kalman Filtering with Applications in Finance" de Shengjie Xiu, tutorial del curso 2021
En el video titulado "Filtrado de Kalman con aplicaciones en finanzas", se explora el concepto de modelos basados en el estado y su aplicación en finanzas. El disertante presenta el filtro de Kalman como una técnica versátil para predecir el estado de un sistema basado en observaciones previas y corregir la predicción usando observaciones actuales. El video también cubre Common Smoother y el algoritmo EM, que se utilizan para analizar datos históricos y aprender los parámetros de un modelo de finanzas basado en el estado.
El video comienza ilustrando el concepto de modelos basados en estados utilizando el ejemplo de un automóvil que circula a lo largo de un eje con posiciones ocultas. El presentador explica cómo los modelos basados en estado consisten en matrices de transición y observación que mapean el estado en el espacio observado. Estos modelos pueden manejar múltiples estados o sensores que registran posiciones simultáneamente. El estado oculto sigue una propiedad de Markov, lo que lleva a una forma elegante de probabilidad.
Luego, el disertante profundiza en el algoritmo de filtro de Kalman y su aplicación en las finanzas. El algoritmo involucra pasos de predicción y corrección, donde la incertidumbre está representada por la varianza de una función gaussiana. La ganancia común, que determina el peso entre la predicción y la observación, se destaca como un factor crucial. Se enfatiza la simplicidad y la eficiencia computacional del filtro de Kalman.
Se analiza un experimento que compara la confiabilidad de los datos del GPS y del odómetro para predecir la ubicación de un automóvil, lo que demuestra la eficacia del filtro Kalman incluso cuando ciertas fuentes de datos no son confiables. Sin embargo, se observa que el filtro de Kalman está diseñado para modelos lineales estabilizados por Gauss, lo que limita su aplicabilidad.
El video también presenta Common Smoother, que proporciona un rendimiento más suave que Common Filter y resuelve el problema de la tendencia a la baja del filtro. Se discute la necesidad de entrenar parámetros en finanzas y el concepto de parámetros variables en el tiempo. El algoritmo Expectation-Maximization (EM) se presenta como un medio para aprender los parámetros cuando se desconocen los estados ocultos.
El ponente explica el algoritmo EM, que consiste en el paso E y el paso M, para calcular las distribuciones posteriores de los estados latentes y optimizar la función objetivo para la estimación de parámetros. Se destaca la aplicación del modelo basado en el estado en las finanzas, específicamente para la descomposición del volumen de negociación intradía.
Varias variantes del filtro Kalman, como el filtro Kalman extendido y el filtro Kalman sin perfume, se mencionan como soluciones para manejar la funcionalidad no lineal y el ruido. Los filtros de partículas se introducen como un método computacional para modelos complejos que no pueden resolverse analíticamente.
El video concluye discutiendo las limitaciones de las soluciones analíticas y la necesidad de métodos computacionales como los métodos de Monte Carlo. El orador reconoce la naturaleza exigente de estos procesos, pero destaca los aspectos fascinantes del filtrado de Kalman.
En general, el video ofrece una exploración en profundidad de los modelos basados en el estado, el filtro de Kalman y sus aplicaciones en las finanzas. Cubre los conceptos fundamentales, los pasos algorítmicos y las consideraciones prácticas, al mismo tiempo que menciona variantes avanzadas y métodos computacionales. El orador destaca la relevancia y el poder de los modelos basados en el estado para revelar información oculta y enfatiza los continuos avances en el campo.
"Thrifting Alpha: Using Ensemble Learning To Revitalize Tired Alpha Factors" by Max Margenot
"Thrifting Alpha: Using Ensemble Learning To Revitalize Tired Alpha Factors" by Max Margenot
In the video titled "Thrifting Alpha: Using Ensemble Learning To Enhance Alpha Factors," Max Margenot, a data scientist at Quantopian, shares his insights on leveraging ensemble learning to enhance the performance of alpha factors. Margenot emphasizes the significance of constructing a portfolio by combining independent signals, resulting in improved and novel outcomes. He introduces the concept of factor modeling, addresses the complexities of assessing model performance, and explores the creative utilization of ensemble learning for efficient asset allocation.
Margenot begins by introducing the concept of "thrifting alpha," which aims to revitalize tired alpha factors using ensemble learning. Alpha factors represent unique and interesting returns in finance, differentiating them from risk factors such as market returns. The objective is to create a portfolio by combining independent signals to generate new and improved results. He also provides a brief overview of the Capital Asset Pricing Model and explains how Quantopian serves as a free platform for quantitative research.
Factor modeling is a key focus of Margenot's presentation. He highlights how a portfolio's returns consist of market returns and additional unexplained factors. By incorporating classic factors such as small-big (small market cap vs. large market cap firms) and high minus low for book to price ratio, the model can assess market risk and expand its analysis to other return streams. The goals of factor modeling include diversifying uncorrelated signals, reducing overall portfolio volatility, and increasing returns.
The speaker discusses the growing popularity of factor modeling in portfolio construction processes, citing a Blackrock survey that indicates 87% of institutional investors incorporate factors into their investment strategies. Margenot outlines the five main types of factors that portfolios revolve around: value, momentum, quality, volatility, and growth. He also explains the concept of long/short equity, where positions are taken on both long and short positions based on factor values. The objective is to use these exposures to create a well-balanced portfolio.
Margenot delves into the universe in which the algorithm is applied, emphasizing the importance of aligning the statistical model with the execution of trades. If the trades cannot be executed due to constraints, such as shorting limitations, the strategy's mandate is violated. Margenot favors dollar-neutral strategies that ultimately end up market neutral. He constructs portfolios where only the highest and lowest values matter, aiming to capture the highest expected returns. Combining multiple factors involves a composition of a combined rank, providing flexibility within the portfolio.
Assessing model performance and dealing with unexplained returns pose challenges, as Margenot explains. He discusses the importance of a reliable universe with sufficient liquidity and introduces the Q 1500 universe, designed to filter out unwanted elements. Instead of predicting prices, Margenot emphasizes the importance of understanding which stocks are better than others and capturing relative value. He demonstrates the use of the pipeline API within their framework to compute momentum, providing examples of vector calculations.
The speaker focuses on creating a momentum factor that considers both long-term and short-term trends. Margenot standardizes returns and penalizes the long-term aspect to address the risk of short-term reversals. He utilizes a package called Alpha Ones to evaluate the signal across different time scales and constructs a portfolio using the momentum factor. Margenot emphasizes the importance of determining a reasonable time scale and discusses the factors he works with. He highlights the workflow of defining a universe, alpha factors, and combining alphas to construct a long/short equity portfolio.
Margenot discusses the combination of different alpha factors and their portfolio construction, emphasizing that the combination of independent signals should ideally result in a stronger overall signal. He presents dynamic and static aggregation methods for combining factors and constructing a portfolio. Static aggregation involves an equal-weighted portfolio of different factors, while dynamic aggregation adjusts the weights of factors based on their performance. Standardizing factors is essential to ensure comparability within each individual factor.
Ensemble learning is a key topic discussed by Margenot. He explains that finding a consistently upward trending training algorithm can be challenging, as it should go beyond simple beta. To overcome this limitation, he employs ensemble learning to aggregate multiple individual signals. Margenot specifically utilizes AdaBoost, a well-known technique in ensemble learning, to train decision trees based on six features. These decision trees predict whether an asset will go up or down, and the final prediction is determined by the majority output of a thousand decision trees. This approach allows for more accurate and robust forecasting.
Margenot further elaborates on evaluating signal alpha by revitalizing tired alpha factors through ensemble learning. He trains decision trees over a month and attempts to predict returns or whether the market will be up or down in the future. By aggregating the performance of the classifiers, he extracts feature importances from the weighted sum of the decision trees and evaluates the signal alpha lens. However, Margenot acknowledges the need to incorporate commissions and slippage into the evaluation process, as they can significantly impact the final results.
Incorporating commission and slippage considerations into algorithms is an essential aspect highlighted by Margenot. He emphasizes that real-world trading costs should be taken into account to ensure the viability of the signals. He demonstrates the potential negative returns and drawdowns in a backtester due to the limited training window for a machine learning classifier and high turnover rate. Margenot suggests exploring alternative ensemble learning methods or platform implementations to potentially improve performance in the future. He also mentions the tools he utilized for alpha factor analysis and portfolio analysis.
Throughout the video, Margenot introduces various tools and resources that can aid in implementing ensemble learning techniques. He recommends checking out the zipline backtesting engine and utilizing the Quantiopian platform, which provides access to it. Margenot suggests employing Scikit-learn and the Ensembles package, which are valuable for machine learning, statistics, and classifiers. He also mentions that he shares lectures, algorithms, and template solutions on his GitHub, providing free access to his expertise for data scientists and traders.
Towards the end of the presentation, Margenot discusses the process of revamping existing alpha factors using ensemble learning. He emphasizes that even if an alpha factor initially does not yield positive results, it can be improved upon. He highlights the pipeline's importance in defining computations and explains how training components on historical data enables predicting market movements 20 days in advance. While cross-validation can be challenging with historical data, Margenot suggests training forward and predicting on the next dataset as a workaround.
Margenot concludes by discussing the practical aspects of implementing ensemble learning to improve alpha factors. He advises training the ensemble classifier over a longer period and predicting over a longer period as well. He suggests employing a factor weighting scheme and other constraints to allocate resources among different strategies. Margenot advocates for training a single model on all the interpreters within the pipeline, treating each factor as part of a unified model. He also humorously mentions the possibility of factors doing the opposite of their intended purpose by adding a negative sign, highlighting that it rarely occurs.
In summary, Max Margenot's video provides valuable insights into the realm of ensemble learning and its application in enhancing alpha factors. By combining independent signals and utilizing ensemble learning techniques, data scientists and traders can optimize their investment strategies through advanced machine learning approaches. Margenot's practical advice, demonstrations, and recommended tools offer guidance to those seeking to leverage ensemble learning for more accurate and profitable decision-making in trading strategies.
MIT 18.S096 Temas de Matemáticas con Aplicaciones en Finanzas - 1. Introducción, Términos y Conceptos Financieros
1. Introducción, términos y conceptos financieros
En este video informativo, los espectadores realizan un viaje a través de varios términos y conceptos financieros para establecer una base sólida en finanzas. El curso está dirigido tanto a estudiantes de pregrado como de posgrado que estén interesados en seguir una carrera en este campo. Su objetivo es proporcionar una introducción a las finanzas modernas y equipar a los estudiantes con los conocimientos esenciales.
El disertante comienza profundizando en la historia de los términos y conceptos financieros, arrojando luz sobre términos importantes como Vega, Kappa y volatilidad. Vega se explica como una medida de sensibilidad a la volatilidad, mientras que Kappa mide la volatilidad de los cambios de precios a lo largo del tiempo. El conferenciante destaca que el campo de las finanzas ha experimentado una notable transformación en las últimas tres décadas, impulsada por la integración de métodos cuantitativos.
El video también explora la evolución de la profesión comercial y los cambios que ha experimentado en los últimos 30 años. Se refiere a los diversos productos comerciales disponibles en el mercado y cómo se negocian. A continuación, el disertante profundiza en las causas de la crisis financiera de 2008, atribuyéndola a la desregulación del sector bancario, que permitió a los bancos de inversión ofrecer productos complejos a los inversores.
Se enfatiza la importancia de los mercados financieros, ya que juegan un papel crucial en la conexión de prestamistas y prestatarios, al mismo tiempo que brindan oportunidades para que los inversores generen mayores rendimientos de sus inversiones. El video destaca a los diferentes actores en los mercados financieros, incluidos bancos, distribuidores, fondos mutuos, compañías de seguros, fondos de pensiones y fondos de cobertura.
A lo largo del video, se analizan en detalle varios términos y conceptos financieros. Se explican la cobertura, la creación de mercado y el comercio por cuenta propia, y se introducen términos como beta y alfa. Beta se describe como la diferencia de rendimiento entre dos activos, mientras que alfa representa la diferencia de rendimiento entre una acción y el índice S&P 500. El conferenciante también aborda la gestión de carteras en relación con alfa y beta.
El video proporciona información sobre los diferentes tipos de operaciones y cómo se ejecutan. Explica el papel de la cobertura y la creación de mercado en la protección de los inversores. Además, el video presenta al Sr. White, quien explica los términos y conceptos financieros utilizados en los mercados. Delta, gamma y theta se analizan en el contexto de la negociación de acciones y se destaca la importancia de comprender la exposición a la volatilidad, los requisitos de capital y los riesgos del balance. El Sr. White también explora varios métodos utilizados para analizar acciones, incluido el análisis fundamental y el arbitraje.
El video menciona un cambio de política por parte de la Reserva Federal para reducir la flexibilización cuantitativa, lo que ha causado cautela entre los inversores y ha resultado en una venta masiva del mercado de valores. Enfatiza la naturaleza desafiante de la fijación de precios de instrumentos financieros y la gestión de riesgos utilizando modelos matemáticos. El disertante destaca la necesidad de actualizar constantemente las estrategias comerciales debido a la naturaleza dinámica del mercado.
El concepto de riesgo y recompensa se examina a fondo, y el video demuestra cómo el comportamiento humano a veces puede conducir a resultados inesperados en la toma de decisiones financieras. Se presenta un ejemplo, donde a la audiencia se le dan dos opciones con diferentes probabilidades y ganancias o pérdidas potenciales, destacando las diferentes preferencias que pueden tener los individuos.
A medida que concluye el video, se alienta a los espectadores a inscribirse en una clase futura y se sugieren tareas opcionales relacionadas con la compilación de una lista de conceptos financieros. Este completo video sirve como una excelente guía introductoria a los términos y conceptos financieros, brindando un sólido punto de partida para aquellos interesados en el campo de las finanzas.
2. Álgebra lineal
2. Álgebra lineal
El video cubre ampliamente el álgebra lineal, centrándose en matrices, valores propios y vectores propios. Explica que los valores propios y los vectores propios son vectores especiales que se escalan cuando se aplica una transformación lineal. Cada matriz n por n tiene al menos un vector propio y, al usar una matriz ortonormal, es posible dividir una matriz en direcciones, lo que simplifica la comprensión de las transformaciones lineales. El video también presenta la descomposición de valores singulares (SVD) como otra herramienta para comprender las matrices, particularmente para una clase más general de matrices. SVD permite la representación de una matriz como el producto de matrices ortonormales y una matriz diagonal, lo que ahorra espacio para matrices con rango inferior. Además, el video destaca la importancia de los vectores propios para medir la correlación de datos y definir un nuevo sistema de coordenadas ortogonales sin alterar los datos en sí.
Además de los conceptos antes mencionados, el video profundiza en dos importantes teoremas del álgebra lineal. El primero es el teorema de Perron-Frobenius, que establece que una matriz no simétrica posee un valor propio único con el valor absoluto más grande, junto con un vector propio correspondiente con entradas positivas. Este teorema tiene aplicaciones prácticas en varios campos. El segundo teorema discutido es la descomposición de valores singulares (SVD), que permite la rotación de datos en una nueva orientación representada por bases ortonormales. SVD es aplicable a una gama más amplia de matrices y permite la simplificación al eliminar columnas y filas innecesarias, particularmente en matrices con un rango significativamente más bajo en comparación con el número de columnas y filas.
El video proporciona explicaciones detalladas, ejemplos y pruebas de estos conceptos, enfatizando su relevancia en diferentes campos de la ingeniería y la ciencia. Alienta a los espectadores a comprender los principios subyacentes y a interactuar con el material.
3. Teoría de la probabilidad
3. Teoría de la probabilidad
Esta completa serie de videos sobre la teoría de la probabilidad cubre una amplia gama de temas y brinda una comprensión profunda de los conceptos fundamentales y sus aplicaciones prácticas. El profesor comienza refrescando nuestro conocimiento de distribuciones de probabilidad y funciones generadoras de momentos. Distingue entre variables aleatorias discretas y continuas y define términos importantes como función de masa de probabilidad y función de distribución de probabilidad. El profesor también ilustra estos conceptos con ejemplos, incluida la distribución uniforme.
A continuación, el profesor profundiza en los conceptos de probabilidad y expectativa para variables aleatorias. Explica cómo calcular la probabilidad de un evento y define la expectativa (media) de una variable aleatoria. El profesor también discute la noción de independencia para variables aleatorias e introduce la distribución normal como una distribución universal para variables aleatorias continuas.
Al explorar el modelado de precios de acciones y productos financieros, el profesor señala que el uso exclusivo de la distribución normal puede no capturar con precisión la magnitud de los cambios de precios. En su lugar, sugiere modelar el cambio porcentual como una variable normalmente distribuida. Además, el profesor analiza la distribución log-normal y su función de densidad de probabilidad, destacando que sus parámetros mu y sigma se derivan de la distribución normal.
La serie de videos procede a presentar otras distribuciones dentro de la familia exponencial, como las distribuciones de Poisson y exponencial. Estas distribuciones poseen propiedades estadísticas que las hacen útiles en aplicaciones del mundo real. El profesor explica cómo se pueden parametrizar estas distribuciones y destaca la relación entre la distribución log-normal y la familia exponencial.
A continuación, el profesor explora los aspectos estadísticos y el comportamiento a largo plazo de las variables aleatorias. Explica el concepto de momentos, representado por los k-ésimos momentos de una variable aleatoria, y enfatiza el uso de la función generadora de momentos como una herramienta unificada para estudiar todos los momentos. Además, el profesor analiza el comportamiento a largo plazo de las variables aleatorias mediante la observación de múltiples variables aleatorias independientes con la misma distribución, lo que lleva a un gráfico que se parece mucho a una curva.
Luego, la serie de videos se enfoca en dos teoremas importantes: la ley de los grandes números y el teorema del límite central. La ley de los grandes números establece que el promedio de variables aleatorias independientes e idénticamente distribuidas converge a la media en un sentido débil a medida que aumenta el número de intentos. La probabilidad de desviación de la media disminuye con un mayor número de intentos. El teorema del límite central demuestra que la distribución del promedio de variables aleatorias independientes se aproxima a una distribución normal, independientemente de la distribución inicial. La función generadora de momentos juega un papel clave al mostrar la convergencia de la distribución de la variable aleatoria.
Se analiza más a fondo la convergencia de variables aleatorias, destacando cómo la función generadora de momentos puede controlar la distribución. El profesor presenta el concepto de rake de casino como un medio para generar ganancias y analiza la influencia de la varianza en la creencia en las propias capacidades. Se explica la demostración de la ley de los grandes números, enfatizando cómo promediar un mayor número de términos reduce la varianza.
En el contexto de un casino, el disertante explica cómo se puede aplicar la ley de los grandes números. Se observa que un jugador puede tener una ligera desventaja en los juegos individuales, pero con un tamaño de muestra grande, la ley de los grandes números asegura que el resultado promedio tienda hacia el valor esperado. Se explora la idea de que un casino tome una comisión, destacando cómo la ventaja del jugador y la creencia en los principios matemáticos pueden influir en los resultados.
Finalmente, la serie de videos profundiza en las leyes débiles y fuertes de los grandes números y analiza el teorema del límite central. La ley débil establece que el promedio de variables aleatorias independientes e idénticamente distribuidas converge a la media cuando el número de intentos se aproxima al infinito. La ley fuerte de los grandes números proporciona una forma más fuerte de convergencia. El teorema del límite central explica la convergencia de la distribución de la media a una distribución normal, incluso cuando la distribución inicial es diferente.
En general, esta serie de videos ofrece una exploración extensa de los conceptos de la teoría de la probabilidad, incluidas las distribuciones de probabilidad, las funciones generadoras de momentos, las leyes de los grandes números, el teorema del límite central y sus implicaciones prácticas.
5. Procesos estocásticos I
5. Procesos estocásticos I
En este video sobre procesos estocásticos, el profesor ofrece una introducción completa y una descripción general de los procesos estocásticos de tiempo discreto y continuo. Estos modelos probabilísticos se utilizan para analizar eventos aleatorios que ocurren a lo largo del tiempo. El video muestra ejemplos de procesos simples de caminata aleatoria y cadena de Markov para ilustrar cómo abordan preguntas relacionadas con la dependencia, el comportamiento a largo plazo y los eventos límite. Además, se analiza el teorema de Perron-Frobenius, que enfatiza la importancia de los vectores propios y los valores propios para determinar el comportamiento a largo plazo del sistema. El video concluye introduciendo el concepto de procesos de martingala, que sirven como modelos de juego justo.
El video comienza introduciendo el concepto de martingalas en los procesos estocásticos, que están diseñados para mantener un valor esperado sin cambios. Un ejemplo de martingala es una caminata aleatoria, que presenta fluctuaciones mientras mantiene constantemente un valor esperado de 1. El video también explica los tiempos de parada, que son estrategias predeterminadas que dependen solo de los valores del proceso estocástico hasta un punto específico. El teorema de parada opcional establece que si existen una martingala y un tiempo de parada tau, el valor esperado en el tiempo de parada será igual al valor inicial de la martingala. Este teorema subraya la naturaleza justa y equilibrada de los procesos de martingala.
A lo largo del video, se tratan varios temas en detalle. Se introducen los procesos estocásticos de tiempo discreto y continuo, ilustrando su representación a través de distribuciones de probabilidad sobre diferentes caminos. Ejemplos como un simple paseo aleatorio y un juego de lanzamiento de monedas ayudan a dilucidar las propiedades y comportamientos de estos procesos. Se discute la importancia de las cadenas de Markov, enfatizando cómo el estado futuro depende únicamente del estado actual, simplificando el análisis de los procesos estocásticos. Se explora la noción de distribución estacionaria, mostrando el teorema de Perron-Frobenius, que establece la existencia de un vector propio único correspondiente al valor propio más grande, que representa el comportamiento a largo plazo del sistema.
El video concluye enfatizando la conexión entre las martingalas y los juegos limpios. Se observa que un proceso de martingala asegura que el valor esperado permanezca sin cambios, lo que significa un juego equilibrado. Por el contrario, los juegos como la ruleta en los casinos no son martingalas ya que el valor esperado es inferior a 0, lo que genera pérdidas esperadas para los jugadores. Finalmente, se menciona un teorema que sugiere que si se modela un jugador utilizando una martingala, independientemente de la estrategia empleada, el saldo siempre será igual al saldo inicial. Además, la expectativa de X_tau, el valor en el tiempo de parada, siempre es 0, lo que indica que, cuando se modela mediante una martingala, no se espera que el jugador gane.
En general, el video proporciona una descripción completa de los procesos estocásticos, sus propiedades y sus aplicaciones en el modelado y análisis de eventos aleatorios.