Comercio Cuantitativo - página 10

 

Uso de R en operaciones de mercado financiero en tiempo real



Uso de R en operaciones de mercado financiero en tiempo real

En este video informativo, el presentador profundiza en la aplicación práctica del uso del lenguaje de programación R en el comercio de mercados financieros en tiempo real, centrándose específicamente en el comercio de divisas. Comienzan discutiendo el atractivo del comercio de divisas, destacando su manejabilidad y el dominio de algunos pares clave en el comercio de divisas global. Se enfatiza que el comercio de divisas se lleva a cabo en el mercado extrabursátil, a diferencia de los intercambios regulados. El presentador reconoce los desafíos de identificar anomalías en los movimientos de divisas debido a la liquidez y aleatoriedad del mercado.

Se explica el concepto de negociación extrabursátil, señalando que se diferencia de otros tipos de negociación en que prioriza factores como la contraparte y el precio de cotización sobre la ejecución y la latencia. Luego, el video cubre la terminología estándar del mercado financiero, incluido el uso de velas para visualizar datos y la distinción entre operar en largo (comprar bajo y vender alto) y operar en corto (vender acciones prestadas a un precio más alto y recomprarlas a un precio más bajo para obtener ganancias). ).

Para demostrar el análisis en tiempo real del comercio del mercado financiero usando R, el presentador recorre dos ejemplos. El primer ejemplo se enfoca en probar la probabilidad de la dirección de la próxima vela en base a velas alcistas o bajistas consecutivas. Esta hipótesis se examina utilizando el conocimiento de los patrones de velas y su impacto potencial en las tendencias del mercado.

El video explora aún más la metodología de prueba de hipótesis en el comercio del mercado financiero en tiempo real utilizando R. Se presenta un ejemplo en el que los datos se procesan previamente y se crea una tabla de velas consecutivas para evaluar la probabilidad de un cambio en la dirección de la vela. Los costos de negociación se establecen en cero inicialmente y se establece y prueba un saldo de ganancias en una fecha modelo. Sin embargo, se destaca la importancia de probar rigurosamente las entradas y salidas en un entorno comercial, ya que establecer los costos comerciales en dos puntos genera pérdidas de dinero y logra la neutralidad del mercado.

Se abordan consideraciones como el deslizamiento y los costos comerciales, y el orador enfatiza la necesidad de tener en cuenta estos factores y sugiere la incorporación de un margen de error. Se presenta un ejemplo más complejo que involucra la naturaleza cíclica del eurodólar, con un enfoque en la medición de la ciclicidad en función de los puntos de inflexión y el movimiento de precios. El orador destaca la importancia de mantener un eje x uniforme en el análisis del mercado financiero para evitar distorsionar los movimientos del mercado durante los fines de semana.

El video profundiza en una estrategia comercial de reversión a la media, que implica identificar instancias en las que un mercado ha experimentado un movimiento ascendente rápido y anticipar una inversión de tendencia a corto plazo. Se analiza la distribución de precios y los movimientos de las velas para determinar los parámetros adecuados para implementar esta estrategia. Las pruebas se llevan a cabo inicialmente con cero costos comerciales, seguidas de un pequeño costo comercial de 2 pubs. Los resultados son cautelosamente optimistas, pero el orador reconoce la presencia de posibles problemas estadísticos que requieren más investigación y pruebas de mercado reales.

El análisis de regresión se presenta como un método para suavizar puntos de datos, pero se señalan los desafíos de predecir tendencias futuras cuando la línea de regresión cambia con datos adicionales. Se analizan las pruebas retrospectivas básicas y las pruebas directas utilizando R, destacando las limitaciones de las pruebas con un solo instrumento y la necesidad de un enfoque más integral.

Luego, el presentador comparte ideas sobre la incorporación del código R en entornos comerciales en tiempo real. Destacan la importancia de volver a calcular los valores de regresión con frecuencia para adaptarse a los cambios del mercado en lugar de depender de modelos sobreajustados para el éxito a largo plazo. El código incluye parámetros de toma de decisiones para comprar o vender basados en diferencias de velas y cambios de precio, así como una estrategia de salida basada en alcanzar un cierto umbral de ganancias. El presentador demuestra el proceso de backtesting y expresa confianza en obtener resultados positivos.

Se destaca la importancia de utilizar una curva de equidad Mark-to-Market en lugar de una curva de equidad comercial para evaluar los sistemas comerciales. Se discuten las limitaciones de la curva Trade Equity para reflejar la posición de efectivo de un sistema mientras las transacciones están activas. El presentador muestra dos gráficos que comparan los dos tipos de curvas, que revelan períodos de falla del sistema y reducción significativa. Se enfatiza la necesidad de una estrategia de stop-loss para mitigar las pérdidas y se comparte el código necesario para implementar dicha estrategia. El presentador reconoce que una falla en la estrategia de salida llevó a mantener posiciones durante demasiado tiempo, lo que resultó en pérdidas sustanciales.

Luego, el video profundiza en la integración del código R en la ejecución de algoritmos y la utilización de un paquete de Windows en el lado del modelado. El presentador explica que su comercio con dinero real ocurre en servidores Linux, que están perfectamente conectados a la plataforma CIRA a través de un espacio de memoria compartida. Esta configuración permite el intercambio de datos, incluidos FIX, operaciones y velas, entre su sistema y la plataforma. El ponente revela que gestionan el riesgo operando simultáneamente entre cuatro y ocho instrumentos diferentes. Sin embargo, advierten contra confiar únicamente en la probabilidad en el comercio del mundo real, ya que puede hacer que los operadores pierdan oportunidades valiosas a lo largo del día.

En conclusión, este video brinda información valiosa sobre la implementación práctica de R en el comercio de mercados financieros en tiempo real, centrándose específicamente en el comercio de divisas extranjeras. El presentador cubre varios aspectos, que incluyen el comercio extrabursátil, la terminología estándar del mercado financiero, la prueba de hipótesis, las estrategias comerciales de reversión a la media, consideraciones como el deslizamiento y los costos comerciales, y la integración del código R en la ejecución de algoritmos. Si bien destaca los beneficios potenciales del comercio algorítmico, el video también reconoce la necesidad de pruebas rigurosas, una consideración cuidadosa de los problemas estadísticos y la importancia de las estrategias de gestión de riesgos en los escenarios comerciales del mundo real.

  • 00:00:00 Ellen habla sobre cómo usa R en el comercio de divisas extranjeras. Ella explica por qué eligió operar con divisas, afirmando que son instrumentos manejables para analizar, con alrededor de siete u ocho pares que realizan el 97-98% del comercio de divisas del mundo. Ellen también señala que, dado que las monedas extranjeras son instrumentos de venta libre, no se pueden negociar en una bolsa. Ella reconoce que encontrar anomalías en los movimientos de divisas puede ser extremadamente difícil debido a la liquidez y la aleatoriedad del mercado.

  • 00:05:00 El orador explica el concepto de comercio extrabursátil, destacando que es un intercambio no regulado, a diferencia de otros tipos de comercio. El orador explica que este tipo de negociación enfatiza menos la ejecución y la latencia y más otros factores como la contraparte y el precio cotizado. Luego, el orador pasa a explicar parte de la terminología estándar utilizada en el mercado financiero, como velas y operar en largo versus operar en corto. Las velas se utilizan como una herramienta conveniente para visualizar un rango de datos, mientras que operar en largo es comprar barato y vender caro, y operar en corto es vender acciones prestadas a un precio más alto y luego volver a comprarlas cuando el precio baja para obtener una ganancia.

  • 00:10:00 El orador analiza el concepto de operar hacia arriba o hacia abajo en el mercado de divisas, donde los operadores siempre están operando con un instrumento para obtener algo de xq. También mencionó que no mostrará a los espectadores cómo pronosticar el mercado o proporcionar una salsa secreta, sino que los guiará a través de dos ejemplos del tipo de cosas que él y su equipo analizan. El primer ejemplo es una simple pregunta de cuál es la probabilidad de que la siguiente vela esté al alza o a la baja cuando se tienen X velas alcistas o bajistas consecutivas. El orador aprovecha el conocimiento de las velas ascendentes y descendentes para probar su hipótesis y evaluar si existe alguna dinámica en el mercado para predecir las tendencias del mercado.

  • 00:15:00 El orador explica su enfoque para probar hipótesis en el comercio del mercado financiero en tiempo real utilizando R. Demuestran un ejemplo de preprocesamiento de datos y creación de una tabla de velas consecutivas, que muestra la probabilidad de un cambio en la dirección de la vela. . Luego, el hablante establece sus costos comerciales en cero y crea un saldo de ganancias, que prueban en una fecha modelo. Sin embargo, señalan que establecer los costos comerciales en dos puntos conduce a perder dinero y ser neutral en el mercado, por lo que es importante probar rigurosamente las entradas y salidas en un entorno comercial.

  • 00:20:00 El orador analiza la importancia de considerar el deslizamiento en el mercado al operar y construir un margen de error para tenerlo en cuenta. También mencionan la diferencia en los costos comerciales según el corredor y el volumen comercial. Luego, el orador pasa a un ejemplo más complejo de prueba de la naturaleza cíclica del eurodólar y explica cómo miden la ciclicidad según el tiempo entre los puntos de inflexión y el movimiento del precio. Destacan la importancia de utilizar un eje x uniforme en el análisis del mercado financiero para evitar distorsionar los movimientos del mercado durante los fines de semana. El orador se ofrece a compartir el código y los datos de este ejemplo con los espectadores.

  • 00:25:00 El orador explica cómo normaliza las series de datos del mercado financiero agregando números de fila como eje x en lugar de usar la fecha y la hora. Luego realiza una regresión del núcleo para suavizar la curva y encuentra los picos y las caídas usando algún código. Él prueba la ciclicidad de los picos y los agrupa en el cuadrante inferior para mostrar que los puntos de inflexión significativos del eurodólar ocurren dentro de las 30 horas. El orador analiza diferentes formas de operar, incluida la previsión del próximo punto de inflexión y convertirlo en un problema un poco más desafiante.

  • 00:30:00 El orador explica una estrategia comercial de reversión a la media, que consiste en buscar oportunidades donde un mercado ha subido demasiado y demasiado rápido, lo que lleva a una inversión de tendencia a corto plazo. El orador analiza la distribución de los precios y los movimientos de las velas para determinar dónde trazar la línea para esta estrategia, y luego la prueba estableciendo operaciones con costo cero y luego con un pequeño costo comercial de 2 pubs. Los resultados son cautelosamente optimistas y el orador sugiere más pruebas en condiciones reales de mercado. Sin embargo, el orador señala que puede haber problemas estadísticos con esta estrategia que requieren una mayor investigación.

  • 00:35:00 El orador analiza el uso de la regresión para suavizar los puntos de datos, pero advierte que la línea de regresión cambia hacia atrás a medida que se agregan más puntos de datos a la serie, lo que dificulta la predicción de tendencias futuras. También explica que las pruebas retrospectivas básicas y las pruebas futuras con R se limitan a un instrumento a la vez y no son ideales para múltiples instrumentos o parámetros financieros específicos del mercado. Para abordar este problema, utiliza una plataforma comercial que le permite copiar y pegar su código R directamente en la plataforma y evitar largos procesos de codificación y depuración.

  • 00:40:00 El orador analiza el código básico utilizado para incorporar R en entornos comerciales en tiempo real. Mencionan que el código es en gran medida una copia y pegado del código que tenían en su estudio R, centrándose en volver a calcular los valores de regresión con frecuencia para adaptarse a los cambios en lugar de sobreajustar el modelo y esperar que funcione a largo plazo. El código incluye una decisión de comprar o vender basada en ciertos parámetros, como diferencias de velas y cambios de precios, y una estrategia para salir de la posición cuando la ganancia alcanza una cierta cantidad. Luego, el orador muestra cómo realizaron una prueba retrospectiva con el código y espera buenos resultados.

  • 00:45:00 El presentador analiza la importancia de utilizar una curva de Equidad Mark-to-Market sobre una curva de Equidad Comercial al evaluar los sistemas comerciales. Explica que una curva de equidad comercial no revela la posición de efectivo de un sistema mientras se ejecuta la operación, por lo que es difícil modelar esto en R. Muestra dos gráficos, uno con la curva de equidad comercial y el otro con Mark- curva de equidad de mercado, que refleja cómo el sistema se tambaleó durante algunos períodos, lo que llevó a una reducción significativa. Concluye que la aplicación de una estrategia de stop-loss habría ayudado a salir de las pérdidas a tiempo y muestra el código que permitiría hacer ese cambio. La prueba final del modelo fracasó debido a una estrategia de salida inadecuada que llevó a aguantar demasiado tiempo, lo que generó grandes pérdidas.

  • 00:50:00 El orador habla sobre cómo incrustan su código en la ejecución de algoritmos y usan un paquete de Windows en el lado del modelado. Su dinero real se ejecuta en servidores Linux y está incluido en este paquete. Utilizan un espacio de memoria compartida entre su sistema y la plataforma CIRA para intercambiar datos. Pueden tomar FIX, operaciones y velas y pasarlas a su sistema para su análisis, dividir los resultados en CIRA y tomar decisiones comerciales. Pueden usar este sistema para administrar el riesgo al operar entre cuatro y ocho instrumentos diferentes al mismo tiempo. Advierten que si bien la probabilidad es importante, confiar en ella para el comercio del mundo real puede hacer que los operadores pierdan oportunidades a lo largo del día.
 

Introducción al Trading Cuantitativo - Clase 1/8


Introducción al Trading Cuantitativo - Clase 1/8

Este curso integral sirve como una introducción profunda al fascinante mundo del comercio cuantitativo, equipando a los estudiantes con el conocimiento y las habilidades necesarias para sobresalir en este campo dinámico. El comercio cuantitativo gira en torno a la utilización de modelos matemáticos y programas informáticos para transformar las ideas comerciales en estrategias de inversión rentables. Todo comienza con un administrador de cartera o un operador que comienza con una intuición inicial o un concepto comercial vago. Mediante la aplicación de técnicas matemáticas, estas intuiciones se transforman en modelos comerciales matemáticos precisos y sólidos.

El proceso de negociación cuantitativa implica someter estos modelos a un análisis riguroso, pruebas retrospectivas y refinamiento. Se emplean pruebas estadísticas y simulaciones para evaluar su desempeño y asegurar su confiabilidad. Esta fase de prueba meticulosa es crucial para identificar y abordar cualquier falla o debilidad en los modelos antes de ponerlos en acción.

Una vez que un modelo de inversión cuantitativo ha demostrado su rentabilidad potencial, se implementa en un sistema informático, lo que permite la ejecución automatizada de operaciones. Esta integración de modelos matemáticos en programas informáticos se encuentra en el corazón del comercio cuantitativo, combinando el poder de las matemáticas con la eficiencia de la informática. A lo largo del curso, los estudiantes exploran varias estrategias de inversión extraídas de la literatura académica popular, obtienen información sobre sus principios matemáticos subyacentes y aprenden a traducirlos en modelos comerciales procesables.

El plan de estudios de este curso abarca una amplia gama de temas, equipando a los estudiantes con las habilidades cuantitativas, informáticas y de programación esenciales para el éxito en el campo del comercio cuantitativo. Los estudiantes profundizan en las complejidades del modelado matemático, el análisis estadístico y el comercio algorítmico. También adquieren competencia en los lenguajes de programación comúnmente utilizados en finanzas cuantitativas, como Python y R, lo que les permite implementar y probar sus modelos comerciales de manera efectiva.

Al completar este curso, los estudiantes no solo obtienen una visión holística del panorama comercial cuantitativo, sino que también desarrollan las habilidades necesarias para navegarlo con confianza. Se vuelven expertos en transformar ideas comerciales en modelos matemáticos, probar y refinar rigurosamente estos modelos y, en última instancia, implementarlos en escenarios comerciales del mundo real. Con su base sólida en técnicas cuantitativas y computacionales, los estudiantes están bien preparados para seguir carreras en comercio cuantitativo, comercio algorítmico u otros campos relacionados donde la fusión de las matemáticas y la tecnología impulsa el éxito.

 

Introducción al Trading Cuantitativo - Clase 2/8


Introducción al Trading Cuantitativo - Clase 2/8

En esta conferencia, el orador enfatiza la importancia de la tecnología y la programación en el comercio cuantitativo. Discuten cómo la tecnología y las habilidades de programación son esenciales para cooptar estrategias comerciales cuantitativas y realizar pruebas retrospectivas. El ponente destaca la importancia de las matemáticas y la programación informática en este campo. Presentan la programación básica de Java y la programación matemática usando Java, y enfatizan la necesidad de habilidades de programación en el comercio cuantitativo debido al requisito de backtesting.

El disertante discute los desafíos involucrados en simular y analizar el desempeño futuro de una estrategia. Mencionan que las ganancias y pérdidas históricas (PNL) no son un indicador confiable para capacitarse o decidir si cambiar una estrategia. En cambio, sugieren usar simulación y calibración de parámetros, que requieren una programación intensa, para encontrar parámetros óptimos y probar la sensibilidad de una estrategia a ellos. También enfatizan la importancia de usar el mismo software para la investigación y el comercio en vivo para evitar errores de traducción.

El orador analiza las responsabilidades de un comerciante cuantitativo y enfatiza la necesidad de crear prototipos eficientes de ideas comerciales. Sugieren pasar la mayor parte del tiempo haciendo una lluvia de ideas y proponiendo ideas, mientras minimizan el tiempo dedicado a las pruebas y la programación. Mencionan la importancia de tener una caja de herramientas de bloques de construcción para prototipar rápidamente nuevas estrategias.

El orador aborda los desafíos de usar herramientas populares como Excel, MATLAB y R en el comercio cuantitativo y afirma que no están diseñadas para estrategias matemáticas sofisticadas. Recomiendan usar otros lenguajes de programación como Java, C-sharp y C++ que tienen bibliotecas para construir e implementar estrategias comerciales.

El orador analiza específicamente las limitaciones del uso de R para el comercio cuantitativo. Mencionan que R es lento, tiene memoria limitada y posibilidades limitadas de paralelización. También destacan la falta de herramientas de depuración e interfaces estándar para la comunicación entre diferentes programas.

El orador enfatiza la importancia de la tecnología y el uso de herramientas adecuadas en el comercio cuantitativo. Mencionan que herramientas como R y MATLAB pueden mejorar significativamente la programación matemática y brindar acceso a bibliotecas para cálculos más rápidos. Destacan la necesidad de una buena caja de herramientas de investigación comercial que permita una fácil combinación de módulos, programación paralela y limpieza automática de datos y calibración de parámetros.

El orador analiza las ventajas de usar tecnologías más nuevas como Java y C# para el comercio cuantitativo. Mencionan que estos lenguajes eliminan la necesidad de depurar problemas como fugas de memoria y fallas de segmentación, lo que mejora la productividad. Demuestran la programación Java y brindan sesiones prácticas de laboratorio para los participantes.

El orador explica cómo corregir la entrada de un programa Java corrigiendo las importaciones y demuestra la programación matemática utilizando la biblioteca algo quant. Guían a los participantes a través de copiar y pegar el código del sitio web a sus computadoras para ejecutarlo.

El orador aborda las preguntas técnicas de la audiencia con respecto a la descarga y ejecución del código utilizado en la conferencia. Demuestran la versión clásica de una cadena de Markov oculta utilizando la función de seminario web.

El orador explica el concepto de una cadena de Markov y demuestra un modelo simple de dos estados con probabilidades de transición. Explican cómo se utilizan las cadenas de Markov como generadores de números aleatorios para simular observaciones y estimar parámetros del modelo. Animan a la audiencia a experimentar con la creación de sus propios modelos de cadenas de Markov.

El orador analiza la importancia de la comunicación y la colaboración en el comercio cuantitativo y alienta a los miembros del equipo a comunicarse entre sí y brindar actualizaciones sobre su progreso. Mencionan la posibilidad de usar modelos de Markov de orden superior e invitan a hacer preguntas y compartir la pantalla durante las discusiones en vivo.

El disertante analiza los desafíos de estimar parámetros en modelos comerciales cuantitativos con observaciones limitadas. Explican que se requieren más datos para una estimación precisa y recomiendan usar modelos de estado más grandes o aumentar el número de observaciones. Analizan el algoritmo de Baum-Welch para entrenar modelos ocultos de Markov e introducen el concepto de backtesting.

El orador demuestra una estrategia de cruce de promedio móvil simple en AlgoQuant y explica el proceso de creación de estrategias, simuladores y ejecución de simulaciones. Resaltan la importancia de las pruebas y el análisis de rendimiento utilizando medidas como pérdidas y ganancias, relación de información, reducción máxima y más.

El orador explica explorar diferentes estrategias comerciales y probar su rendimiento a través de la simulación. El orador explica que la simulación permite a los comerciantes evaluar la rentabilidad potencial y los riesgos asociados con una estrategia antes de implementarla en operaciones reales. Al simular diferentes condiciones y escenarios de mercado, los comerciantes pueden obtener información sobre el rendimiento de la estrategia y tomar decisiones informadas.

El orador también enfatiza la importancia de los costos de transacción en las estrategias comerciales. Los costos de transacción, como las tarifas de corretaje y el deslizamiento, pueden tener un impacto sustancial en la rentabilidad general de una estrategia. Por lo tanto, es crucial tener en cuenta los costos de transacción durante la simulación y el backtesting para obtener una evaluación realista del desempeño de una estrategia.

Además, el disertante introduce el concepto de gestión de riesgos en el comercio cuantitativo. Explican que la gestión de riesgos implica implementar estrategias para controlar y mitigar pérdidas potenciales. Las técnicas de gestión de riesgos pueden incluir el establecimiento de órdenes de límite de pérdida, el tamaño de la posición y la diversificación. Es esencial incorporar principios de gestión de riesgos en las estrategias comerciales para protegerse contra pérdidas financieras significativas.

El ponente concluye reiterando la importancia del aprendizaje y la mejora continua en el trading cuantitativo. Animan a los participantes a explorar diferentes estrategias, analizar su desempeño e iterar en función de los resultados. Al aprovechar la tecnología, las habilidades de programación y un enfoque sistemático para el desarrollo de estrategias, los comerciantes pueden mejorar su rentabilidad y éxito en los mercados financieros.

En general, la conferencia se centra en la importancia de la tecnología, la programación, la simulación y la gestión de riesgos en el comercio cuantitativo. Destaca la necesidad de experimentación, aprendizaje continuo y el uso de herramientas especializadas para desarrollar y refinar estrategias comerciales.

Parte 1

  • 00:00:00 El orador comienza abordando posibles preguntas de la conferencia anterior y dónde encontrar los materiales del curso. El enfoque de esta conferencia es sobre la importancia de la tecnología y la programación en el comercio cuantitativo, ya que es esencial para cooptar estrategias comerciales cuantitativas y realizar pruebas retrospectivas. El orador enfatiza la importancia tanto de las matemáticas como de la programación de computadoras y procede a presentar algo de programación Java básica y programación matemática usando Java. La sesión práctica incluye estrategias de cooptación para pruebas retrospectivas, y el orador pregunta si todos han instalado bin y algo quant en sus computadoras y han pasado la prueba de Maven. Tradicionalmente, para otros tipos de negociación, como la inversión de valor o la negociación basada en sentimientos viscerales, no necesitaría mucha programación, pero es esencial en la negociación cuantitativa debido al requisito de backtesting.

  • 00:05:00 El orador analiza la importancia de la programación informática en el comercio cuantitativo, particularmente en la simulación y el análisis del rendimiento futuro de una estrategia. Mencionan que la PNL histórica no es un indicador confiable para entrenar o decidir si cambiar o no una estrategia. En cambio, sugieren usar simulación y calibración de parámetros, que requieren una programación intensa, para encontrar parámetros óptimos y probar la sensibilidad de una estrategia a ellos. También enfatizan la importancia de usar el mismo software para la investigación y el comercio en vivo para evitar posibles errores de traducción. En última instancia, el orador destaca que las habilidades de programación informática son fundamentales en la industria del comercio financiero y pueden tener un gran impacto en las ganancias.

  • 00:10:00 El disertante analiza las responsabilidades ideales de un comerciante cuantitativo, que implican generar ideas comerciales y crear prototipos rápidamente, dejando las tareas mecánicas, como probar la computación, las propiedades de PNL y la calibración de parámetros, a un sistema informático. . Idealmente, un comerciante solo dedicaría alrededor del 10% de su tiempo a codificar sus estrategias y confiaría en bloques de construcción o plantillas para crear prototipos de estrategias de manera rápida y eficiente, sin tener que codificar todo desde cero. El disertante enfatiza la importancia de pasar la mayor parte del tiempo haciendo lluvia de ideas y generando ideas comerciales, mientras minimiza el tiempo dedicado a probar y programar.

  • 00:15:00 El orador enfatiza la importancia de tener una caja de herramientas de bloques de construcción que los investigadores puedan usar para crear rápidamente prototipos de nuevas estrategias. Menciona que Algocron ofrece diferentes componentes básicos, como indicadores de mercado bajista basados en probabilidades condicionales y cointegración para controlar canastas. Él enfatiza la idea de que la creación de estrategias debería ser como jugar con Legos, donde los investigadores pueden juntar los bloques de construcción para construir una nueva estrategia. El orador explica que, a pesar de dedicar la mayor parte de su tiempo a generar ideas, los comerciantes deben realizar pruebas retrospectivas y limpieza de datos, lo que puede ser un desafío. Necesitan procesar grandes cantidades de datos de diferentes fuentes y extraer información útil, como la relación precio-ganancia, mientras manejan datos faltantes o erróneos. El proceso requiere una programación significativa y, si las estrategias se basan en eventos, es posible que los investigadores necesiten tener una base de datos de programación de noticias y anuncios.

  • 00:20:00 El orador analiza las complicaciones que implica simular una estrategia comercial con un libro de órdenes. Un problema es el deslizamiento, lo que significa que el hecho de que alguien quiera comprar algo a un precio determinado no significa que realmente pueda comprarlo a ese precio debido al movimiento del mercado. Otro problema son los supuestos de ejecución en el modelado del libro de pedidos. El proceso de simulación es engorroso y requiere mucho tiempo, especialmente si se utilizan lenguajes de script como MATLAB o R. La calibración y la simulación de parámetros pueden demorar cientos de horas, y los errores en el código del software pueden prolongar aún más el proceso. El proceso de depuración de código es largo y frustrante y puede llevar a abandonar el comercio, no por un código incorrecto sino por falta de tiempo o frustración.

  • 00:25:00 El orador analiza la realidad del comercio cuantitativo y las herramientas que utilizan los comerciantes. Explican que muchos comerciantes de monedas son analistas cuantitativos que pasan casi el 90% de su tiempo programando y depurando, que no es lo que se supone que es el trabajo. La razón de esto es que las herramientas de investigación utilizadas por los comerciantes son primitivas y las populares incluyen Excel, MATLAB, R y software comercial. Sin embargo, el orador argumenta que estas herramientas no están diseñadas para el comercio cuantitativo y no son útiles para construir estrategias matemáticas sofisticadas. Sugieren que otros lenguajes de programación como Java, C-sharp y C++ tienen bibliotecas para armar y construir estrategias de cambio que los comerciantes pueden usar en su lugar.

  • 00:30:00 El orador analiza las desventajas de usar R para el comercio cuantitativo. Uno de los principales problemas es que R es muy lento ya que es un lenguaje interpretado, lo que significa que el intérprete ejecuta línea por línea. Además, hay una cantidad limitada de memoria disponible, lo que hace imposible cargar una cantidad significativa de datos en la memoria para su análisis. Además, la posibilidad de paralelización es muy limitada, lo que dificulta la ejecución de simulaciones en miles de CPU. El orador menciona que usar R para computación paralela es difícil y que su IDE no es tan avanzado como otros lenguajes como Java y C-sharp. Tampoco hay herramientas de depuración disponibles, lo que dificulta la identificación de problemas, y no hay una interfaz estándar para la comunicación entre diferentes programas.

  • 00:35:00 El orador discute las ventajas y desventajas de usar R como una herramienta de estrategia comercial cuantitativa. Destaca que R tiene un soporte de programación orientado a objetos limitado y que la mayoría del código está escrito usando un lenguaje de procedimiento, pero tiene ventajas significativas sobre los lenguajes de propósito general. El mayor desafío con R es que no hay forma de garantizar que el código fuente esté libre de errores, y esto puede ser frustrante cuando se depura el código. El orador enfatiza la importancia de la tecnología y explica que confiar en el armamento (herramientas e investigación) es crucial en la guerra comercial. Una persona inteligente sin tecnología no puede esperar competir con alguien que usa tecnología, como computación paralela y aprendizaje automático, para buscar estrategias comerciales rentables.

  • 00:40:00 El orador analiza la importancia de la tecnología en el comercio cuantitativo. El uso de herramientas como R y MATLAB puede mejorar significativamente la programación matemática y brindar acceso a una amplia gama de bibliotecas que permiten cálculos matemáticos más rápidos. Tener una buena caja de herramientas de investigación comercial es esencial para construir y probar estrategias rápidamente para capturar oportunidades de mercado. La caja de herramientas ideal debería permitir a los operadores combinar fácilmente módulos, realizar programación paralela y generar estadísticas de rendimiento sin tener que dedicar mucho tiempo a la programación. La limpieza de datos también debe automatizarse y la calibración de parámetros debe realizarse automáticamente. El enfoque debe estar en la codificación de estrategias en lugar de dedicar tiempo a tareas de programación mecánica.

  • 00:45:00 Se discute la importancia de usar una buena herramienta para programar. El orador menciona que el uso de tecnologías más nuevas como Java y C# elimina la necesidad de depurar problemas como fugas de memoria y fallas de segmentación, lo que acelera significativamente la productividad. Además, la clase comienza una sesión práctica de laboratorio en la que exploran un experimento modelo de Markov, y el orador guía a los participantes a través del proceso de copiar y pegar código del sitio web a sus contenedores portátiles para ejecutarlo. La clase incluye participantes con experiencia en programación, por lo que se saltan los conceptos básicos de la programación Java.

  • 00:50:00 El orador explica cómo arreglar la entrada de un programa Java corrigiendo las importaciones usando el comando ctrl shift i. Luego procede a demostrar cómo se puede hacer la programación matemática en Java utilizando la biblioteca algo quant y muestra un modelo de cadena de Markov simple que se puede ejecutar en un nuevo paquete y clase. El orador anima a los asistentes a hacer preguntas y se asegura de que todos puedan seguir la demostración.

  • 00:55:00 El orador responde algunas preguntas técnicas de la audiencia sobre cómo descargar y ejecutar el código utilizado en la conferencia. Procede a demostrar la versión clásica de la Cadena de Markov Oculta utilizando la función de seminario web, para la cual conserva solo pi a1 y b1, y elimina el otro código.

Parte 2

  • 01:00:00 El orador explica el modelo de dos estados con probabilidades de transición, que es un ejemplo simple de una cadena de Markov. Ilustra las probabilidades de transición en un diagrama visual y explica la probabilidad de observar ciertos valores en cada estado. Luego, el orador continúa explicando cómo una cadena de Markov es esencialmente un generador de números aleatorios y demuestra cómo simular esta cadena de Markov en particular para generar observaciones.

  • 01:05:00 El orador explica el concepto de una cadena de Markov y cómo se utiliza como generador de números aleatorios para generar observaciones de precios de acciones. Las probabilidades de estado inicial y las probabilidades de transición de una cadena de Markov de dos estados se dan como ejemplo, pero en situaciones de la vida real, estos parámetros deben estimarse en función de las observaciones. El orador demuestra cómo estimar estos parámetros usando el algoritmo de cadena oculta de Markov de Webinar Models para la estimación de parámetros. Luego, el modelo estimado se puede comparar con el modelo real para determinar la precisión.

  • 01:10:00 El orador discute la importancia de estimar parámetros en el comercio cuantitativo. Señala que en realidad solo se observan precios o rendimientos y se desconoce el verdadero modelo, por lo que la mejor opción es estimar los parámetros del modelo. Menciona un buen algoritmo para estimar los parámetros, el algoritmo del seminario web, que se asemeja mucho a los modelos reales y es útil para operar. El orador alienta a la audiencia a experimentar con la creación de sus propios modelos de cadenas de Markov cambiando los parámetros, generando diferentes observaciones y realizando varias estimaciones para comprender cómo coinciden con los valores reales en diferentes condiciones.

  • 01:15:00 El orador habla sobre una próxima discusión en vivo sobre modelado y programación markov, invitando a hacer preguntas y compartiendo pantalla durante la discusión. La tarea en cuestión es generar diferentes observaciones utilizando un modelo de Markov personal y estimar diferentes parámetros para verificar si el modelo estimado coincide con el modelo real. El objetivo es determinar qué tan bueno es el modelo del mercado ya que, en última instancia, los comerciantes confían en él. El orador recomienda agregar valores extremos y escenarios de estrés para ver cómo se comporta la cadena de Markov.

  • 01:35:00 El instructor y los estudiantes del curso discuten los detalles técnicos relacionados con las licencias y los experimentos. El instructor aconseja a un estudiante que reemplace su licencia a largo plazo por una recién descargada y sugiere experimentar con diferentes parámetros para determinar el punto en el que los modelos estimados son útiles para fines de capacitación en el comercio cuantitativo. Otros estudiantes informan problemas con los experimentos y las licencias, que se abordan en detalle.

  • 01:40:00 El orador anima a la audiencia a crear su propia cadena de Markov y experimentar con las probabilidades de transición. Sugieren usar un modelo de dos estados para un modelo de tres estados y usar la creatividad y la imaginación para crear probabilidades de transición inusuales como cero o un "estado de sincronización" donde uno no puede hacer la transición una vez que ingresa. El orador enfatiza la importancia de la creatividad y la imaginación en el comercio cuantitativo y sugiere usarlos para ver cómo se comporta el procedimiento de estimación con cadenas de Markov de cambio de fase único.

  • 01:45:00 El orador analiza la importancia de la comunicación y la colaboración en el comercio cuantitativo, específicamente al realizar experimentos y analizar datos. Hacen hincapié en la necesidad de que los miembros del equipo se comuniquen constantemente entre sí y proporcionen actualizaciones sobre su progreso, y señalan que las personas pueden tener diferentes enfoques o ideas para el mismo problema. El orador también menciona la posibilidad de utilizar modelos de Markov de orden superior en sus experimentos y pregunta si alguien ha explorado esta opción.

  • 01:50:00 El disertante discute la importancia de generar casos de prueba para verificar si el modelo estimado coincide con el modelo real. El modelo real es el que se usa para generar observaciones mientras que el modelo estimado se crea usando las observaciones. El experimento tiene como objetivo determinar si el modelo estimado se acerca lo suficiente al modelo real. El disertante sugiere generar diferentes casos de prueba para ver cómo se realiza la estimación y destaca la importancia de probar con un número menor de observaciones.

  • 01:55:00 El orador analiza los desafíos de estimar con precisión los modelos comerciales cuantitativos con observaciones limitadas. Se observa que en estadística, los algoritmos se centran en la convergencia, lo que significa que la estimación se vuelve más precisa a medida que aumenta el número de observaciones. Sin embargo, el ponente destaca que es difícil determinar qué tan cerca está un modelo de la realidad ya que solo se tiene el modelo estimado y no los valores reales. Además, se introduce el concepto de calcular la probabilidad de generar valores observados con un modelo dado, que es un aspecto crucial de la estimación de máxima verosimilitud.

parte 3

  • 02:00:00 El disertante discute los desafíos de estimar probabilidades en un modelo de dos estados con datos limitados. La estimación de las probabilidades de transición es inexacta cuando solo hay 100 observaciones. Sin embargo, con 10 000 observaciones, la precisión aumenta, pero el problema persiste porque la mayoría de los activos no duran 40 años, que es la cantidad de datos que necesitaría para tantas observaciones. El modelo de dos estados tiene 12 parámetros y, a medida que aumenta el número de parámetros, se requieren más datos para una estimación precisa. Por lo tanto, es esencial tener una gran cantidad de datos para estimar las probabilidades con precisión, lo que no es práctico en el comercio, especialmente cuando se construyen modelos complejos. El disertante recomienda construir 3 o 4 modelos de estado o aumentar el número de observaciones para superar este desafío.

  • 02:05:00 El orador discute la dificultad de estimar para los modelos de cadena de Markov en el comercio cuantitativo. Aumentar el número de variables hace que el proceso de estimación sea aún más difícil, y usar una familia paramétrica de distribuciones en lugar de especificar operaciones como esta puede reducir significativamente el número de parámetros. Sin embargo, el algoritmo de Baum-Welch, que se usa para entrenar un modelo de Markov oculto continuo (HMM), puede ser un desafío. Luego, el orador pasa a discutir el siguiente experimento: backtesting.

  • 02:10:00 La demostración que se muestra simula un cruce de promedio móvil simple en el XOM de acciones, y el programa está configurado para descargar datos sobre las acciones de Yahoo y simular el comercio desde 1990 hasta 2012. La estructura de cómo configurar el Se explica la fuente de datos, siendo el complemento de fuente de datos de Yahoo el más fácil y simple de usar para aquellos que no tienen acceso a fuentes de datos profesionales. Esta demostración proporciona un ejemplo útil de cómo programar y probar estrategias comerciales.

  • 02:15:00 El ponente explica el proceso de creación de estrategias, simuladores y todos los libros necesarios para ejecutar una simulación. El ejemplo dado es una estrategia de cruce de promedio móvil que implica calcular el promedio móvil más rápido usando los últimos 20 días de datos y el promedio móvil más lento usando los últimos 250 días de datos. El orador señala que se puede examinar el código fuente para la implementación de la estrategia, el simulador y los trazadores comerciales en AlgoQuant, que es un software de código abierto. Además, el ponente explica que la accesibilidad abierta del software permite a los usuarios verificar su código de forma independiente y realizar modificaciones para su personalización. Finalmente, el orador explica que hay varias medidas que se pueden usar para el análisis de rendimiento, incluidas las pérdidas y ganancias, la relación de información, la relación de Sharpe, la reducción máxima, la exposición masiva y omega.

  • 02:20:00 El orador demuestra cómo utilizar diferentes analizadores de rendimiento en Lwan para calcular diferentes medidas, como la reducción, y generar un informe sobre el rendimiento de la estrategia. El código escucha los eventos que le interesan, como las actualizaciones de precios, y genera nuevos pedidos basados en la información más reciente. El orador sugiere usar el depurador para comprender mejor el comportamiento del código y ver cómo responde a las actualizaciones de precios y genera órdenes.

  • 02:25:00 El orador demuestra cómo usar un depurador para monitorear una estrategia comercial y observar cruces como señales. Explica cómo colocar un punto de quiebre y detenerse cuando se produce una señal de cruce real, mostrando un ejemplo en el que la media móvil más rápida cruza por encima de la media móvil más lenta. Luego, la estrategia entra en una posición larga, comprando una unidad del producto XOM al precio de mercado. Más tarde, cuando la media móvil más rápida cruza por debajo de la media móvil más lenta, la estrategia entra en una posición corta, vendiendo dos unidades de XOM al precio de mercado. El orador muestra un gráfico de la orden de compra y explica la diferencia entre comprar en la orden de mercado y colocar una orden de límite activada por un precio deseado.

  • 02:30:00 El orador repasa una simulación de una estrategia de cruce de promedio móvil simple en AlgoQuant. Demuestran cómo usar datos históricos para generar señales de compra y venta y calcular órdenes para mantener una posición deseada. La estrategia escucha las señales de actualización del desarrollador y se suscribe a la señal del libro de pedidos para esta tarea. El orador señala que, si bien las pruebas históricas no son suficientes, son un buen punto de partida, y el cruce de promedio móvil simple se puede generalizar a otros escenarios. También mencionan que una estrategia es solo una función y muestran las matemáticas para calcular el orden.

  • 02:35:00 El orador analiza la importancia de la simulación y la experimentación cuando se intenta crear una estrategia comercial mediante el análisis matemático. Demuestra el uso de una estrategia GMA21, que ha sido previamente probada matemáticamente, pero produce resultados desfavorables cuando se prueba mediante simulación debido a los costos de transacción. El orador enfatiza la importancia del software y la programación para experimentar y ajustar las estrategias comerciales para evitar pérdidas en escenarios comerciales del mundo real, destacando que se pueden probar diferentes parámetros para diferentes acciones para encontrar la estrategia más efectiva.

  • 02:40:00 El disertante discute la importancia de la experimentación para confirmar las predicciones teóricas en el comercio cuantitativo. Se alienta a los estudiantes a usar el software proporcionado para experimentar con diferentes números y crear sus propias estrategias comerciales. El disertante guía a los estudiantes a través de la implementación de una estrategia gma21, que compra cuando el precio actual es más alto que el último precio y vende cuando el precio actual es más bajo que el último precio, ilustrando cómo calcular órdenes y enviarlas a corredores para su ejecución. Luego, los estudiantes tienen la tarea de crear sus propias estrategias y experimentar con ellas en datos históricos.

  • 02:45:00 El orador presenta la estrategia comercial más simple que se puede implementar fácilmente, convirtiéndola en una solución plug-and-play. El orador invita a la audiencia a hacer preguntas y los alienta a comunicarse si necesitan más aclaraciones.

  • 02:55:00 El orador analiza un caso especial de la media móvil geométrica, que es cuando M es igual a uno. Este caso simplifica la estrategia de comparar solo los rendimientos actuales con cero, y aunque esta estrategia no necesariamente genera dinero, sirve como un buen ejemplo con fines educativos. El orador anima a la audiencia a terminar el ejercicio de esta estrategia fuera de línea para que se sientan cómodos codificando y probando usando el sistema algocoin para los próximos ejercicios de matemáticas y programación.
 

Área de juegos de ingeniería financiera: procesamiento de señales, estimación robusta, Kalman, optimización



Área de juegos de ingeniería financiera: procesamiento de señales, estimación robusta, Kalman, optimización

En este cautivador video, Daniel Palomar, profesor del departamento de ingeniería eléctrica, electrónica e informática de HKUST, arroja luz sobre la amplia gama de aplicaciones del procesamiento de señales en el ámbito de la ingeniería financiera. Palomar disipa la idea errónea que rodea a la ingeniería financiera y enfatiza la ubicuidad de las técnicas de procesamiento de señales dentro de este campo. Destaca la relevancia de varios temas, como la teoría de matrices aleatorias, los filtros de partículas, los filtros de Kalman, los algoritmos de optimización, el aprendizaje automático, el aprendizaje profundo, la optimización estocástica y las restricciones de probabilidad.

Palomar profundiza en las propiedades distintivas de los datos financieros, conocidos como hechos estilizados, que se mantienen consistentes en diferentes mercados. Explica cómo los ingenieros financieros emplean rendimientos en lugar de precios para modelar el mercado de valores. Los retornos lineales y logarítmicos, a pesar de sus pequeñas diferencias, son ampliamente utilizados debido a la pequeña magnitud de los retornos. Estos rendimientos se analizan para determinar su estacionariedad, siendo la no estacionariedad una característica destacada de los datos financieros. El orador también aborda otros hechos estilizados, como las distribuciones de colas pesadas, la asimetría en los rendimientos de baja frecuencia y el fenómeno del agrupamiento de volatilidad.

Se enfatiza la importancia de modelar los rendimientos de las acciones en finanzas, con un enfoque particular en la volatilidad. Palomar establece paralelismos entre la señal de retorno y una señal de voz, explorando posibles colaboraciones entre el modelado financiero y el procesamiento de señales de voz. Se analizan diferentes regímenes de frecuencia en el modelado, incluido el modelado de alta frecuencia, y se destacan los desafíos que plantea la necesidad de datos en tiempo real y recursos informáticos potentes.

También se examinan las limitaciones de los modelos que se enfocan únicamente en modelar los rendimientos sin considerar la covarianza o la varianza de los rendimientos. El ponente destaca la importancia de capturar la información y la estructura proporcionada por los modelos de covarianza y varianza, que pueden permitir una toma de decisiones más rentable. Palomar introduce el concepto de modelar la varianza y la covarianza de los rendimientos utilizando un residuo compuesto por un término aleatorio normalizado y un término envolvente que captura la covarianza de los residuos. Sin embargo, modelar un residuo multivariante con una matriz de coeficiente grande requiere modelos más sofisticados.

El video explora los desafíos de estimar parámetros frente a datos limitados y una gran cantidad de parámetros, lo que puede conducir a un sobreajuste. Para abordar esto, se introduce la dispersión de rango bajo como un medio para analizar el modelo Vega y formular restricciones. Palomar analiza el concepto de robustez y la inadecuación de asumir una distribución gaussiana para la ingeniería financiera debido a las colas pesadas y los regímenes de muestras pequeñas. Explica que los estimadores de muestras tradicionales basados en la distribución gaussiana arrojan resultados inferiores, lo que requiere una reformulación sin tales suposiciones. Técnicas como la reducción y la regularización se presentan como medios efectivos para abordar colas pesadas, con su implementación exitosa en finanzas y comunicaciones.

Se explora la estimación robusta, una herramienta utilizada en finanzas para mejorar la precisión a pesar de los valores atípicos. El orador presenta distribuciones elípticas para modelar distribuciones de colas pesadas y explica cómo se pueden calcular los pesos para cada muestra mediante un método iterativo. El estimador de Tyler, que normaliza las muestras y estima la función de densidad de probabilidad (PDF) de la muestra normalizada, se analiza como un medio para eliminar la forma de la cola. El estimador de Tyler, en combinación con estimadores robustos, mejora la precisión de la estimación de la matriz de covarianza. La inclusión de términos de regularización y el desarrollo de algoritmos contribuyen aún más a mejorar las observaciones y la estimación de matrices de covarianza.

Palomar profundiza en conceptos financieros como la estimación de Wolfe, la estimación de Tyler y la cointegración. Si bien la estimación de Wolfe representa una mejora significativa, todavía se basa en la suposición de una distribución gaussiana. La estimación de Tyler, una alternativa atractiva, requiere un número suficiente de muestras para modelos con múltiples dimensiones. La cointegración, un concepto crucial en finanzas, sugiere que predecir el precio relativo de dos acciones puede ser más fácil que predecir precios individuales, lo que abre oportunidades para el comercio de pares. Se explora la distinción entre correlación y cointegración, centrándose la correlación en las variaciones a corto plazo y la cointegración en el comportamiento a largo plazo.

El video revela el concepto de una tendencia común y su relación con el comercio de diferenciales. La tendencia común se describe como un paseo aleatorio compartido por dos acciones que tienen un componente común. Al restar la tendencia común del diferencial entre los precios de las acciones, los comerciantes obtienen un residual con una media de cero, que sirve como un indicador confiable para la reversión a la media. Esta propiedad se vuelve fundamental en las estrategias comerciales de spread. El orador explica que al establecer umbrales en el diferencial, los comerciantes pueden identificar situaciones infravaloradas y capitalizar la recuperación del precio, beneficiándose así de la diferencia de precio. La estimación del parámetro gamma y la identificación de acciones cointegradas son pasos esenciales en este proceso, que se puede lograr utilizando técnicas como mínimos cuadrados.

El ponente profundiza en el papel del filtro de Kalman en escenarios donde un cambio en el régimen conduce a la pérdida de cointegración debido a la variación de gamma. La adaptabilidad del filtro de Kalman a estas variaciones se destaca a través de una comparación con los métodos de mínimos cuadrados y mínimos cuadrados móviles. Se demuestra que el filtro de Kalman supera a las otras técnicas, ya que mantiene un seguimiento constante alrededor de cero, mientras que los mínimos cuadrados exhiben fluctuaciones que resultan en pérdidas durante un período de tiempo. Por lo tanto, el disertante recomienda emplear el filtro de Kalman para una estimación robusta en ingeniería financiera.

Se presenta una comparación entre el rendimiento de los modelos de filtro de mínimos cuadrados y de Kalman, lo que confirma la eficacia del método de Kalman en la ingeniería financiera. Luego, el orador profundiza en la aplicación de modelos ocultos de Markov para detectar regímenes de mercado, lo que permite a los comerciantes ajustar sus estrategias de inversión en función de las condiciones predominantes del mercado. La optimización de cartera se introduce como un concepto fundamental, que implica el diseño de carteras que equilibren el rendimiento esperado y la varianza del rendimiento de la cartera. El orador establece paralelismos entre la optimización de cartera y los modelos de formación de haces y filtrado lineal, ya que comparten modelos de señal similares.

El video analiza cómo las técnicas de comunicación y procesamiento de señales se pueden aplicar a las finanzas. El concepto de relación señal-ruido en comunicación se compara con la relación de Sharpe en finanzas, que mide la relación entre el rendimiento de la cartera y la volatilidad. El orador presenta la cartera de Markowitz, que busca maximizar el rendimiento esperado y minimizar la varianza. Sin embargo, debido a su sensibilidad a los errores de estimación y la dependencia de la varianza como medida de riesgo, la cartera de Markowitz no se usa mucho en la práctica. Para abordar esto, se pueden emplear técnicas de dispersión del procesamiento de señales, particularmente en el seguimiento de índices, donde solo se usa un subconjunto de acciones para rastrear un índice, en lugar de invertir en todas las acciones constituyentes. El ponente propone mejoras a las técnicas de escasez para reducir los errores de seguimiento.

El video profundiza en el concepto de "comercio de monedero" y destaca el papel de las carteras en el comercio. Usando el modelo de valor en riesgo (VaR), el orador explica cómo se puede lograr el comercio de cartera al construir una cartera de dos acciones con pesos específicos. La matriz PI y la matriz beta se presentan como herramientas que proporcionan un subespacio de diferenciales de reversión a la media, lo que permite el arbitraje estadístico. La incorporación de la matriz beta en la optimización facilita la identificación de la dirección óptima dentro del subespacio, lo que genera resultados superiores en comparación con el uso de beta solo. El orador también menciona su libro, "Una perspectiva de procesamiento de señales en ingeniería financiera", que sirve como punto de entrada para los profesionales de procesamiento de señales interesados en el campo de las finanzas.

Hacia la conclusión del video, se exploran diferentes enfoques para operar en ingeniería financiera. El ponente distingue entre estrategias que capitalizan pequeñas variaciones y tendencias y aquellas que se enfocan en explotar el ruido. Estas dos familias de estrategias de inversión ofrecen vías distintas para generar ganancias. El orador también aborda los desafíos que plantea la falta de datos para aplicar técnicas de aprendizaje profundo en finanzas, ya que el aprendizaje profundo generalmente requiere cantidades sustanciales de datos, que pueden estar limitados en contextos financieros. Además, se analiza el concepto de estimación de dimensiones vectoriales para más de dos acciones, y el orador brinda información sobre varios enfoques.

En el segmento final, el disertante aborda el tema del dominio del mercado por parte de las grandes empresas y su impacto en el mercado financiero. El ponente destaca la influencia potencial que pueden tener las grandes empresas con importantes recursos financieros cuando realizan inversiones sustanciales. Esta concentración de poder plantea consideraciones importantes para la dinámica del mercado y el comportamiento de otros participantes del mercado.

El video toca brevemente el tema de la ejecución de órdenes en finanzas. Explica que cuando se trata de órdenes grandes, es una práctica común dividirlas en partes más pequeñas y ejecutarlas gradualmente para evitar perturbar el mercado. Este aspecto de las finanzas implica técnicas de optimización complejas y, a menudo, se basa en principios de la teoría del control. El ponente destaca el carácter matemático de la ejecución de órdenes y menciona la existencia de numerosos trabajos académicos sobre el tema.

A medida que el video llega a su fin, el orador invita a la audiencia a plantear más preguntas durante la pausa para el café, reconociendo su presencia y participación. El video es un recurso valioso que brinda información sobre la aplicación del procesamiento de señales en la ingeniería financiera. Ofrece perspectivas para mejorar las estimaciones, optimizar carteras y detectar regímenes de mercado a través de la lente de las técnicas de procesamiento de señales.

En general, el video proporciona una descripción completa de las diversas aplicaciones del procesamiento de señales en la ingeniería financiera. Enfatiza la importancia de modelar los rendimientos, la varianza y la covarianza de las acciones en las finanzas al tiempo que aborda los desafíos de la estimación de parámetros, el sobreajuste y las limitaciones de los modelos financieros tradicionales. Los conceptos de estimación robusta, cointegración, optimización de cartera y técnicas de escasez se analizan en detalle. Al destacar los paralelismos entre la comunicación y el procesamiento de señales en las finanzas, el orador subraya la relevancia y el potencial de colaboración entre estos dos dominios. El video concluye arrojando luz sobre las estrategias comerciales, el aprendizaje automático en las finanzas y la importancia de la dinámica del mercado influenciada por las grandes empresas.

  • 00:00:00 Daniel Palomar, profesor del departamento de ingeniería eléctrica, electrónica e informática de HKUST, habla sobre el tema de la ingeniería financiera y cómo existe una idea errónea sobre lo que es. Palomar explica que el procesamiento de señales está en todas partes dentro de la ingeniería financiera, y varios temas, como la teoría de matrices aleatorias, el filtro de partículas, el filtro de Kalman, los algoritmos de optimización, el aprendizaje automático, el aprendizaje profundo, la optimización estocástica y las restricciones de probabilidad son relevantes. También aborda hechos estilizados sobre datos financieros y explica que los datos financieros tienen propiedades especiales que son consistentes en diferentes mercados.

  • 00:05:00 El video explica cómo los ingenieros financieros modelan el mercado de valores utilizando rendimientos en lugar de precios. Hay dos tipos de retornos: retornos lineales y logarítmicos, pero son casi lo mismo ya que los retornos suelen ser números pequeños. Los rendimientos se pueden graficar para ver si son estacionarios o no, y el hecho estilizado de las finanzas es su no estacionariedad. Otros hechos estilizados incluyen colas pesadas, lo que significa que las colas del histograma histórico de rendimientos son pesadas, no delgadas como una distribución gaussiana. Los ingenieros financieros también necesitan modelar la asimetría, especialmente en bajas frecuencias de rendimiento. Por último, el video explica el concepto de agrupamiento de volatilidad y su importancia en el modelado financiero.

  • 00:10:00 El orador analiza la importancia de modelar los rendimientos de las acciones en las finanzas. Explican que la volatilidad juega un papel crucial en el modelado, particularmente en el modelado de la desviación estándar, o envolvente, de la señal de retorno. El orador señala que la señal de retorno se parece a una señal de voz y se pregunta si existe suficiente superposición entre el modelo financiero y el procesamiento de la señal de voz para inspirar la colaboración. Existen diferentes regímenes de frecuencia en el modelado y el modelado de alta frecuencia, en particular, requiere suscripciones costosas y computadoras poderosas debido a la gran cantidad de datos críticos en el tiempo. La sección concluye mencionando diferentes modelos de modelado financiero, como el modelo IID y el modelo factorial, y toca la importancia de comprender las correlaciones en el tiempo en el modelado.

  • 00:15:00 El orador analiza las limitaciones de los modelos financieros que solo se enfocan en modelar los rendimientos y no la covarianza o la varianza de los rendimientos. Explican que al mirar solo los rendimientos, puede estar perdiendo información y estructura que otros pueden capturar para ganar dinero. Luego, el orador presenta la idea de modelar la varianza y la covarianza de los rendimientos utilizando un residual que se compone de dos factores: un término aleatorio normalizado con varianza unitaria y un término envolvente que captura la covarianza de los residuales. Señalan que los modelos para el residuo escalar están bien establecidos, pero modelar un residuo multivariado con un coeficiente de matriz de 500 por 500 requiere modelos mucho más complejos.

  • 00:20:00 El orador explica los desafíos de estimar parámetros con datos insuficientes y demasiados parámetros, lo que lleva al sobreajuste. Para resolver este problema, es necesario imponer una dispersión de rango bajo para analizar el modelo Vega y formular algunas restricciones. El disertante introduce el concepto de robustez, donde consideramos que la distribución gaussiana no es adecuada para la ingeniería financiera debido a las colas pesadas y los regímenes de muestras pequeñas. Los estimadores de muestras tradicionales basados en la distribución gaussiana dan como resultado estimadores de bajo rendimiento. Para abordar este problema, debemos reformular todo sin asumir una distribución gaussiana, y las colas pesadas se pueden abordar mediante métodos de contracción o regularización, que se han utilizado en varias industrias, incluidas las finanzas y las comunicaciones.

  • 00:25:00 El orador analiza la estimación robusta, que es una herramienta utilizada en finanzas para hacer estimaciones más precisas a pesar de varios valores atípicos en los datos. El orador explica que las distribuciones elípticas se pueden usar para modelar distribuciones de colas pesadas, y los pesos de cada muestra se pueden calcular a través de un método iterativo. Además, el orador explica el estimador de Tyler, que normaliza las muestras y estima la PDF de la muestra normalizada para que se elimine la forma de la cola. Este estimador se puede utilizar junto con estimadores robustos para proporcionar una estimación más precisa de las matrices de covarianza. Luego, el orador explica cómo se pueden incluir los términos de regularización y se pueden desarrollar algoritmos para obtener una mejor comprensión de las observaciones, con un gráfico que muestra el error en la estimación de las matrices de covarianza frente al número de muestras.

  • 00:30:00 El orador analiza conceptos financieros como la estimación de Wolfe, la estimación de Tyler y la cointegración. La estimación de Wolfe es una gran mejora, pero aún asume la distribución gaussiana. La estimación de Tyler es una buena alternativa pero requiere al menos 40 muestras para un modelo de 14 dimensiones. La cointegración, un concepto específico en finanzas, es la idea de que el precio relativo de dos acciones puede ser más fácil de predecir que los precios individuales, lo que permite a los operadores ganar dinero a través del comercio de pares. La diferencia entre correlación y cointegración es que la correlación se trata de variaciones a corto plazo, mientras que la cointegración tiene más que ver con el comportamiento a largo plazo. El orador ilustra estos conceptos con varios diagramas y gráficos.

  • 00:35:00 El orador explica el concepto de una tendencia común y cómo se relaciona con el comercio de diferenciales. La tendencia común es un paseo aleatorio que comparten dos acciones con un componente común. Al restar la tendencia común del diferencial entre los precios de las acciones, el comerciante se queda con un residuo que es cero a la media, lo que lo convierte en un buen indicador para la reversión a la media, una propiedad que se puede utilizar para el comercio de diferenciales. El comerciante establece dos umbrales en el margen y compra cuando está infravalorado y vende cuando se recupera, ganando dinero con la diferencia. Se pueden usar mínimos cuadrados para estimar la gamma, pero requiere encontrar las dos acciones que están cointegradas y el valor de gamma. El orador muestra un ejemplo de un escenario real de negociación de diferenciales.

  • 00:40:00 El ponente explica cómo entra Kalman cuando hay un cambio en el régimen y se pierde la cointegración debido al cambio de gamma, y cómo se adapta a estas variaciones. El orador usa dos acciones como ejemplo para comparar el seguimiento de MU y gamma usando mínimos cuadrados, Kalman y mínimos cuadrados móviles, y concluye que Kalman funciona mejor. La línea verde para el seguimiento de Kalman se mantiene alrededor de cero, mientras que la línea negra para los mínimos cuadrados sube y baja, lo que hace que se pierda dinero durante un período de dos años. Por lo tanto, el disertante sugiere usar Kalman para la estimación robusta en ingeniería financiera.

  • 00:45:00 El orador compara el desempeño de los modelos de entrenamiento de mínimos cuadrados y Kalman y concluye que el método de Kalman funciona bien en ingeniería financiera, mientras que el modelo de mínimos cuadrados se reduce después de cierto punto. Analiza el uso de modelos ocultos de Markov en la detección de regímenes de mercado, lo que ayuda a cambiar las estrategias de inversión dependiendo de si el mercado está en un buen o mal estado. Además, explora el concepto de optimización de carteras y explica que las carteras son vectores con pesos que les dicen a los inversores cuánto dinero invertir en una acción. El rendimiento esperado y la varianza del rendimiento de la cartera también son factores clave que se utilizan para diseñar carteras. El ponente establece una comparación con los modelos de formación de haz y filtrado lineal, que utilizan modelos de señal similares a la optimización de cartera.

  • 00:50:00 El ponente analiza cómo las técnicas de comunicación y procesamiento de señales se pueden aplicar a las finanzas. El concepto de relación señal-ruido en comunicaciones es similar al índice de Sharpe en finanzas, que es una relación entre el rendimiento de la cartera y la volatilidad. La optimización de la cartera, específicamente la cartera de Markowitz, que implica maximizar el rendimiento esperado y minimizar la varianza, se presenta como un problema convexo simple. El orador también señala que la cartera de Markowitz no se usa con frecuencia en la práctica debido a su sensibilidad a los errores de estimación y la dependencia de la varianza como medida de riesgo. Sin embargo, las técnicas de dispersión del procesamiento de señales se pueden aplicar al seguimiento de índices, donde en lugar de comprar cientos de acciones para rastrear un índice, solo se utiliza un subconjunto de acciones. Finalmente, el ponente propone una mejora de las técnicas de dispersión en el seguimiento de errores.

  • 00:55:00 El orador habla sobre el "trading de monedero" y el uso de carteras en el trading. Utilizando el modelo VaR (valor en riesgo), el disertante explica cómo se puede operar en cartera con dos acciones y una cartera de dos componentes con peso uno y menos gamma. Luego, el orador presenta la matriz PI y la matriz beta, que brindan un subespacio de diferenciales de reversión a la media que se pueden usar para el arbitraje estadístico. El uso de la matriz beta en la optimización ayuda a encontrar la mejor dirección dentro del subespacio y produce mejores resultados que usar solo la beta mágica. El orador también promociona su libro, "Una perspectiva de procesamiento de señales en ingeniería financiera", que es un punto de entrada para las personas de procesamiento de señales interesadas en el campo de las finanzas.

  • 01:00:00 El orador analiza diferentes enfoques para operar en ingeniería financiera, incluido el comercio en el margen utilizando el final de la tendencia del precio y pequeñas variaciones. Explica que existen dos familias de estrategias de inversión: las que ganan dinero en base a la tendencia y pequeñas variaciones, y las que ganan dinero con el ruido, ignorando la tendencia al formar un spread. El orador también analiza el aprendizaje automático en finanzas y explica que la falta de datos plantea un problema para usar el aprendizaje profundo en finanzas, ya que el aprendizaje profundo requiere una gran cantidad de datos, que a menudo son limitados en finanzas. Finalmente, analiza la noción de cointegración y explica diferentes enfoques para estimar las dimensiones de los vectores para más de dos acciones.

  • 01:05:00 El orador discute el tema de las grandes empresas que tienen demasiado dinero, lo que puede impulsar el mercado cuando invierten. También mencionan el tema de la ejecución de órdenes en finanzas, donde las órdenes grandes se cortan en pedazos pequeños y se envían lentamente para evitar perturbar el mercado. Esta rama de las finanzas implica mucha optimización y puede volverse muy matemática, con muchos artículos sobre el tema de la teoría del control. El orador sugiere llevar más preguntas durante la pausa para el café y agradece a la audiencia por asistir.
 

"Kalman Filtering with Applications in Finance" de Shengjie Xiu, tutorial del curso 2021



"Kalman Filtering with Applications in Finance" de Shengjie Xiu, tutorial del curso 2021

En el video titulado "Filtrado de Kalman con aplicaciones en finanzas", se explora el concepto de modelos basados en el estado y su aplicación en finanzas. El disertante presenta el filtro de Kalman como una técnica versátil para predecir el estado de un sistema basado en observaciones previas y corregir la predicción usando observaciones actuales. El video también cubre Common Smoother y el algoritmo EM, que se utilizan para analizar datos históricos y aprender los parámetros de un modelo de finanzas basado en el estado.

El video comienza ilustrando el concepto de modelos basados en estados utilizando el ejemplo de un automóvil que circula a lo largo de un eje con posiciones ocultas. El presentador explica cómo los modelos basados en estado consisten en matrices de transición y observación que mapean el estado en el espacio observado. Estos modelos pueden manejar múltiples estados o sensores que registran posiciones simultáneamente. El estado oculto sigue una propiedad de Markov, lo que lleva a una forma elegante de probabilidad.

Luego, el disertante profundiza en el algoritmo de filtro de Kalman y su aplicación en las finanzas. El algoritmo involucra pasos de predicción y corrección, donde la incertidumbre está representada por la varianza de una función gaussiana. La ganancia común, que determina el peso entre la predicción y la observación, se destaca como un factor crucial. Se enfatiza la simplicidad y la eficiencia computacional del filtro de Kalman.

Se analiza un experimento que compara la confiabilidad de los datos del GPS y del odómetro para predecir la ubicación de un automóvil, lo que demuestra la eficacia del filtro Kalman incluso cuando ciertas fuentes de datos no son confiables. Sin embargo, se observa que el filtro de Kalman está diseñado para modelos lineales estabilizados por Gauss, lo que limita su aplicabilidad.

El video también presenta Common Smoother, que proporciona un rendimiento más suave que Common Filter y resuelve el problema de la tendencia a la baja del filtro. Se discute la necesidad de entrenar parámetros en finanzas y el concepto de parámetros variables en el tiempo. El algoritmo Expectation-Maximization (EM) se presenta como un medio para aprender los parámetros cuando se desconocen los estados ocultos.

El ponente explica el algoritmo EM, que consiste en el paso E y el paso M, para calcular las distribuciones posteriores de los estados latentes y optimizar la función objetivo para la estimación de parámetros. Se destaca la aplicación del modelo basado en el estado en las finanzas, específicamente para la descomposición del volumen de negociación intradía.

Varias variantes del filtro Kalman, como el filtro Kalman extendido y el filtro Kalman sin perfume, se mencionan como soluciones para manejar la funcionalidad no lineal y el ruido. Los filtros de partículas se introducen como un método computacional para modelos complejos que no pueden resolverse analíticamente.

El video concluye discutiendo las limitaciones de las soluciones analíticas y la necesidad de métodos computacionales como los métodos de Monte Carlo. El orador reconoce la naturaleza exigente de estos procesos, pero destaca los aspectos fascinantes del filtrado de Kalman.

En general, el video ofrece una exploración en profundidad de los modelos basados en el estado, el filtro de Kalman y sus aplicaciones en las finanzas. Cubre los conceptos fundamentales, los pasos algorítmicos y las consideraciones prácticas, al mismo tiempo que menciona variantes avanzadas y métodos computacionales. El orador destaca la relevancia y el poder de los modelos basados en el estado para revelar información oculta y enfatiza los continuos avances en el campo.

  • 00:00:00 El presentador del video presenta el concepto de modelos basados en estado utilizando un ejemplo simple de un automóvil que circula a lo largo de un eje con posiciones ocultas denominadas "eje z". Los estados ocultos, denotados como "jt" en el tiempo t, son desconocidos para el observador, al igual que en el mercado de valores, donde el estado del mercado está oculto. El presentador describe dos modelos relacionados con los modelos basados en estado, el filtro común y el suavizador común, y cómo aprender los parámetros dentro del modelo basado en estado automáticamente. Finalmente, el video analiza las aplicaciones de los modelos basados en el estado en las finanzas. Se introducen la ecuación de estado y la ecuación de observación, donde el estado depende solo del nodo anterior, y cada observación se basa en estados ocultos relevantes.

  • 00:05:00 El orador explica los modelos basados en estados y cómo consisten en matrices de transición y observación que mapean el estado en el espacio observado, que puede ser diferente. El estado y la observación pueden ser vectores con múltiples estados o sensores que registran la posición simultáneamente, lo que permite una forma más genérica. El estado oculto sigue una propiedad de Markov, lo que conduce a una forma elegante de probabilidad. El orador aclara los conceptos de predicción, filtrado y suavizado y cómo se combinan para crear el algoritmo directo en el filtro de Kalman. El filtro Kalman se compone de dos componentes: predicción y corrección, y fue diseñado por primera vez por Kalman y utilizado en el proyecto Apollo para rastrear naves espaciales. Ahora se usa ampliamente en muchas áreas, incluida la previsión de series temporales en finanzas.

  • 00:10:00 Se presenta el algoritmo de Filtrado de Kalman y se discute su aplicación en finanzas. El algoritmo implica predecir el estado de un sistema basado en observaciones anteriores y luego corregir la predicción utilizando las observaciones actuales. La incertidumbre en la predicción está representada por la varianza de una función gaussiana, y la corrección se realiza multiplicando las distribuciones gaussianas de predicción y observación. Se enfatiza la importancia de la ganancia común, que determina el peso entre la predicción y la observación. Se muestra que el algoritmo es bastante simple e involucra solo unas pocas líneas de código.

  • 00:15:00 El disertante analiza un experimento en el que se comparó la confiabilidad del GPS y el odómetro en una ecuación de estado. Los resultados mostraron que el enfoque del filtro de Kalman fue exitoso en la predicción de la ubicación de un automóvil, incluso cuando el GPS no era confiable durante secciones específicas del viaje. El disertante también discutió los pros y los contras del filtro de Kalman y destacó su eficiencia computacional y el hecho de que es ampliamente utilizado en aplicaciones en tiempo real. Sin embargo, una de sus limitaciones es que está diseñado para modelos lineales estabilizados de Gauss. El disertante también discutió brevemente el Common Smoother y su uso en el análisis de datos históricos.

  • 00:20:00 El desempeño del suavizador común en finanzas se presenta utilizando el ejemplo de un automóvil que circula por un túnel. El suavizador común proporciona un rendimiento mucho más suave que el filtro común y resuelve el problema de la tendencia a la baja del filtro, proporcionando una mejor aproximación. Antes de ejecutar el suavizador común, se debe implementar la función de filtro común directo. La sección también cubre el concepto de parámetros en finanzas, la necesidad de entrenarlos y cómo pueden variar con el tiempo. Se introduce la teoría del aprendizaje, incluida la estimación de máxima verosimilitud y el algoritmo de maximización de expectativas para encontrar parámetros cuando se desconocen los estados ocultos. El algoritmo EM consta de dos pasos, el paso de expectativa y el paso de maximización, para calcular las distribuciones posteriores de estados latentes y el valor esperado de la conjetura.

  • 00:25:00 El orador analiza el algoritmo EM y cómo se puede utilizar para aprender los parámetros de un modelo de finanzas basado en el estado. El algoritmo consta de dos pasos: el paso E, donde se calcula la probabilidad posterior utilizando el filtro común y suavizador, y el paso M, donde se maximiza la función objetivo para encontrar los nuevos parámetros de estimación. Los parámetros se enlazan y optimizan continuamente hasta que convergen. El ponente también explica cómo se puede aplicar este modelo a las finanzas, específicamente en lo que respecta a la descomposición del volumen de negociación intradía, donde los componentes diarios y periódicos se separan utilizando el modelo. El orador señala que implementar el modelo es sencillo utilizando paquetes existentes como las marcas en R.

  • 00:30:00 El orador analiza el modelo de estado utilizado en finanzas, que consiste en un estado oculto con componentes diarios y periódicos, y un modelo de observación que combina los términos diarios y periódicos para formar el volumen de negociación. El modelo se analiza utilizando un filtro de Kalman y suavizador, y el algoritmo EM se utiliza para aprender los parámetros de manera eficiente. El modelo también se puede utilizar para el pronóstico de series de tiempo al predecir el término diario futuro y mantener el término estacional igual. El modelo basado en el estado es útil para encontrar información oculta y también se puede aplicar a otras aplicaciones financieras.

  • 00:35:00 El orador analiza el poder de los modelos basados en el estado y cómo pueden revelar información oculta en las observaciones. El filtro de Kalman es una técnica versátil y útil que se puede aplicar en prácticamente cualquier área, incluidas las finanzas. Si bien el filtro Kalman está diseñado para casos más fáciles, se pueden usar otras variantes para modelos más complicados. El filtro Kalman extendido y el filtro Kalman sin perfume son dos ejemplos de variantes que pueden manejar la funcionalidad no lineal y el ruido. Además, los filtros de partículas se utilizan cuando el modelo es demasiado complicado para las soluciones analíticas. Si bien el filtro de Kalman se desarrolló en la década de 1960, sigue siendo una solución óptima para el modelo basado en estado en un caso muy específico, con funciones de transición lineal y ruido gaussiano.

  • 00:40:00 El orador discute las limitaciones de resolver integrales analíticamente y la necesidad de métodos computacionales pesados como los métodos de Monte Carlo para ciertas tareas como el filtrado de partículas. Señala que esto no era posible en el pasado, pero ahora es gracias al estado actual de la tecnología. El disertante también menciona que si bien es un proceso exigente, es un tema fascinante, refiriéndose al filtrado de Kalman.
 

"Thrifting Alpha: Using Ensemble Learning To Revitalize Tired Alpha Factors" by Max Margenot


"Thrifting Alpha: Using Ensemble Learning To Revitalize Tired Alpha Factors" by Max Margenot

In the video titled "Thrifting Alpha: Using Ensemble Learning To Enhance Alpha Factors," Max Margenot, a data scientist at Quantopian, shares his insights on leveraging ensemble learning to enhance the performance of alpha factors. Margenot emphasizes the significance of constructing a portfolio by combining independent signals, resulting in improved and novel outcomes. He introduces the concept of factor modeling, addresses the complexities of assessing model performance, and explores the creative utilization of ensemble learning for efficient asset allocation.

Margenot begins by introducing the concept of "thrifting alpha," which aims to revitalize tired alpha factors using ensemble learning. Alpha factors represent unique and interesting returns in finance, differentiating them from risk factors such as market returns. The objective is to create a portfolio by combining independent signals to generate new and improved results. He also provides a brief overview of the Capital Asset Pricing Model and explains how Quantopian serves as a free platform for quantitative research.

Factor modeling is a key focus of Margenot's presentation. He highlights how a portfolio's returns consist of market returns and additional unexplained factors. By incorporating classic factors such as small-big (small market cap vs. large market cap firms) and high minus low for book to price ratio, the model can assess market risk and expand its analysis to other return streams. The goals of factor modeling include diversifying uncorrelated signals, reducing overall portfolio volatility, and increasing returns.

The speaker discusses the growing popularity of factor modeling in portfolio construction processes, citing a Blackrock survey that indicates 87% of institutional investors incorporate factors into their investment strategies. Margenot outlines the five main types of factors that portfolios revolve around: value, momentum, quality, volatility, and growth. He also explains the concept of long/short equity, where positions are taken on both long and short positions based on factor values. The objective is to use these exposures to create a well-balanced portfolio.

Margenot delves into the universe in which the algorithm is applied, emphasizing the importance of aligning the statistical model with the execution of trades. If the trades cannot be executed due to constraints, such as shorting limitations, the strategy's mandate is violated. Margenot favors dollar-neutral strategies that ultimately end up market neutral. He constructs portfolios where only the highest and lowest values matter, aiming to capture the highest expected returns. Combining multiple factors involves a composition of a combined rank, providing flexibility within the portfolio.

Assessing model performance and dealing with unexplained returns pose challenges, as Margenot explains. He discusses the importance of a reliable universe with sufficient liquidity and introduces the Q 1500 universe, designed to filter out unwanted elements. Instead of predicting prices, Margenot emphasizes the importance of understanding which stocks are better than others and capturing relative value. He demonstrates the use of the pipeline API within their framework to compute momentum, providing examples of vector calculations.

The speaker focuses on creating a momentum factor that considers both long-term and short-term trends. Margenot standardizes returns and penalizes the long-term aspect to address the risk of short-term reversals. He utilizes a package called Alpha Ones to evaluate the signal across different time scales and constructs a portfolio using the momentum factor. Margenot emphasizes the importance of determining a reasonable time scale and discusses the factors he works with. He highlights the workflow of defining a universe, alpha factors, and combining alphas to construct a long/short equity portfolio.

Margenot discusses the combination of different alpha factors and their portfolio construction, emphasizing that the combination of independent signals should ideally result in a stronger overall signal. He presents dynamic and static aggregation methods for combining factors and constructing a portfolio. Static aggregation involves an equal-weighted portfolio of different factors, while dynamic aggregation adjusts the weights of factors based on their performance. Standardizing factors is essential to ensure comparability within each individual factor.

Ensemble learning is a key topic discussed by Margenot. He explains that finding a consistently upward trending training algorithm can be challenging, as it should go beyond simple beta. To overcome this limitation, he employs ensemble learning to aggregate multiple individual signals. Margenot specifically utilizes AdaBoost, a well-known technique in ensemble learning, to train decision trees based on six features. These decision trees predict whether an asset will go up or down, and the final prediction is determined by the majority output of a thousand decision trees. This approach allows for more accurate and robust forecasting.

Margenot further elaborates on evaluating signal alpha by revitalizing tired alpha factors through ensemble learning. He trains decision trees over a month and attempts to predict returns or whether the market will be up or down in the future. By aggregating the performance of the classifiers, he extracts feature importances from the weighted sum of the decision trees and evaluates the signal alpha lens. However, Margenot acknowledges the need to incorporate commissions and slippage into the evaluation process, as they can significantly impact the final results.

Incorporating commission and slippage considerations into algorithms is an essential aspect highlighted by Margenot. He emphasizes that real-world trading costs should be taken into account to ensure the viability of the signals. He demonstrates the potential negative returns and drawdowns in a backtester due to the limited training window for a machine learning classifier and high turnover rate. Margenot suggests exploring alternative ensemble learning methods or platform implementations to potentially improve performance in the future. He also mentions the tools he utilized for alpha factor analysis and portfolio analysis.

Throughout the video, Margenot introduces various tools and resources that can aid in implementing ensemble learning techniques. He recommends checking out the zipline backtesting engine and utilizing the Quantiopian platform, which provides access to it. Margenot suggests employing Scikit-learn and the Ensembles package, which are valuable for machine learning, statistics, and classifiers. He also mentions that he shares lectures, algorithms, and template solutions on his GitHub, providing free access to his expertise for data scientists and traders.

Towards the end of the presentation, Margenot discusses the process of revamping existing alpha factors using ensemble learning. He emphasizes that even if an alpha factor initially does not yield positive results, it can be improved upon. He highlights the pipeline's importance in defining computations and explains how training components on historical data enables predicting market movements 20 days in advance. While cross-validation can be challenging with historical data, Margenot suggests training forward and predicting on the next dataset as a workaround.

Margenot concludes by discussing the practical aspects of implementing ensemble learning to improve alpha factors. He advises training the ensemble classifier over a longer period and predicting over a longer period as well. He suggests employing a factor weighting scheme and other constraints to allocate resources among different strategies. Margenot advocates for training a single model on all the interpreters within the pipeline, treating each factor as part of a unified model. He also humorously mentions the possibility of factors doing the opposite of their intended purpose by adding a negative sign, highlighting that it rarely occurs.

In summary, Max Margenot's video provides valuable insights into the realm of ensemble learning and its application in enhancing alpha factors. By combining independent signals and utilizing ensemble learning techniques, data scientists and traders can optimize their investment strategies through advanced machine learning approaches. Margenot's practical advice, demonstrations, and recommended tools offer guidance to those seeking to leverage ensemble learning for more accurate and profitable decision-making in trading strategies.

  • 00:00:00 In this section, Max Margenot, a data scientist at Quantopian, introduces the concept of "drifting alpha" which aims to revitalize tired alpha factors using ensemble learning. He explains that alpha factors refer to novel and interesting returns in finance, while risk factors are the usual returns everyone is familiar with, such as the market. The goal is to create a portfolio by combining independent signals to get something new and better results. He also briefly explains Capital Asset Pricing Model and how Quantopian operates as a free platform for quantitative research.

  • 00:05:00 In this section, the speaker introduces the idea of a factor model, which attempts to understand the risks of a portfolio. The speaker explains that a portfolio's returns are made up of the returns of the market and something else that is new and unexplained. The classic factors added to a factor model include small - big, which refers to small market cap firms versus large market cap firms, and high minus low for book to price ratio. By assessing market risk and adding more factors, one can extend the model and look at exposure against other return streams. Ultimately, diversifying uncorrelated signals, lowering volatility in the overall portfolio, and increasing returns are the goals in factor modeling.

  • 00:10:00 In this section, the speaker discusses how factor modeling is becoming increasingly common in portfolio construction processes. According to a Blackrock survey, 87% of institutional investors are incorporating factors into their investment process. The five main types of factors that portfolios revolve around are value, momentum, quality, volatility, and growth. The speaker also talks about long/short equity, which involves going long on some equity and short on others using factor value to determine where they go long or short. Ultimately, the goal is to use these exposures to create a portfolio.

  • 00:15:00 In this section, Max Margenot discusses the universe in which the algorithm is applied. The algorithm applies a statistical model and executes trades in line with the model. If the trades cannot be made due to constraints, such as not being able to short, then the mandate of the strategy is violated. Margenot prefers dollar-neutral strategies, which generally end up market neutral, and constructs portfolios where only the highest and lowest values matter to capture the highest expected returns. Combining multiple factors involves a composition of a combined rank, which involves a lot of room to wiggle with and is why he is defining it specifically in this way.

  • 00:20:00 In this section, the speaker discusses the challenges of assessing a model's performance and how unexplained returns can be more daunting than explained losses or drawdowns. He talks about the importance of having a reliable universe that has sufficient liquidity and how they created the Q 1500 universe to filter out unwanted elements. The speaker also explains how calculating prices is challenging, and instead of predicting prices, he focuses on understanding which stocks are better than others. He then explains the notion of relative value and how capturing it is more critical than being in an up or down market. Finally, he defines an example of a vector and how he uses the pipeline API within their framework to compute momentum.

  • 00:25:00 In this section of the video, Max Margenot discusses his approach to creating a momentum factor that takes into account both long-term and short-term trends. He standardizes returns and penalizes the long-term aspect to address the risk of short-term reversal. He uses a package called Alpha Ones to evaluate the signal over different time scales and ultimately constructs a portfolio using the momentum factor. Margenot explains the importance of deciding on a reasonable time scale and discusses the factors he's working with. He also emphasizes the workflow of defining a universe, alpha factors, and combining alphas to construct a long/short equity portfolio.

  • 00:30:00 In this section, Max Margenot discusses the combination of different alpha factors and their portfolio construction, noting that the combination of independent signals ideally leads to a stronger overall signal. He presents dynamic and static aggregation methods for combining factors and constructing a portfolio, with static aggregation being the equal-weighted portfolio of different factors, while dynamic aggregation involves changing the weights of factors based on their performance. Additionally, he emphasizes the importance of standardizing the factors to ensure that they are comparable within each individual factor.

  • 00:35:00 In this section of the video, Max Margenot talks about ensemble learning and how it can be used to allocate between constructed assets in a creative way. He explains that it is difficult to come up with a good training algorithm that consistently goes up in a novel way that isn't just beta. To overcome this limitation, he uses ensemble learning to aggregate many different individual signals. He uses AdaBoost, an old favorite in ensemble learning, to train decision trees based on his six features, predicting whether something is going to go up or down. He then takes the winner combination out of a thousand different decision trees and takes the sine of that outcome, voting yay or nay based on the majority output.

  • 00:40:00 In this section, Max Margenot discusses how to evaluate a signal alpha by using ensemble learning to revitalize tired alpha factors. He trains decision trees over a month and tries to predict returns or whether he will be up or down a month into the future, relying on the classifiers' aggregate performance. He then extracts feature importances from the weighted sum of the decision trees and evaluates the signal alpha lens. While the adaboost value has a high probability of leading to a high return, he acknowledges the need to bring this into something like a des Baux alpha lens, which incorporates commissions and slippage.

  • 00:45:00 In this section of the video, the presenter discusses the importance of incorporating commission and slippage into algorithms to ensure that the signals are still good after the fact. He then shows the negative returns and drawdowns in a backtester due to the limited training window for a machine learning classifier and high turnover rate. The presenter suggests that using a different ensemble learning method or platform implementation may result in better performance in the future. Finally, he lists the tools he used for alpha factor analysis and portfolio analysis.

  • 00:50:00 In this section, Max Margenot talks about using Pi-elle and Cool to calculate the intention behind an algorithm's trade and how it can help fulfill that intention by the time the position is closed. He recommends checking out the zipline backtesting engine and using the Quantiopian platform to access it. He also suggests using Scikit-learn and Ensembles package, which is great for machine learning, statistics, and classifiers. Max Margenot is a lecturer at Quantopian and provides free access to his lectures, algorithms, and template solutions on his GitHub.

  • 00:55:00 In this section, Max Margenot, a quantitative researcher, discusses his process of using ensemble learning to revamp existing alpha factors. He explains that even if an alpha factor did not work initially, it is still possible to build upon it and improve it. He also touches on the importance of the pipeline in the process of defining computations, and how by training required components on historical data, it is possible to predict up or down 20 days in advance. However, Margenot points out that cross-validation is challenging to implement when dealing with historical data, but his technique is to train forward and predict on the next dataset.

  • 01:00:00 In this section, Max Margenot talks about using ensemble learning to improve alpha factors. He explains that every time he trains the ensemble classifier, the weights assigned to each factor are different based on the past month's performance. He suggests training over a longer period and predicting over a longer period. He also suggests using a factor weighting scheme and other constraints to allocate among different strategies. Margenot also talks about training a single model on all the interpreters within the pipeline for all the factors, rather than treating each factor as an individual model. He jokes about the possibility of factors doing the opposite of what they are supposed to do when a negative sign is added and explains that it never happens.

  • 01:05:00 In this section, the speaker discusses their rebalancing process, which takes place once a month, as they feel it is more faithful to their research process. They also acknowledge that noisy data may be affecting their predictions, as they're only getting a 1% edge on the given training set. The speaker also considers the idea of adding in an up or down feature to their model, but feels it's more effort than it's worth. They briefly discuss the use of neural nets, acknowledging their power but also stating that they prefer the more interpretable methods they are currently using. Finally, the speaker ends by discussing the importance of using machine learning as a tool for classification or regression, rather than discovery.

  • 01:10:00 In this section of the video, the speaker discusses the usefulness of using adaboost to handle outliers when dealing with a large number of disparate things. The speaker also mentions using ensemble learning to predict things with high returns and low returns without breaking them into any sort of baskets until after the prediction is made. They mention the option of using a third thing for prediction. However, they suggest starting with two things to avoid dealing with much else.
 

MIT 18.S096 Temas de Matemáticas con Aplicaciones en Finanzas - 1. Introducción, Términos y Conceptos Financieros



1. Introducción, términos y conceptos financieros

En este video informativo, los espectadores realizan un viaje a través de varios términos y conceptos financieros para establecer una base sólida en finanzas. El curso está dirigido tanto a estudiantes de pregrado como de posgrado que estén interesados en seguir una carrera en este campo. Su objetivo es proporcionar una introducción a las finanzas modernas y equipar a los estudiantes con los conocimientos esenciales.

El disertante comienza profundizando en la historia de los términos y conceptos financieros, arrojando luz sobre términos importantes como Vega, Kappa y volatilidad. Vega se explica como una medida de sensibilidad a la volatilidad, mientras que Kappa mide la volatilidad de los cambios de precios a lo largo del tiempo. El conferenciante destaca que el campo de las finanzas ha experimentado una notable transformación en las últimas tres décadas, impulsada por la integración de métodos cuantitativos.

El video también explora la evolución de la profesión comercial y los cambios que ha experimentado en los últimos 30 años. Se refiere a los diversos productos comerciales disponibles en el mercado y cómo se negocian. A continuación, el disertante profundiza en las causas de la crisis financiera de 2008, atribuyéndola a la desregulación del sector bancario, que permitió a los bancos de inversión ofrecer productos complejos a los inversores.

Se enfatiza la importancia de los mercados financieros, ya que juegan un papel crucial en la conexión de prestamistas y prestatarios, al mismo tiempo que brindan oportunidades para que los inversores generen mayores rendimientos de sus inversiones. El video destaca a los diferentes actores en los mercados financieros, incluidos bancos, distribuidores, fondos mutuos, compañías de seguros, fondos de pensiones y fondos de cobertura.

A lo largo del video, se analizan en detalle varios términos y conceptos financieros. Se explican la cobertura, la creación de mercado y el comercio por cuenta propia, y se introducen términos como beta y alfa. Beta se describe como la diferencia de rendimiento entre dos activos, mientras que alfa representa la diferencia de rendimiento entre una acción y el índice S&P 500. El conferenciante también aborda la gestión de carteras en relación con alfa y beta.

El video proporciona información sobre los diferentes tipos de operaciones y cómo se ejecutan. Explica el papel de la cobertura y la creación de mercado en la protección de los inversores. Además, el video presenta al Sr. White, quien explica los términos y conceptos financieros utilizados en los mercados. Delta, gamma y theta se analizan en el contexto de la negociación de acciones y se destaca la importancia de comprender la exposición a la volatilidad, los requisitos de capital y los riesgos del balance. El Sr. White también explora varios métodos utilizados para analizar acciones, incluido el análisis fundamental y el arbitraje.

El video menciona un cambio de política por parte de la Reserva Federal para reducir la flexibilización cuantitativa, lo que ha causado cautela entre los inversores y ha resultado en una venta masiva del mercado de valores. Enfatiza la naturaleza desafiante de la fijación de precios de instrumentos financieros y la gestión de riesgos utilizando modelos matemáticos. El disertante destaca la necesidad de actualizar constantemente las estrategias comerciales debido a la naturaleza dinámica del mercado.

El concepto de riesgo y recompensa se examina a fondo, y el video demuestra cómo el comportamiento humano a veces puede conducir a resultados inesperados en la toma de decisiones financieras. Se presenta un ejemplo, donde a la audiencia se le dan dos opciones con diferentes probabilidades y ganancias o pérdidas potenciales, destacando las diferentes preferencias que pueden tener los individuos.

A medida que concluye el video, se alienta a los espectadores a inscribirse en una clase futura y se sugieren tareas opcionales relacionadas con la compilación de una lista de conceptos financieros. Este completo video sirve como una excelente guía introductoria a los términos y conceptos financieros, brindando un sólido punto de partida para aquellos interesados en el campo de las finanzas.

  • 00:00:00 Este video presenta conceptos financieros, términos y fórmulas, y proporciona una introducción a las finanzas modernas. La clase está abierta a estudiantes de pregrado y los estudiantes de posgrado son bienvenidos. El objetivo es proporcionar una base para los estudiantes que desean seguir una carrera en finanzas.

  • 00:05:00 Esta conferencia analiza la historia de los términos y conceptos financieros, incluidos Vega, Kappa y volatilidad. Vega es una medida de la sensibilidad de un libro o cartera a la volatilidad, y Kappa es una medida de cuán volátil puede cambiar un precio con el tiempo. La conferencia también señala que las finanzas no siempre fueron una profesión cuantitativa y que los últimos 30 años han sido una transformación en el campo debido a la introducción de métodos cuantitativos.

  • 00:10:00 Este video brinda antecedentes sobre la industria financiera, incluido cómo ha cambiado la profesión comercial en los últimos 30 años. También cubre las diferentes formas de comercializar productos y cómo se comercializan.

  • 00:15:00 La crisis financiera de 2008 fue causada en gran medida por la desregulación del sector bancario, que facilitó que los bancos de inversión ofrecieran productos complejos a los inversores.

  • 00:20:00 Los mercados financieros son esenciales para cerrar la brecha entre los prestamistas y los prestatarios, y para ayudar a los inversores a generar mayores rendimientos o rendimientos de sus inversiones. Hay diferentes tipos de jugadores en los mercados, incluidos bancos, distribuidores, fondos mutuos, compañías de seguros, fondos de pensiones y fondos de cobertura.

  • 00:25:00 Los términos y conceptos financieros se analizan en este video, incluida la cobertura, la creación de mercado y el comercio por cuenta propia. Beta se explica como la diferencia de rendimiento entre dos activos, alfa es la diferencia de rendimiento entre una acción y el índice S&P 500, y la gestión de cartera se analiza en relación con alfa y beta.

  • 00:30:00 Este video explica cómo se ejecutan los diferentes tipos de operaciones y cómo la cobertura y la creación de mercado pueden ayudar a proteger a los inversores.

  • 00:35:00 En este video, el Sr. White explica los diferentes términos y conceptos financieros utilizados en los mercados. Delta, gamma y theta son conceptos importantes para comprender cuando se negocian acciones. También se analizan la exposición a la volatilidad, los requisitos de capital y los riesgos del balance general. Finalmente, el Sr. White explica los diferentes métodos utilizados para analizar acciones, incluido el análisis fundamental y el arbitraje.

  • 00:40:00 El cambio de política de la Reserva Federal se refiere a un plan para reducir la cantidad de flexibilización cuantitativa que están haciendo. Esto ha provocado que el mercado de valores se venda, ya que los inversores se vuelven más cautelosos sobre el futuro. Los modelos matemáticos se utilizan para fijar el precio de los instrumentos financieros y gestionar el riesgo, siendo ambas tareas desafiantes. Además, las estrategias comerciales deben actualizarse constantemente debido a la naturaleza de rápida evolución del mercado.

  • 00:45:00 El presentador analiza los conceptos de riesgo y recompensa, y muestra cómo el comportamiento humano puede conducir a resultados inesperados en las decisiones financieras. Luego presenta dos opciones, una con un 80 % de posibilidades de perder dinero y otra con un 100 % de posibilidades de ganar, y le pregunta a la audiencia cuál elegiría. La mayoría de la audiencia elige la opción con el valor esperado más alto, pero una minoría elige la opción b, que tiene menos posibilidades de ganar pero el potencial de perder más dinero.

  • 00:50:00 El video analiza términos y conceptos financieros y proporciona un ejemplo de cómo las personas pueden aprender de sus experiencias. El video también sugiere la tarea opcional de compilar una lista de conceptos financieros.

  • 00:55:00 Este video presenta términos y conceptos financieros, incluidos los conceptos de derivados, métodos de Monte Carlo y transacciones electrónicas. Jake proporciona dos ejemplos de proyectos en los que trabajó, uno relacionado con la estimación de la ruidosa derivada de una función y el otro relacionado con una mejor predicción de los precios de las monedas.

  • 01:00:00 Este video presenta términos y conceptos financieros y pide a los espectadores que se inscriban en una clase futura.
 

2. Álgebra lineal



2. Álgebra lineal

El video cubre ampliamente el álgebra lineal, centrándose en matrices, valores propios y vectores propios. Explica que los valores propios y los vectores propios son vectores especiales que se escalan cuando se aplica una transformación lineal. Cada matriz n por n tiene al menos un vector propio y, al usar una matriz ortonormal, es posible dividir una matriz en direcciones, lo que simplifica la comprensión de las transformaciones lineales. El video también presenta la descomposición de valores singulares (SVD) como otra herramienta para comprender las matrices, particularmente para una clase más general de matrices. SVD permite la representación de una matriz como el producto de matrices ortonormales y una matriz diagonal, lo que ahorra espacio para matrices con rango inferior. Además, el video destaca la importancia de los vectores propios para medir la correlación de datos y definir un nuevo sistema de coordenadas ortogonales sin alterar los datos en sí.

Además de los conceptos antes mencionados, el video profundiza en dos importantes teoremas del álgebra lineal. El primero es el teorema de Perron-Frobenius, que establece que una matriz no simétrica posee un valor propio único con el valor absoluto más grande, junto con un vector propio correspondiente con entradas positivas. Este teorema tiene aplicaciones prácticas en varios campos. El segundo teorema discutido es la descomposición de valores singulares (SVD), que permite la rotación de datos en una nueva orientación representada por bases ortonormales. SVD es aplicable a una gama más amplia de matrices y permite la simplificación al eliminar columnas y filas innecesarias, particularmente en matrices con un rango significativamente más bajo en comparación con el número de columnas y filas.

El video proporciona explicaciones detalladas, ejemplos y pruebas de estos conceptos, enfatizando su relevancia en diferentes campos de la ingeniería y la ciencia. Alienta a los espectadores a comprender los principios subyacentes y a interactuar con el material.

  • 00:00:00 En esta sección, el profesor comienza repasando álgebra lineal, asumiendo que los espectadores han tomado un curso sobre ella previamente. Él adapta las notas de la clase para que sean una revisión para aquellos que tomaron el curso de álgebra lineal más básico. La conferencia se centra principalmente en las matrices y su significado. El profesor explica que una matriz es una colección de números que se pueden usar para organizar datos como los precios de las acciones. Una matriz también es un operador que define una transformación lineal de un espacio vectorial de n dimensiones a un espacio vectorial de m dimensiones. El profesor también presenta el concepto de valores propios y vectores propios y analiza cómo se pueden aplicar a conjuntos de datos para producir propiedades y cantidades importantes.

  • 00:05:00 En esta sección, el video de YouTube explica el concepto de valores propios y vectores propios y su importancia para el álgebra lineal. Se define como un número real y un vector que satisface la condición de que A por v sea igual a lambda por V, y v sea un vector propio correspondiente a lambda. El determinante de (A-lambda I) es igual a 0 si A-lambda I no tiene rango completo, y det(A-lambda I) es un polinomio de grado n para matrices cuadradas. El video también destaca que siempre existe al menos un valor propio y un vector propio, y el significado geométrico de este concepto se explica desde el punto de vista de una transformación lineal, donde A toma el vector en R^3 y lo transforma en otro vector en R^ 3.

  • 00:10:00 En esta sección del video, el concepto de valores propios y vectores propios se presenta como vectores especiales que, cuando se aplica una transformación lineal, solo se escalan en cierta cantidad, lo que se conoce como lambda. Se establece que cada matriz n por n tiene al menos un vector propio, y una matriz ortonormal se puede usar para descomponer una matriz en direcciones, lo que facilita la comprensión de la transformación lineal. Finalmente, se explica que las matrices que se pueden descomponer en estas direcciones son las más importantes en álgebra lineal, y esas direcciones están definidas por la matriz U, mientras que D define cuánto se escalará.

  • 00:15:00 En esta sección, se introduce el concepto de matrices diagonalizables. Si bien no todas las matrices son diagonalizables, hay una clase especial de matrices que siempre lo son, y la mayoría de las matrices que se estudiarán en el curso pertenecen a esta categoría. Una matriz se considera diagonalizable si se descompone en n direcciones, y esto es especialmente cierto para las matrices simétricas, que tienen valores propios reales y siempre son diagonalizables. Se analiza el teorema 2, que proporciona una prueba de la diagonalizabilidad de las matrices simétricas.

  • 00:20:00 En esta sección, el orador explica cómo diagonalizar matrices simétricas, lo que involucra valores propios y vectores propios. Luego, el orador enfatiza la importancia de recordar los teoremas 1 y 2 para matrices simétricas reales. Mientras que la diagonalización es posible para matrices simétricas, no siempre es posible para matrices generales. Por lo tanto, el disertante presenta una herramienta alternativa que se puede usar para todas las matrices para destilar información importante a través de operaciones simples como escalar.

  • 00:25:00 En esta sección, el orador presenta la descomposición de valores singulares como la segunda herramienta para comprender las matrices, que es similar a la diagonalización pero tiene una forma ligeramente diferente. El teorema establece que para cualquier matriz de m por n, siempre existen dos matrices ortonormales, U y V, y una matriz diagonal, sigma, de modo que la matriz se puede descomponer como U por sigma por V transpuesta. El orador explica que esto funciona para todas las matrices generales de m por n, mientras que la descomposición de valores propios solo funciona para matrices diagonalizables de n por n. Además, el disertante menciona que SVD da un marco de vectores para los cuales A actúa como operador de escala, y los espacios para los vectores son diferentes entre sí.

  • 00:30:00 En esta sección, el orador analiza la diagonalización y la descomposición de valores propios, y cómo funcionan dentro de sus respectivos marcos. Lo comparan con la descomposición en valores singulares, que es aplicable a una clase más general de matrices. También abordan la prueba de la descomposición en valores singulares, que se basa en la descomposición en valores propios. El orador enfatiza la importancia y la ubicuidad de ambas formas de descomposición en muchos campos de la ingeniería y la ciencia, y alienta a los espectadores a intentar imaginar y comprender los conceptos detrás de la teoría.

  • 00:35:00 En esta sección del video, se explica el concepto de valores propios y vectores propios. Suponiendo que todos los valores propios excepto el primero son cero, los valores propios se reescriben como sigma_1^2, sigma_2^2, sigma_r^2 y 0. Los vectores propios se definen entonces como u_1, u_2 hasta u_r, donde u_i se calcula mediante dividiendo A por v_i por su valor propio correspondiente sigma_i. Con esto, se define una matriz U que comprende de u_1 hasta u_n, y la matriz V se define como v_1 hasta v_r, y v_r+1 hasta v_n. La multiplicación de estas matrices da como resultado una matriz diagonal, donde las primeras r entradas diagonales son sigma_1 a sigma_r, y las entradas restantes son cero.

  • 00:40:00 En esta sección, el orador brinda un tutorial sobre álgebra lineal y explica cómo definir la matriz U y V aplicando A por V/sigma (donde A es A transpuesta por A). Luego, la diagonal de la matriz se llena con valores sigma y las columnas se definen por el producto escalar de la transposición U con los valores lambda y V. El orador también aborda un error en el cálculo, lo corrige y revela la simplicidad del proceso.

  • 00:45:00 En esta sección, el profesor enseña cómo encontrar la descomposición en valores singulares de una matriz, que puede ser una herramienta poderosa. Para obtener la descomposición en valores singulares, debe encontrar los valores propios y los vectores propios de la matriz y organizarlos correctamente. Aunque puede ser un poco engorroso hacerlo a mano, es un ejercicio útil. También hay formas más eficientes de calcular esto en una computadora si es necesario. El profesor brinda un ejemplo de cómo encontrar la descomposición en valores singulares de una matriz de 2x3 y muestra los pasos para obtenerla.

  • 00:50:00 En esta sección, el profesor explica el proceso de encontrar la descomposición en valores singulares de una matriz. Demuestra cómo encontrar los vectores propios de una matriz y procede a mostrar cómo descomponer la matriz en la forma transpuesta U, sigma y V. Él enfatiza que los vectores propios que corresponden a un valor propio de cero no son importantes y pueden eliminarse, lo que ahorra el cálculo. El profesor concluye esta sección enunciando una forma diferente de descomposición en valores singulares.

  • 00:55:00 En esta sección, se presenta la forma simplificada de SVD. A se vuelve igual a U multiplicado por sigma multiplicado por V transpuesta, donde U sigue siendo una matriz m por m, sigma también es m por my V es una matriz m por n. Esto funciona solo cuando m es menor o igual que n. La prueba es la misma, y el último paso es descartar información irrelevante. Este formulario simplifica las matrices al eliminar columnas y filas innecesarias, lo que lo hace muy eficaz para matrices con un rango mucho más bajo que el número de columnas y filas. Un ejemplo de esto son los precios de las acciones con cinco empresas y los 365 días del año. La forma reducida ahorra mucho espacio y será la forma que se verá la mayor parte del tiempo. Los vectores propios ayudan a medir la correlación de los datos y definen un nuevo sistema de coordenadas ortogonales sin cambiar los datos en sí.

  • 01:00:00 En esta sección, el profesor explica cómo la descomposición en valores singulares (SVD) rota los datos en una orientación diferente representada por la base ortonormal a la que se está transformando. Las correlaciones entre diferentes stocks están representadas por cómo se orientan estos puntos en el espacio transformado. Además, el profesor menciona el teorema de Perron-Frobenius, que parece teórico, pero Steve Ross encontró un resultado que hace uso de este teorema llamado teorema de recuperación de Steve Ross. El teorema establece que para una matriz simétrica de n por n cuyas entradas son todas positivas, existe un valor propio mayor, lambda_0.

  • 01:05:00 En esta sección, el orador presenta un conocido teorema de álgebra lineal que tiene muchas aplicaciones teóricas, incluida la teoría de la probabilidad y la combinatoria. El teorema establece que para una matriz no simétrica existe un valor propio único con el valor absoluto más grande, que es un número real. Además, hay un vector propio con entradas positivas correspondientes a este valor propio. El teorema se ha utilizado en muchos contextos y el orador describe brevemente cómo funciona cuando la matriz es simétrica. La prueba implica varias observaciones, incluido el hecho de que el valor propio positivo más grande domina el valor propio negativo más pequeño si todos los valores propios tienen entradas positivas.

  • 01:10:00 En esta sección, el orador explica cómo las entradas positivas de una matriz tienen un impacto en los vectores propios de la matriz. Si un vector tiene entradas no positivas o entradas negativas, invertir el signo de las entradas y obtener un nuevo vector aumentará la magnitud, lo que no puede suceder en una matriz con entradas positivas. El vector propio de una matriz con entradas positivas también debe tener entradas positivas, y este teorema es válido incluso en entornos más generales. El disertante revisará este concepto más adelante, pero entrará en juego más adelante.
 

3. Teoría de la probabilidad



3. Teoría de la probabilidad

Esta completa serie de videos sobre la teoría de la probabilidad cubre una amplia gama de temas y brinda una comprensión profunda de los conceptos fundamentales y sus aplicaciones prácticas. El profesor comienza refrescando nuestro conocimiento de distribuciones de probabilidad y funciones generadoras de momentos. Distingue entre variables aleatorias discretas y continuas y define términos importantes como función de masa de probabilidad y función de distribución de probabilidad. El profesor también ilustra estos conceptos con ejemplos, incluida la distribución uniforme.

A continuación, el profesor profundiza en los conceptos de probabilidad y expectativa para variables aleatorias. Explica cómo calcular la probabilidad de un evento y define la expectativa (media) de una variable aleatoria. El profesor también discute la noción de independencia para variables aleatorias e introduce la distribución normal como una distribución universal para variables aleatorias continuas.

Al explorar el modelado de precios de acciones y productos financieros, el profesor señala que el uso exclusivo de la distribución normal puede no capturar con precisión la magnitud de los cambios de precios. En su lugar, sugiere modelar el cambio porcentual como una variable normalmente distribuida. Además, el profesor analiza la distribución log-normal y su función de densidad de probabilidad, destacando que sus parámetros mu y sigma se derivan de la distribución normal.

La serie de videos procede a presentar otras distribuciones dentro de la familia exponencial, como las distribuciones de Poisson y exponencial. Estas distribuciones poseen propiedades estadísticas que las hacen útiles en aplicaciones del mundo real. El profesor explica cómo se pueden parametrizar estas distribuciones y destaca la relación entre la distribución log-normal y la familia exponencial.

A continuación, el profesor explora los aspectos estadísticos y el comportamiento a largo plazo de las variables aleatorias. Explica el concepto de momentos, representado por los k-ésimos momentos de una variable aleatoria, y enfatiza el uso de la función generadora de momentos como una herramienta unificada para estudiar todos los momentos. Además, el profesor analiza el comportamiento a largo plazo de las variables aleatorias mediante la observación de múltiples variables aleatorias independientes con la misma distribución, lo que lleva a un gráfico que se parece mucho a una curva.

Luego, la serie de videos se enfoca en dos teoremas importantes: la ley de los grandes números y el teorema del límite central. La ley de los grandes números establece que el promedio de variables aleatorias independientes e idénticamente distribuidas converge a la media en un sentido débil a medida que aumenta el número de intentos. La probabilidad de desviación de la media disminuye con un mayor número de intentos. El teorema del límite central demuestra que la distribución del promedio de variables aleatorias independientes se aproxima a una distribución normal, independientemente de la distribución inicial. La función generadora de momentos juega un papel clave al mostrar la convergencia de la distribución de la variable aleatoria.

Se analiza más a fondo la convergencia de variables aleatorias, destacando cómo la función generadora de momentos puede controlar la distribución. El profesor presenta el concepto de rake de casino como un medio para generar ganancias y analiza la influencia de la varianza en la creencia en las propias capacidades. Se explica la demostración de la ley de los grandes números, enfatizando cómo promediar un mayor número de términos reduce la varianza.

En el contexto de un casino, el disertante explica cómo se puede aplicar la ley de los grandes números. Se observa que un jugador puede tener una ligera desventaja en los juegos individuales, pero con un tamaño de muestra grande, la ley de los grandes números asegura que el resultado promedio tienda hacia el valor esperado. Se explora la idea de que un casino tome una comisión, destacando cómo la ventaja del jugador y la creencia en los principios matemáticos pueden influir en los resultados.

Finalmente, la serie de videos profundiza en las leyes débiles y fuertes de los grandes números y analiza el teorema del límite central. La ley débil establece que el promedio de variables aleatorias independientes e idénticamente distribuidas converge a la media cuando el número de intentos se aproxima al infinito. La ley fuerte de los grandes números proporciona una forma más fuerte de convergencia. El teorema del límite central explica la convergencia de la distribución de la media a una distribución normal, incluso cuando la distribución inicial es diferente.

En general, esta serie de videos ofrece una exploración extensa de los conceptos de la teoría de la probabilidad, incluidas las distribuciones de probabilidad, las funciones generadoras de momentos, las leyes de los grandes números, el teorema del límite central y sus implicaciones prácticas.

  • 00:00:00 En esta sección, el profesor introduce el tema de la teoría de la probabilidad, brinda una descripción general de las distribuciones de probabilidad y se enfoca en la función generadora de momentos. Distingue entre variables aleatorias discretas y continuas y define la función de masa de probabilidad y la función de distribución de probabilidad. El profesor aclara que el espacio muestral generalmente se considera que son los números reales para variables aleatorias continuas y proporciona ejemplos de funciones de masa de probabilidad y funciones de distribución de probabilidad, incluida una distribución uniforme. En general, esta sección sirve como repaso para quienes están familiarizados con los conceptos básicos de la teoría de la probabilidad.

  • 00:05:00 En esta sección, el profesor discute los conceptos de probabilidad y expectativa para variables aleatorias. Explica que la probabilidad de un evento se puede calcular como la suma de todos los puntos en el evento o como la integral sobre el conjunto. También define la expectativa, o media, de las variables aleatorias como la suma o integral de todos los valores posibles de la variable aleatoria multiplicada por ese valor. Luego, el profesor continúa explicando el concepto de independencia de las variables aleatorias, distinguiendo entre eventos mutuamente independientes y eventos independientes por pares. Finalmente, introduce la distribución normal como distribución universal para variables aleatorias continuas.

  • 00:10:00 En esta sección del video sobre Teoría de la Probabilidad, el disertante analiza el uso de la distribución normal como medio para modelar precios de acciones o productos financieros, y cómo no siempre es una buena opción debido a que no se tiene en cuenta la orden de magnitud del precio mismo. En cambio, el orador profundiza en la idea de que el cambio porcentual debería estar normalmente distribuido para modelar mejor los precios de las acciones. El orador menciona que los incrementos de precios distribuidos normalmente producirán un precio distribuido normalmente en lugar de tener alguna tendencia.

  • 00:15:00 En esta sección, el profesor explica cómo encontrar la distribución de probabilidad de Pn cuando los cambios de precio tienen una distribución logarítmica normal. Él define una distribución log-normal Y como una variable aleatoria tal que log Y se distribuye normalmente. Usando la fórmula de cambio de variable, muestra cómo encontrar la función de distribución de probabilidad de la distribución log-normal usando la distribución de probabilidad de normal. El profesor también explica por qué tomar el cambio porcentual como modelo para los cambios de precio no es una buena opción a largo plazo, ya que puede tomar valores negativos y hacer que el precio suba o baje hasta el infinito eventualmente.

  • 00:20:00 En esta sección, el profesor analiza la distribución logarítmica normal y su definición. La función de densidad de probabilidad de X es igual a la función de densidad de probabilidad de Y en log X por la diferenciación de log X, que es 1 sobre X. La distribución se refiere en términos de los parámetros mu y sigma, que provienen de la distribución normal . Sin embargo, cuando está sesgado, ya no está centrado en mu, y tomar el promedio no da la media, que no es e elevado a sigma.

  • 00:25:00 En esta sección, el profesor presenta otras distribuciones además de las distribuciones normales y logarítmicas normales, como las distribuciones de Poisson y exponenciales, que pertenecen a una familia de distribuciones denominada familia exponencial. Esta familia tiene algunas buenas propiedades estadísticas que las hacen útiles en aplicaciones del mundo real. El profesor explica que todas las distribuciones de esta familia se pueden parametrizar mediante un vector llamado "theta", y que la función de densidad de probabilidad se puede escribir como un producto de tres funciones: h(x), t_i(x), y c(theta ). Luego, el profesor analiza cómo la distribución logarítmica normal cae en la familia exponencial mediante el uso de la fórmula 1 sobre x sigma raíz cuadrada 2 pi, e al menos log x [INAUDIBLE] al cuadrado.

  • 00:30:00 En esta sección, el orador discute las dos principales cosas de interés cuando se estudia una variable aleatoria: estadísticas y comportamiento a largo plazo/a gran escala. Las estadísticas están representadas por los k-ésimos momentos de la variable aleatoria, donde el k-ésimo momento se define como la expectativa de X respecto a la k. El ponente explica que una forma unificada de estudiar todos los momentos juntos es a través de la función generadora de momentos, que contiene toda la información estadística de una variable aleatoria. El segundo tema principal es el comportamiento a largo plazo oa gran escala de una variable aleatoria, que se puede observar a través de varias variables aleatorias independientes con exactamente la misma distribución. Cuando los números son muy grandes, se puede trazar un gráfico para mostrar cuántas variables aleatorias caen en cada punto, lo que se parecerá mucho a una curva.

  • 00:35:00 En esta sección, el orador analiza la teoría de la probabilidad y el comportamiento a largo plazo oa gran escala de las variables aleatorias. Los dos teoremas discutidos son la ley de los grandes números y el teorema del límite central. También se introduce la función generadora de momentos y se define como la expectativa de ea t por x, donde t es algún parámetro. La función da el k-ésimo momento de la variable aleatoria y es para todos los números enteros. El orador señala que la existencia de la función generadora de momentos es importante ya que clasifica las variables aleatorias.

  • 00:40:00 En esta sección, se discute el teorema de que si dos variables aleatorias tienen la misma función generadora de momentos, entonces tienen la misma distribución. Sin embargo, se advierte que esto no significa que todas las variables aleatorias con k-ésimos momentos idénticos para todos los k tengan la misma distribución, ya que se requiere la existencia de funciones generadoras de momentos. Se menciona otra afirmación que dice que si la función generadora de momentos existe para una secuencia de variables aleatorias y converge a la función generadora de momentos de alguna otra variable aleatoria X, entonces la distribución de esta secuencia se acerca cada vez más a la distribución de X.

  • 00:45:00 En esta sección, el profesor discute el concepto de convergencia de variables aleatorias y explica que las distribuciones de las variables aleatorias convergen a la distribución de una variable aleatoria. La función generadora de momentos es una herramienta poderosa para controlar la distribución, como se ve en los teoremas dados. Luego, el profesor presenta la ley de los grandes números, donde X se define como el promedio de n variables aleatorias, y explica que si estas variables son independientes, idénticamente distribuidas con media mu y varianza sigma cuadrada, entonces la probabilidad de que X sea menor que o igual a un cierto valor tiende a la probabilidad de ese valor.

  • 00:50:00 En esta sección, el disertante analiza la ley de los grandes números y su aplicación en el casino. Cuando se promedia un gran número de distribuciones independientes idénticas, sus valores estarán muy cerca de la media. Mientras juega al blackjack en un casino, el jugador tiene una pequeña desventaja con una probabilidad de ganar del 48%. Desde el punto de vista del jugador, solo se toma un tamaño de muestra pequeño, lo que hace que la varianza se haga cargo en un corto período de tiempo. Sin embargo, desde el punto de vista del casino, tienen un tamaño de muestra muy grande y mientras haya una ventaja a su favor, seguirán ganando dinero. El póquer es diferente de los juegos de casino, ya que se juega contra otros jugadores, no contra el casino.

  • 00:55:00 En esta sección, se discute la idea de que un casino tome un rake como un medio para ganar dinero, y las tarifas pagadas por los jugadores se acumulan para generar ganancias para el casino. Se postula que si un jugador es mejor que su oponente y esta ventaja es mayor que la tarifa cobrada por el casino, el jugador puede ganar utilizando la ley de los grandes números. A pesar de esto, cuando la varianza es significativa, la confianza en las propias capacidades puede disminuir; sin embargo, tener fe en las matemáticas puede ser todo lo que se necesita para mantener el rumbo. Luego se explica la prueba de la ley de los grandes números, con un ejemplo que ilustra cómo promediar un mayor número de términos disminuye la varianza.

  • 01:00:00 En esta sección, se analiza la ley débil de los grandes números, que establece que si tiene variables aleatorias independientes e idénticamente distribuidas (IID), el promedio converge a la media en un sentido débil a medida que aumenta el número de intentos. hasta el infinito. La probabilidad de desviación de la media disminuye a medida que aumenta el número de intentos. También se aborda brevemente la ley fuerte de los grandes números, que tiene una convergencia más fuerte que la ley débil. El teorema del límite central es el siguiente tema, que explora lo que sucede cuando el número de intentos se reemplaza por la raíz cuadrada del número de intentos en la variable aleatoria.

  • 01:05:00 En esta sección, el profesor explica cómo el teorema del límite central responde una pregunta sobre la distribución de Yn con media 0 y varianza sigma al cuadrado. Afirmó que al tomar muchos eventos independientes y encontrar su promedio, en este sentido, su distribución converge a una distribución normal. Además, estableció un teorema sobre la convergencia de la distribución de Yn a la distribución normal con media 0 y varianza sigma. Independientemente de la distribución inicial, se produce la convergencia a la distribución normal.

  • 01:10:00 En esta sección, el objetivo es probar que la función generadora de momentos de Y_n converge a la función generadora de momentos de la convergencia puntual normal para todo t. La función generadora de momento de la normal es ea el t cuadrado sigma cuadrado sobre 2. La función generadora de momento de Y_n es igual a la expectativa de ea t Y_n. El producto de ea la t, 1 sobre la raíz cuadrada n, X_i menos mu se convierte en el producto de 1 a n, la esperanza de ea la t por la raíz cuadrada n. La n-ésima potencia de eso es igual a la expectativa de ea la t sobre la raíz cuadrada n, X_i menos mu a la n-ésima potencia. Se usa la expansión de Taylor, y cuando n tiende a infinito, todos estos términos serán de menor orden de magnitud que n, 1 sobre n.

  • 01:15:00 En esta sección, el orador analiza la ley de los grandes números y el teorema del límite central como formas de estimar la media de una variable aleatoria. Al tomar muchas pruebas independientes de una variable aleatoria y usarlas para estimar la media, la ley de los grandes números establece que la estimación será muy cercana a la media real si el número de pruebas es lo suficientemente grande. El teorema del límite central luego explica cómo la distribución de esta estimación es alrededor de la media, con distribuciones normales que tienen distribuciones de cola muy pequeñas. Sin embargo, el orador señala que para algunas distribuciones, es mejor tomar un estimador diferente que el estimador de máxima verosimilitud.
 

5. Procesos estocásticos I



5. Procesos estocásticos I

En este video sobre procesos estocásticos, el profesor ofrece una introducción completa y una descripción general de los procesos estocásticos de tiempo discreto y continuo. Estos modelos probabilísticos se utilizan para analizar eventos aleatorios que ocurren a lo largo del tiempo. El video muestra ejemplos de procesos simples de caminata aleatoria y cadena de Markov para ilustrar cómo abordan preguntas relacionadas con la dependencia, el comportamiento a largo plazo y los eventos límite. Además, se analiza el teorema de Perron-Frobenius, que enfatiza la importancia de los vectores propios y los valores propios para determinar el comportamiento a largo plazo del sistema. El video concluye introduciendo el concepto de procesos de martingala, que sirven como modelos de juego justo.

El video comienza introduciendo el concepto de martingalas en los procesos estocásticos, que están diseñados para mantener un valor esperado sin cambios. Un ejemplo de martingala es una caminata aleatoria, que presenta fluctuaciones mientras mantiene constantemente un valor esperado de 1. El video también explica los tiempos de parada, que son estrategias predeterminadas que dependen solo de los valores del proceso estocástico hasta un punto específico. El teorema de parada opcional establece que si existen una martingala y un tiempo de parada tau, el valor esperado en el tiempo de parada será igual al valor inicial de la martingala. Este teorema subraya la naturaleza justa y equilibrada de los procesos de martingala.

A lo largo del video, se tratan varios temas en detalle. Se introducen los procesos estocásticos de tiempo discreto y continuo, ilustrando su representación a través de distribuciones de probabilidad sobre diferentes caminos. Ejemplos como un simple paseo aleatorio y un juego de lanzamiento de monedas ayudan a dilucidar las propiedades y comportamientos de estos procesos. Se discute la importancia de las cadenas de Markov, enfatizando cómo el estado futuro depende únicamente del estado actual, simplificando el análisis de los procesos estocásticos. Se explora la noción de distribución estacionaria, mostrando el teorema de Perron-Frobenius, que establece la existencia de un vector propio único correspondiente al valor propio más grande, que representa el comportamiento a largo plazo del sistema.

El video concluye enfatizando la conexión entre las martingalas y los juegos limpios. Se observa que un proceso de martingala asegura que el valor esperado permanezca sin cambios, lo que significa un juego equilibrado. Por el contrario, los juegos como la ruleta en los casinos no son martingalas ya que el valor esperado es inferior a 0, lo que genera pérdidas esperadas para los jugadores. Finalmente, se menciona un teorema que sugiere que si se modela un jugador utilizando una martingala, independientemente de la estrategia empleada, el saldo siempre será igual al saldo inicial. Además, la expectativa de X_tau, el valor en el tiempo de parada, siempre es 0, lo que indica que, cuando se modela mediante una martingala, no se espera que el jugador gane.

En general, el video proporciona una descripción completa de los procesos estocásticos, sus propiedades y sus aplicaciones en el modelado y análisis de eventos aleatorios.

  • 00:00:00 En esta sección, el profesor brinda una introducción a los procesos estocásticos, una colección de variables aleatorias indexadas por tiempo. Distingue entre procesos estocásticos de tiempo discreto y de tiempo continuo y explica que pueden representarse mediante un conjunto de probabilidades sobre diferentes caminos. Da ejemplos de tres procesos estocásticos, incluido uno en el que f(t) es igual a t con probabilidad 1, uno en el que f(t) es igual a t para todo t con probabilidad 1/2, o f(t) es igual a -t para todo t con probabilidad 1/2, y uno en el que para cada t, f(t) es igual a to -t con probabilidad 1/2.

  • 00:05:00 En esta sección, el ponente discute el concepto de procesos estocásticos y los diferentes tipos de cuestiones que se estudian en relación con ellos. Los procesos estocásticos se utilizan para modelar situaciones de la vida real, como los precios de las acciones, e involucran variables aleatorias que dependen unas de otras. Los tres tipos principales de preguntas estudiadas incluyen dependencias en la secuencia de valores, comportamiento a largo plazo y eventos límite. El disertante explica cómo cada tipo de pregunta se relaciona con los procesos estocásticos y su distribución de probabilidad.

  • 00:10:00 En esta sección se introduce el tema de los procesos estocásticos, que se refiere al análisis de eventos aleatorios que ocurren en el tiempo. Específicamente, la atención se centra en los procesos estocásticos de tiempo discreto, uno de los más importantes es el paseo aleatorio simple. Esto se define como una secuencia de variables aleatorias, X sub t, que es la suma de variables independientes distribuidas idénticamente (IID), Y_i, que pueden tomar valores de 1 o -1 con una probabilidad de 1/2. La trayectoria de la caminata aleatoria se puede visualizar como una secuencia de movimientos, hacia arriba o hacia abajo, según el valor de Y_i. Este modelo proporcionará una base para comprender los procesos estocásticos de tiempo continuo más adelante en el curso.

  • 00:15:00 En esta sección, el profesor analiza el comportamiento de un paseo aleatorio simple durante un largo período de tiempo. Según el teorema del límite central, cuanto más se acerque a 0 un valor de X_t, menor será la varianza, que debería estar alrededor de 1 sobre t, y la desviación estándar alrededor de 1 sobre la raíz cuadrada de t. Al observar X_t sobre la raíz cuadrada de t, los valores tendrán una distribución normal, con media 0 y varianza la raíz cuadrada de t. Por lo tanto, a una escala muy grande, un paseo aleatorio simple no se desviará demasiado de la raíz cuadrada de t y menos la raíz cuadrada de t curvas. Aunque un valor extremo teórico para la caminata es t y menos t, estarás cerca de las curvas, jugando dentro de esa área principalmente. El profesor menciona que hay un teorema que establece que acertarás las dos líneas con una frecuencia infinita.

  • 00:20:00 En esta sección, se discuten las propiedades de un paseo aleatorio. La primera propiedad es que la expectativa de X sub k es 0, y la segunda propiedad se llama incremento independiente. Esto significa que si observa lo que sucede del tiempo 1 al 10, es irrelevante para lo que sucede del 20 al 30. La tercera propiedad se llama estacionaria. Establece que la distribución de X sub t+h menos X sub t es la misma que la distribución de X sub h. El ejemplo de un juego de lanzamiento de moneda se usa para mostrar que si comienza con un saldo de $ 0.00 con una moneda justa, su saldo seguirá exactamente el camino aleatorio simple, asumiendo una probabilidad de 50-50.

  • 00:25:00 En esta sección, el profesor analiza las probabilidades en un escenario de caminata aleatoria en el que lanza una moneda y se detiene después de ganar $100 o perder $50. Al poner una línea en los dos puntos de parada, explica que la probabilidad de acertar primero en la línea superior es A sobre A más B, y la probabilidad de acertar primero en la línea inferior es B sobre A más B. Usando esta fórmula, calcula que la probabilidad de ganar $100 es 2/3 y de perder $50 es 1/3. Luego, el profesor describe cómo probar esta fórmula definiendo f de k como la probabilidad de acertar primero en cualquiera de las líneas cuando se comienza en la posición k en la caminata aleatoria.

  • 00:30:00 En esta sección, el disertante analiza dos procesos estocásticos importantes: el paseo aleatorio simple y la cadena de Markov. El paseo aleatorio simple es un proceso en el que, en cada paso, un individuo sube o baja con una probabilidad de 1/2. La propiedad estacionaria de este proceso permite un fácil cálculo de probabilidades. Por otro lado, una cadena de Markov es una colección de procesos estocásticos donde el efecto del pasado sobre el futuro se resume en el estado actual. La importancia de la cadena de Markov es que el futuro solo depende del presente, lo que la convierte en un proceso estocástico más manejable de analizar.

  • 00:35:00 En esta sección, el ponente explica el concepto de procesos estocásticos de tiempo discreto como una cadena de Markov. El ejemplo de un paseo aleatorio simple se usa para ilustrar que el proceso es una cadena de Markov porque su probabilidad de alcanzar su siguiente paso solo depende del valor actual y no de sus valores anteriores. La probabilidad del proceso se puede definir matemáticamente, siendo la probabilidad de su transición de i a j la suma de todas las probabilidades de ir de i a todos los demás puntos del conjunto. Para un conjunto finito S, las cadenas de Markov son fáciles de describir calculando sus probabilidades de transición.

  • 00:40:00 En esta sección, el orador explica que la matriz de probabilidad de transición es una herramienta crucial para comprender las cadenas de Markov. Esta matriz, que consiste en las probabilidades de pasar de un estado a otro, posee toda la información necesaria para predecir futuras transiciones en una cadena de Markov. Usando esta matriz, se puede determinar la probabilidad de hacer una transición de un estado a otro en cualquier número de pasos. Sin embargo, es importante señalar que el espacio de estado debe ser finito para que exista la matriz de probabilidad de transición.

  • 00:45:00 En esta sección, se proporciona un ejemplo de cadena de Markov de un sistema que se puede modelar como un conjunto de estados con los estados funcionando o roto. El ejemplo muestra una matriz con probabilidades de transición entre estados como la probabilidad de que se repare y la probabilidad de que se quede rota. La pregunta que se plantea es cuál sería la distribución de probabilidad del sistema después de un largo período, digamos 10 años, y se supone que la distribución de probabilidad en el día 3650 y en el día 3651 debería ser aproximadamente la misma. Bajo este supuesto, la distribución de probabilidad observada después de un largo período de tiempo será el vector propio de la matriz, cuyo valor propio es 1 y cuyo vector propio es [p, q].

  • 00:50:00 En esta sección, el disertante analiza el teorema de Perron-Frobenius, que establece que para una matriz de transición con entradas positivas en una cadena de Markov, existe un vector que satisface Av = v. Este vector se denomina distribución estacionaria y representa el comportamiento a largo plazo del sistema. Se garantiza que el valor propio más grande de la matriz es 1, y el vector propio correspondiente será el que represente la distribución estacionaria. El teorema es general y se aplica no solo a la matriz utilizada en el ejemplo, sino a cualquier matriz de transición en una cadena de Markov con entradas positivas.

  • 00:55:00 En esta sección, el profesor analiza la distribución estacionaria y su singularidad relacionada con los vectores propios y los valores propios. El teorema de Perron-Frebenius dice que solo hay un vector propio que corresponde al mayor valor propio, que resulta ser 1. Los otros valores propios en la matriz son menores que 1, lo que significa que se disipan, pero el comportamiento correspondiente a la distribución estacionaria persiste. . En el tema final, el profesor explica sobre la martingala, que es otra colección de procesos estocásticos, utilizados para modelar un juego limpio. Un proceso estocástico se considera una martingala si es un juego justo.

  • 01:00:00 En esta sección, el disertante explica cómo un proceso estocástico puede ser una martingala, que es un juego justo. En una martingala, si observa lo que podría suceder en el momento t+1, el valor esperado tiene que ser exactamente igual al valor en el momento t, por lo que el proceso se centra en ese punto. Si es como su saldo en un juego, se espera que no gane nada de dinero. El disertante proporciona el ejemplo de un paseo aleatorio, que es una martingala. Sin embargo, un juego de ruleta en un casino no es una martingala ya que el valor esperado es menor que 0, lo que significa que el jugador está diseñado para perder dinero. Finalmente, el disertante muestra un ejemplo divertido para ilustrar que hay muchas maneras en que un proceso estocástico puede ser una martingala, inventando el ejemplo de X_k igual a 2 o -1, dependiendo de la distribución de probabilidad.

  • 01:05:00 En esta sección se introdujo el concepto de martingalas, que son procesos estocásticos diseñados para que el valor esperado sea siempre igual a 1. Un ejemplo de martingala es un paseo aleatorio que fluctúa mucho, pero en expectativa, mantiene un valor esperado de 1 en todo momento. También se discutió el teorema de parada opcional, que establece que jugar un juego de martingala garantiza que no ganará ni perderá en la expectativa, independientemente de la estrategia que use. También se explicó la definición de tiempo de parada, que es una variable aleatoria de valor entero no negativo que depende únicamente del proceso estocástico hasta un tiempo determinado.

  • 01:10:00 En esta sección, el profesor explica el concepto de tiempo de parada, que es un conjunto predefinido de estrategias que solo se basan en los valores del proceso estocástico hasta cierto punto, convirtiéndolo en un tiempo de parada. Proporciona un ejemplo de un juego de lanzamiento de monedas y muestra cómo el momento en que el saldo se vuelve $100 o $50 negativo es un momento de parada, mientras que el momento del primer pico no lo es, ya que depende de los valores futuros. El teorema de parada opcional establece que si hay una martingala y un tiempo de parada tau que siempre es menor o igual a una constante T, el valor en el tiempo de parada tendrá un valor esperado igual al valor inicial de la martingala.

  • 01:15:00 En esta sección, el video analiza un teorema que muestra que si se modela un jugador usando una martingala, sin importar qué estrategia se use, el jugador no puede ganar porque el saldo al principio siempre es igual al saldo cuando el jugador se detiene. Aunque el disertante no prueba este teorema, proporciona un corolario interesante que muestra que la expectativa de X_tau es igual a 0. Esto significa que no importa qué caso se use, ya sea que se detenga en $100, -50 o ilimitado, el resultado siempre regresará como 0. El disertante enfatiza que el contenido del teorema es interesante ya que implica que si algo se puede modelar usando una martingala, se supone que el jugador no debe ganar.