Trading Quantitatif - page 10

 

Introduction au trading quantitatif - Cours 2/8


Introduction au trading quantitatif - Cours 2/8

Dans cette conférence, le conférencier souligne l'importance de la technologie et de la programmation dans le trading quantitatif. Ils discutent de la façon dont les compétences en technologie et en programmation sont essentielles pour coopter des stratégies de trading quantitatives et effectuer des backtestings. Le conférencier souligne l'importance des mathématiques et de la programmation informatique dans ce domaine. Ils introduisent la programmation Java de base et la programmation mathématique à l'aide de Java, et soulignent le besoin de compétences en programmation dans le commerce quantitatif en raison de l'exigence de backtesting.

L'orateur aborde les défis liés à la simulation et à l'analyse des performances futures d'une stratégie. Ils mentionnent que les profits et pertes historiques (PNL) ne sont pas un indicateur fiable pour s'entraîner ou décider de changer de stratégie. Au lieu de cela, ils suggèrent d'utiliser la simulation et l'étalonnage des paramètres, qui nécessitent une programmation lourde, pour trouver les paramètres optimaux et tester la sensibilité d'une stratégie à ceux-ci. Ils soulignent également l'importance d'utiliser le même logiciel pour la recherche et le trading en direct afin d'éviter les erreurs de traduction.

L'orateur discute des responsabilités d'un trader quantitatif et souligne la nécessité d'un prototypage efficace des idées de trading. Ils suggèrent de passer la plupart du temps à réfléchir et à trouver des idées, tout en minimisant le temps consacré aux tests et à la programmation. Ils mentionnent l'importance d'avoir une boîte à outils de blocs de construction pour prototyper rapidement de nouvelles stratégies.

L'orateur aborde les défis liés à l'utilisation d'outils populaires comme Excel, MATLAB et R dans le trading quantitatif, déclarant qu'ils ne sont pas conçus pour des stratégies mathématiques sophistiquées. Ils recommandent d'utiliser d'autres langages de programmation comme Java, C-sharp et C++ qui ont des bibliothèques pour construire et mettre en œuvre des stratégies de trading.

L'orateur discute spécifiquement des limites de l'utilisation de R pour le trading quantitatif. Ils mentionnent que R est lent, a une mémoire limitée et des possibilités limitées de parallélisation. Ils mettent également en évidence le manque d'outils de débogage et d'interfaces standard pour la communication entre les différents programmes.

Le conférencier insiste sur l'importance de la technologie et de l'utilisation d'outils appropriés dans le commerce quantitatif. Ils mentionnent que des outils comme R et MATLAB peuvent améliorer considérablement la programmation mathématique et donner accès à des bibliothèques pour des calculs plus rapides. Ils soulignent la nécessité d'une bonne boîte à outils de recherche commerciale qui permet une combinaison facile de modules, une programmation parallèle, un nettoyage automatisé des données et un étalonnage des paramètres.

L'orateur discute des avantages de l'utilisation de nouvelles technologies comme Java et C# pour le trading quantitatif. Ils mentionnent que ces langages éliminent le besoin de débogage pour des problèmes tels que les fuites de mémoire et les défauts de segmentation, ce qui améliore la productivité. Ils font la démonstration de la programmation Java et proposent des séances de laboratoire pratiques aux participants.

L'orateur explique comment corriger l'entrée d'un programme Java en corrigeant les importations et démontre la programmation mathématique à l'aide de la bibliothèque algo quant. Ils guident les participants en copiant et en collant le code du site Web sur leurs ordinateurs pour l'exécution.

L'orateur répond aux questions techniques du public concernant le téléchargement et l'exécution du code utilisé dans la conférence. Ils démontrent la version classique d'une chaîne de Markov cachée en utilisant la fonction webinaire.

L'orateur explique le concept d'une chaîne de Markov et démontre un modèle simple à deux états avec des probabilités de transition. Ils expliquent comment les chaînes de Markov sont utilisées comme générateurs de nombres aléatoires pour simuler des observations et estimer les paramètres du modèle. Ils encouragent le public à expérimenter la création de leurs propres modèles de chaînes de Markov.

L'orateur discute de l'importance de la communication et de la collaboration dans le trading quantitatif et encourage les membres de l'équipe à se consulter et à fournir des mises à jour sur leurs progrès. Ils mentionnent la possibilité d'utiliser des modèles de Markov d'ordre supérieur et invitent les questions et le partage d'écran lors des discussions en direct.

Le conférencier discute des défis de l'estimation des paramètres dans les modèles de trading quantitatifs avec des observations limitées. Ils expliquent que davantage de données sont nécessaires pour une estimation précise et recommandent d'utiliser des modèles d'état plus grands ou d'augmenter le nombre d'observations. Ils discutent de l'algorithme de Baum-Welch pour la formation de modèles de Markov cachés et introduisent le concept de backtesting.

L'orateur démontre une stratégie de croisement de moyenne mobile simple dans AlgoQuant et explique le processus de création de stratégies, de simulateurs et d'exécution de simulations. Ils soulignent l'importance des tests et de l'analyse des performances à l'aide de mesures telles que les profits et pertes, le ratio d'information, le prélèvement maximal, etc.

Le conférencier explique explorer différentes stratégies de trading et tester leurs performances par simulation. Le conférencier explique que la simulation permet aux traders d'évaluer la rentabilité potentielle et les risques associés à une stratégie avant de la déployer dans le trading en direct. En simulant différentes conditions et scénarios de marché, les traders peuvent avoir un aperçu des performances de la stratégie et prendre des décisions éclairées.

L'orateur insiste également sur l'importance des coûts de transaction dans les stratégies de trading. Les coûts de transaction, tels que les frais de courtage et les dérapages, peuvent avoir un impact substantiel sur la rentabilité globale d'une stratégie. Il est donc crucial de prendre en compte les coûts de transaction lors de la simulation et du backtesting pour obtenir une évaluation réaliste de la performance d'une stratégie.

En outre, le conférencier introduit le concept de gestion des risques dans le trading quantitatif. Ils expliquent que la gestion des risques implique la mise en œuvre de stratégies pour contrôler et atténuer les pertes potentielles. Les techniques de gestion des risques peuvent inclure la définition d'ordres stop-loss, le dimensionnement des positions et la diversification. Il est essentiel d'intégrer les principes de gestion des risques dans les stratégies de trading pour se prémunir contre des pertes financières importantes.

Le conférencier conclut en réitérant l'importance de l'apprentissage continu et de l'amélioration du trading quantitatif. Ils encouragent les participants à explorer différentes stratégies, à analyser leurs performances et à itérer en fonction des résultats. En tirant parti de la technologie, des compétences en programmation et d'une approche systématique du développement de stratégies, les traders peuvent améliorer leur rentabilité et leur succès sur les marchés financiers.

Dans l'ensemble, la conférence se concentre sur l'importance de la technologie, de la programmation, de la simulation et de la gestion des risques dans le trading quantitatif. Il met en évidence le besoin d'expérimentation, d'apprentissage continu et d'utilisation d'outils spécialisés pour développer et affiner les stratégies de trading.

Partie 1

  • 00:00:00 L'orateur commence par aborder les questions potentielles de la conférence précédente et où trouver les supports de cours. L'accent de cette conférence est mis sur l'importance de la technologie et de la programmation dans le trading quantitatif, car elles sont essentielles pour coopter les stratégies de trading quantitatif et effectuer des backtestings. L'orateur met l'accent sur l'importance des mathématiques et de la programmation informatique et procède à l'introduction de la programmation Java de base et de la programmation mathématique à l'aide de Java. La session pratique comprend des stratégies de cooptation pour le backtesting, et l'orateur demande si tout le monde a installé bin et algo quant sur son ordinateur et a réussi le test Maven. Traditionnellement, pour d'autres types de trading, tels que l'investissement dans la valeur ou le trading basé sur l'intuition, vous n'auriez pas besoin de beaucoup de programmation, mais c'est essentiel dans le trading quantitatif en raison de l'exigence de backtesting.

  • 00:05:00 L'orateur discute de l'importance de la programmation informatique dans le trading quantitatif, en particulier pour simuler et analyser les performances futures d'une stratégie. Ils mentionnent que le PNL historique n'est pas un indicateur fiable pour s'entraîner ou décider de changer ou non une stratégie. Au lieu de cela, ils suggèrent d'utiliser la simulation et l'étalonnage des paramètres, qui nécessitent une programmation lourde, pour trouver les paramètres optimaux et tester la sensibilité d'une stratégie à ceux-ci. Ils soulignent également l'importance d'utiliser le même logiciel pour la recherche et le trading en direct afin d'éviter d'éventuelles erreurs de traduction. En fin de compte, le conférencier souligne que les compétences en programmation informatique sont essentielles dans le secteur du trading financier et peuvent avoir un impact considérable sur les bénéfices.

  • 00:10:00 Le conférencier discute des responsabilités idéales d'un trader quant, qui impliquent de proposer des idées de trading et de les prototyper rapidement, tout en laissant les tâches mécaniques, telles que le test informatique, les propriétés PNL et l'étalonnage des paramètres, à un système informatique . Idéalement, un trader ne passerait qu'environ 10 % de son temps à coder ses stratégies et s'appuierait sur des blocs de construction ou des modèles afin de prototyper des stratégies rapidement et efficacement, sans avoir à tout coder à partir de zéro. Le conférencier souligne l'importance de passer la plupart du temps à réfléchir et à proposer des idées d'échange, tout en minimisant le temps passé à tester et à programmer.

  • 00:15:00 L'orateur souligne l'importance d'avoir une boîte à outils de blocs de construction que les chercheurs peuvent utiliser pour prototyper rapidement de nouvelles stratégies. Il mentionne qu'Algocron propose différents blocs de construction tels que des indicateurs de marché baissier basés sur des probabilités conditionnelles et une co-intégration pour contrôler les paniers. Il insiste sur l'idée que la création de stratégies devrait être comme jouer avec des Legos, où les chercheurs peuvent assembler des blocs de construction pour construire une nouvelle stratégie. L'orateur explique que même s'ils passent la plupart de leur temps à trouver des idées, les commerçants doivent faire des backtests et nettoyer les données, ce qui peut être difficile. Ils doivent traiter de grandes quantités de données provenant de différentes sources et doivent extraire des informations utiles, telles que les ratios cours/bénéfice, tout en traitant des données manquantes ou erronées. Le processus nécessite une programmation importante, et si les stratégies sont axées sur les événements, les chercheurs peuvent avoir besoin d'une base de données de calendrier des nouvelles et des annonces.

  • 00:20:00 L'orateur discute des complications liées à la simulation d'une stratégie de trading avec un carnet d'ordres. L'un des problèmes est le glissement, ce qui signifie que ce n'est pas parce que quelqu'un veut acheter quelque chose à un certain prix qu'il peut réellement l'acheter à ce prix en raison de l'évolution du marché. Un autre problème concerne les hypothèses d'exécution dans la modélisation du carnet de commandes. Le processus de simulation est fastidieux et prend du temps, en particulier si vous utilisez des langages de script tels que MATLAB ou R. L'étalonnage et la simulation des paramètres peuvent prendre jusqu'à des centaines d'heures, et des bogues dans le code logiciel peuvent prolonger davantage le processus. Le processus de débogage du code est long et frustrant et peut conduire à abandonner le métier, non pas à cause d'un code incorrect mais à cause du manque de temps ou de la frustration.

  • 00:25:00 L'orateur évoque la réalité du trading quantitatif et les outils que les traders utilisent. Ils expliquent que de nombreux commerçants de pièces sont des analystes quantitatifs qui passent près de 90% de leur temps à programmer et à déboguer, ce qui n'est pas ce que le travail est censé être. La raison en est que les outils de recherche utilisés par les commerçants sont primitifs, et les plus populaires incluent Excel, MATLAB, R et les logiciels commerciaux. Cependant, l'orateur soutient que ces outils ne sont pas conçus pour le trading quantitatif et qu'ils ne sont pas utiles pour élaborer des stratégies mathématiques sophistiquées. Ils suggèrent que d'autres langages de programmation comme Java, C-sharp et C++ disposent de bibliothèques pour assembler et construire des stratégies de changement que les traders peuvent utiliser à la place.

  • 00:30:00 L'orateur discute des inconvénients de l'utilisation de R pour le trading quantitatif. L'un des principaux problèmes est que R est très lent car il s'agit d'un langage interprété, ce qui signifie que l'interpréteur s'exécute ligne par ligne. De plus, la quantité de mémoire disponible est limitée, ce qui rend impossible le chargement d'une quantité importante de données dans la mémoire pour analyse. De plus, la possibilité de parallélisation est très limitée, ce qui rend difficile l'exécution de simulations sur des milliers de processeurs. L'orateur mentionne que l'utilisation de R pour le calcul parallèle est difficile et que son IDE n'est pas aussi avancé que d'autres langages comme Java et C-sharp. Il n'y a pas non plus d'outils de débogage disponibles, ce qui rend difficile l'identification des problèmes, et il n'y a pas d'interface standard pour la communication entre les différents programmes.

  • 00:35:00 L'orateur discute des avantages et des inconvénients de l'utilisation de R comme outil de stratégie de trading quantitatif. Il souligne que R a un support de programmation orienté objet limité et que la plupart du code est écrit en utilisant un langage procédural, mais il présente des avantages significatifs par rapport aux langages à usage général. Le plus grand défi avec R est qu'il n'y a aucun moyen de s'assurer que le code source est sans erreur, et cela peut être frustrant lors du débogage du code. L'orateur insiste sur l'importance de la technologie, expliquant que s'appuyer sur l'armement (outils et recherche) est crucial dans la guerre commerciale. Une personne intelligente sans technologie ne peut pas s'attendre à rivaliser avec quelqu'un qui utilise la technologie, comme l'informatique parallèle et l'apprentissage automatique, pour rechercher des stratégies de trading rentables.

  • 00:40:00 L'orateur discute de l'importance de la technologie dans le trading quantitatif. L'utilisation d'outils tels que R et MATLAB peut améliorer considérablement la programmation mathématique et donner accès à un large éventail de bibliothèques permettant des calculs mathématiques plus rapides. Avoir une bonne boîte à outils de recherche commerciale est essentiel pour construire et tester rapidement des stratégies afin de saisir les opportunités du marché. La boîte à outils idéale devrait permettre aux traders de combiner facilement des modules, d'effectuer une programmation parallèle et de générer des statistiques de performances sans avoir à passer beaucoup de temps à programmer. Le nettoyage des données doit également être automatisé et l'étalonnage des paramètres doit être effectué automatiquement. L'accent devrait être mis sur le codage des stratégies plutôt que sur le temps consacré aux tâches de programmation mécanique.

  • 00:45:00 L'importance d'utiliser un bon outil de programmation est discutée. L'orateur mentionne que l'utilisation de technologies plus récentes telles que Java et C # élimine le besoin de débogage pour des problèmes tels que les fuites de mémoire et les défauts de segmentation, ce qui accélère considérablement la productivité. De plus, la classe commence une session de laboratoire pratique où ils explorent une expérience de modèle de Markov, et l'orateur guide les participants à travers le processus de copier et coller le code du site Web vers leurs corbeilles pour la course. La classe comprend des participants ayant une expérience en programmation, ils ignorent donc les bases de la programmation Java.

  • 00:50:00 L'orateur explique comment corriger l'entrée d'un programme Java en corrigeant les importations à l'aide de la commande ctrl shift i. Il poursuit ensuite en démontrant comment la programmation mathématique peut être effectuée en Java à l'aide de la bibliothèque algo quant et montre un modèle de chaîne de markov simple qui peut être exécuté dans un nouveau package et une nouvelle classe. L'orateur encourage les participants à poser des questions et s'assure que tout le monde est en mesure de suivre la démonstration.

  • 00:55:00 L'orateur répond à quelques questions techniques du public sur la façon de télécharger et d'exécuter le code utilisé dans la conférence. Il procède à la démonstration de la version classique de la chaîne de Markov cachée à l'aide de la fonction webinaire, pour laquelle il ne conserve que pi a1 et b1, et supprime l'autre code.

Partie 2

  • 01:00:00 L'orateur explique le modèle à deux états avec probabilités de transition, qui est un exemple simple de chaîne de Markov. Il illustre les probabilités de transition dans un diagramme visuel et explique la probabilité d'observer certaines valeurs à chaque état. L'orateur explique ensuite comment une chaîne de Markov est essentiellement un générateur de nombres aléatoires et montre comment simuler cette chaîne de Markov particulière pour générer des observations.

  • 01:05:00 L'orateur explique le concept d'une chaîne de Markov et comment elle est utilisée comme générateur de nombres aléatoires pour générer des observations sur les cours des actions. Les probabilités d'état initial et les probabilités de transition d'une chaîne de Markov à deux états sont données à titre d'exemple, mais dans des situations réelles, ces paramètres doivent être estimés sur la base d'observations. L'orateur montre comment estimer ces paramètres à l'aide de l'algorithme de chaîne de Markov caché des modèles de webinaire pour l'estimation des paramètres. Le modèle estimé peut ensuite être comparé au modèle réel pour plus de précision.

  • 01:10:00 L'orateur discute de l'importance de l'estimation des paramètres dans le trading quantitatif. Il note qu'en réalité, seuls les prix ou les rendements sont observés et que le véritable modèle est inconnu, la meilleure option consiste donc à estimer les paramètres du modèle. Il mentionne un bon algorithme pour estimer les paramètres, l'algorithme du webinaire, qui correspond étroitement aux modèles réels, et est utile pour le trading. L'orateur encourage le public à expérimenter la création de leurs propres modèles de chaîne de Markov en modifiant les paramètres, en générant différentes observations et en effectuant diverses estimations pour comprendre comment ils correspondent aux vraies valeurs dans différentes conditions.

  • 01:15:00 L'orateur discute d'une prochaine discussion en direct sur la modélisation et la programmation de Markov, invitant les questions et le partage d'écran pendant la discussion. La tâche à accomplir consiste à générer différentes observations à l'aide d'un modèle de Markov personnel et à estimer différents paramètres pour vérifier si le modèle estimé correspond au modèle réel. L'objectif est de déterminer la qualité du modèle de marché, car les commerçants s'y fient en fin de compte. L'orateur encourage l'ajout de valeurs extrêmes et de scénarios de stress pour voir comment la chaîne de Markov se comporte.

  • 01:35:00 L'instructeur et les étudiants du cours discutent des détails techniques liés aux licences et aux expériences. L'instructeur conseille à un étudiant de remplacer sa licence à long terme par une licence nouvellement téléchargée et suggère d'expérimenter différents paramètres pour déterminer le point auquel les modèles estimés sont utiles à des fins de formation au trading quantitatif. D'autres étudiants signalent des problèmes avec les expériences et les licences, qui sont traités en détail.

  • 01:40:00 L'orateur encourage le public à créer sa propre chaîne de Markov et à expérimenter les probabilités de transition. Ils suggèrent d'utiliser un modèle à deux états pour un modèle à trois états et d'utiliser la créativité et l'imagination pour créer des probabilités de transition inhabituelles telles que zéro ou un "état de synchronisation" où l'on ne peut pas faire la transition une fois entré. L'orateur souligne l'importance de la créativité et de l'imagination dans le commerce quantitatif et suggère de les utiliser pour voir comment la procédure d'estimation se comporte avec des chaînes de Markov à changement de phase unique.

  • 01:45:00 L'orateur discute de l'importance de la communication et de la collaboration dans le trading quantitatif, en particulier lors de la réalisation d'expériences et de l'analyse de données. Ils soulignent la nécessité pour les membres de l'équipe de se vérifier constamment les uns les autres et de fournir des mises à jour sur leurs progrès, notant que les individus peuvent avoir des approches ou des idées différentes pour le même problème. L'orateur mentionne également la possibilité d'utiliser des modèles de Markov d'ordre supérieur dans leurs expériences et demande si quelqu'un a exploré cette option.

  • 01:50:00 Le conférencier discute de l'importance de générer des cas de test pour vérifier si le modèle estimé correspond au modèle réel. Le modèle réel est celui qui est utilisé pour générer les observations tandis que le modèle estimé est créé à partir des observations. L'expérience vise à déterminer si le modèle estimé est suffisamment proche du modèle réel. Le conférencier suggère de générer différents cas de test pour voir comment l'estimation fonctionne et met en évidence l'importance de tester avec un plus petit nombre d'observations.

  • 01:55:00 L'orateur discute des défis liés à l'estimation précise des modèles de trading quantitatifs avec des observations limitées. Il est à noter qu'en statistique, les algorithmes sont centrés sur la convergence, ce qui signifie que l'estimation devient plus précise à mesure que le nombre d'observations augmente. Cependant, le conférencier souligne qu'il est difficile de déterminer à quel point un modèle est proche de la réalité puisque vous n'avez que le modèle estimé et non les vraies valeurs. De plus, le concept de calcul de la probabilité de générer des valeurs observées avec un modèle donné est introduit, ce qui est un aspect crucial de l'estimation du maximum de vraisemblance.

Partie 3

  • 02:00:00 Le conférencier discute des défis de l'estimation des probabilités dans un modèle à deux états avec des données limitées. L'estimation des probabilités de transition est inexacte lorsqu'il n'y a que 100 observations. Cependant, avec 10 000 observations, la précision augmente, mais le problème demeure car la plupart des actifs ne durent pas 40 ans, ce qui correspond à la quantité de données dont vous auriez besoin pour autant d'observations. Le modèle à deux états comporte 12 paramètres et, à mesure que le nombre de paramètres augmente, davantage de données sont nécessaires pour une estimation précise. Par conséquent, il est essentiel de disposer d'une grande quantité de données pour estimer les probabilités avec précision, ce qui n'est pas pratique dans le commerce, en particulier lors de la construction de modèles complexes. L'enseignant recommande de construire des modèles à 3 ou 4 états ou d'augmenter le nombre d'observations pour surmonter ce défi.

  • 02:05:00 L'orateur discute de la difficulté d'estimer les modèles de chaîne de Markov dans le commerce quantitatif. L'augmentation du nombre de variables rend le processus d'estimation encore plus difficile, et l'utilisation d'une famille paramétrique de distributions au lieu de spécifier des opérations comme celle-ci peut réduire considérablement le nombre de paramètres. Cependant, l'algorithme de Baum-Welch, qui est utilisé pour former un modèle de Markov caché continu (HMM), peut être difficile. L'orateur passe ensuite à la discussion de l'expérience suivante : le backtesting.

  • 02:10:00 La démo présentée simule un simple croisement de moyenne mobile sur le stock XOM, et le programme est configuré pour télécharger des données sur le stock de Yahoo et simuler le trading de 1990 à 2012. La structure de la configuration du La source de données est expliquée, le plug-in de source de données Yahoo étant le plus simple et le plus simple à utiliser pour ceux qui n'ont pas accès à des sources de données professionnelles. Cette démo fournit un exemple utile de la façon de programmer et de tester des stratégies de trading.

  • 02:15:00 L'orateur explique le processus de création de stratégies, de simulateurs et de tous les livres nécessaires pour exécuter une simulation. L'exemple donné est une stratégie de croisement de moyenne mobile qui consiste à calculer la moyenne mobile la plus rapide en utilisant les 20 derniers jours de données et la moyenne mobile la plus lente en utilisant les 250 derniers jours de données. L'orateur note que l'on peut examiner le code source pour la mise en œuvre de la stratégie, du simulateur et des traceurs commerciaux dans AlgoQuant, qui est un logiciel open source. De plus, l'orateur explique que l'accessibilité ouverte du logiciel permet aux utilisateurs de vérifier indépendamment son code et d'apporter des modifications pour la personnalisation. Enfin, l'orateur explique qu'il existe diverses mesures qui peuvent être utilisées pour l'analyse des performances, notamment les profits et pertes, le ratio d'information, le ratio de Sharpe, la baisse maximale, l'exposition de masse et l'oméga.

  • 02:20:00 L'orateur montre comment utiliser différents analyseurs de performance dans Lwan pour calculer différentes mesures, telles que le drawdown, et générer un rapport sur les performances de la stratégie. Le code écoute les événements qui l'intéressent, tels que les mises à jour de prix, et génère de nouvelles commandes en fonction des dernières informations. L'orateur suggère d'utiliser le débogueur pour mieux comprendre le comportement du code et voir comment il répond aux mises à jour de prix et génère des commandes.

  • 02:25:00 L'orateur montre comment utiliser un débogueur pour surveiller une stratégie de trading et surveiller les croisements comme signaux. Il explique comment placer un point d'arrêt et s'arrêter lorsqu'un signal de croisement réel se produit, montrant un exemple où la moyenne mobile la plus rapide passe au-dessus de la moyenne mobile la plus lente. La stratégie prend alors une position longue, en achetant une unité du produit XOM au prix du marché. Plus tard, lorsque la moyenne mobile la plus rapide passe en dessous de la moyenne mobile la plus lente, la stratégie prend une position courte, vendant deux unités de XOM au prix du marché. L'orateur montre un graphique de l'ordre d'achat et explique la différence entre l'achat au marché et le placement d'un ordre à cours limité déclenché par un prix souhaité.

  • 02:30:00 L'orateur passe en revue une simulation d'une stratégie de croisement de moyenne mobile simple dans AlgoQuant. Ils montrent comment utiliser les données historiques pour générer des signaux d'achat et de vente et calculer des ordres pour maintenir une position souhaitée. La stratégie écoute les signaux de mise à jour du développeur et s'abonne au signal du carnet de commandes pour cette tâche. L'orateur note que même si les tests historiques ne sont pas suffisants, c'est un bon point de départ, et le simple croisement de la moyenne mobile peut être généralisé à d'autres scénarios. Ils mentionnent également qu'une stratégie n'est qu'une fonction et montrent les calculs pour calculer l'ordre.

  • 02:35:00 L'orateur discute de l'importance de la simulation et de l'expérimentation lors de la tentative de création d'une stratégie de trading à l'aide d'une analyse mathématique. Il démontre l'utilisation d'une stratégie GMA21, qui a déjà été prouvée mathématiquement, mais qui produit des résultats défavorables lorsqu'elle est testée par simulation en raison des coûts de transaction. L'orateur souligne l'importance des logiciels et de la programmation pour expérimenter et affiner les stratégies de trading afin d'éviter les pertes dans les scénarios de trading du monde réel, soulignant que différents paramètres peuvent être testés pour différentes actions afin de trouver la stratégie la plus efficace.

  • 02:40:00 Le conférencier discute de l'importance de l'expérimentation pour confirmer les prédictions théoriques dans le trading quantitatif. Les étudiants sont encouragés à utiliser le logiciel fourni pour expérimenter différents nombres et créer leurs propres stratégies de trading. Le conférencier guide les étudiants dans la mise en œuvre d'une stratégie gma21, qui achète lorsque le prix actuel est supérieur au dernier prix et vend lorsque le prix actuel est inférieur au dernier prix, illustrant comment calculer les ordres et les envoyer aux courtiers pour exécution. Les élèves sont ensuite chargés de créer leurs propres stratégies et de les expérimenter sur des données historiques.

  • 02:45:00 L'orateur présente la stratégie de trading la plus simple pouvant être facilement mise en œuvre, ce qui en fait une solution plug-and-play. L'orateur invite l'auditoire à poser des questions et l'encourage à le contacter s'il a besoin d'éclaircissements supplémentaires.

  • 02:55:00 L'orateur discute d'un cas particulier de la moyenne mobile géométrique, c'est-à-dire lorsque M est égal à un. Ce cas simplifie la stratégie pour comparer uniquement les rendements actuels avec zéro, et bien que cette stratégie ne rapporte pas nécessairement de l'argent, elle sert de bon exemple à des fins éducatives. L'orateur encourage le public à terminer l'exercice de cette stratégie hors ligne afin qu'il puisse se sentir à l'aise avec le codage et les tests à l'aide du système algocoin pour les exercices à venir sur les mathématiques et la programmation.
Introduction to Quantitative Trading - Lecture 2/8
Introduction to Quantitative Trading - Lecture 2/8
  • 2013.10.03
  • www.youtube.com
http://en.cqi.sg/introduction-to-quantitative-investment-201310/This course introduces students to quantitative trading. A "quant" portfolio manager or a tra...
 

Utilisation de R dans le trading en temps réel sur les marchés financiers



Utilisation de R dans le trading en temps réel sur les marchés financiers

Dans cette vidéo informative, le présentateur se penche sur l'application pratique de l'utilisation du langage de programmation R dans le trading en temps réel sur les marchés financiers, en se concentrant spécifiquement sur le trading de devises étrangères. Ils commencent par discuter de l'attrait des devises commerciales, soulignant leur gérabilité et la domination de quelques paires clés dans le commerce mondial des devises. Il est souligné que la négociation de devises étrangères a lieu sur le marché de gré à gré, par opposition aux bourses réglementées. Le présentateur reconnaît les défis d'identifier les anomalies dans les mouvements de devises en raison de la liquidité et du caractère aléatoire du marché.

Le concept de négociation de gré à gré est expliqué, notant qu'il diffère des autres types de négociation car il donne la priorité à des facteurs tels que la contrepartie et le prix coté sur l'exécution et la latence. La vidéo couvre ensuite la terminologie standard du marché financier, y compris l'utilisation de bougies pour visualiser les données et la distinction entre le trading long (acheter bas et vendre haut) et le trading short (vendre des actions empruntées à un prix plus élevé et les racheter à un prix inférieur pour le profit ).

Pour démontrer l'analyse en temps réel des transactions sur les marchés financiers à l'aide de R, le présentateur passe en revue deux exemples. Le premier exemple se concentre sur le test de la probabilité de la direction de la bougie suivante en fonction de bougies haussières ou baissières consécutives. Cette hypothèse est examinée à l'aide de la connaissance des modèles de bougies et de leur impact potentiel sur les tendances du marché.

La vidéo explore plus en détail la méthodologie de test des hypothèses dans le trading en temps réel sur les marchés financiers à l'aide de R. Un exemple est présenté dans lequel les données sont prétraitées et un tableau de bougies consécutives est créé pour évaluer la probabilité d'un changement de direction des bougies. Les frais de négociation sont fixés à zéro initialement, et un solde de profit est établi et testé à une date modèle. Cependant, l'importance de tester rigoureusement les entrées et les sorties dans un environnement commercial est soulignée, car fixer les coûts de transaction à deux points entraîne une perte d'argent et la neutralité du marché.

Des considérations telles que le glissement et les coûts de négociation sont abordées, l'orateur soulignant la nécessité de tenir compte de ces facteurs et suggérant l'incorporation d'une marge d'erreur. Un exemple plus complexe impliquant la nature cyclique de l'eurodollar est présenté, en mettant l'accent sur la mesure de la cyclicité basée sur les points de retournement et le mouvement des prix. L'orateur souligne l'importance de maintenir un axe des x uniforme dans l'analyse des marchés financiers pour éviter de fausser les mouvements du marché pendant les week-ends.

La vidéo se penche sur une stratégie de trading de retour à la moyenne, qui consiste à identifier les cas où un marché a connu un mouvement à la hausse rapide et à anticiper un renversement de tendance à court terme. La distribution des prix et les mouvements des bougies sont analysés pour déterminer les paramètres appropriés pour la mise en œuvre de cette stratégie. Les tests sont effectués avec des frais de négociation nuls au départ, suivis d'un petit coût de négociation de 2 pubs. Les résultats sont prudemment optimistes, mais l'orateur reconnaît la présence de problèmes statistiques potentiels qui nécessitent une enquête plus approfondie et des tests de marché réels.

L'analyse de régression est présentée comme une méthode de lissage des points de données, mais les défis de la prévision des tendances futures lorsque la ligne de régression change avec des données supplémentaires sont notés. Les tests de base en amont et en aval utilisant R sont discutés, soulignant les limites des tests avec un seul instrument et la nécessité d'une approche plus globale.

Le présentateur partage ensuite ses idées sur l'intégration du code R dans les environnements de trading en temps réel. Ils soulignent l'importance de recalculer fréquemment les valeurs de régression pour s'adapter aux changements du marché plutôt que de s'appuyer sur des modèles de surajustement pour un succès à long terme. Le code comprend des paramètres de prise de décision pour l'achat ou la vente en fonction des différences de bougies et des changements de prix, ainsi qu'une stratégie de sortie basée sur l'atteinte d'un certain seuil de profit. Le présentateur démontre le processus de backtesting et exprime sa confiance dans l'obtention de résultats positifs.

L'importance d'utiliser une courbe Mark-to-Market Equity plutôt qu'une courbe Trade Equity pour évaluer les systèmes de négociation est soulignée. Les limites de la courbe Trade Equity pour refléter la position de trésorerie d'un système pendant que les transactions sont actives sont discutées. Le présentateur présente deux graphiques comparant les deux types de courbes, révélant des périodes de défaillance du système et de rabattement important. La nécessité d'une stratégie stop-loss pour atténuer les pertes est soulignée, et le code nécessaire pour mettre en œuvre une telle stratégie est partagé. Le présentateur reconnaît qu'une faille dans la stratégie de sortie a conduit à conserver des positions trop longtemps, entraînant des pertes substantielles.

La vidéo se penche ensuite sur l'intégration du code R dans l'exécution d'algorithmes et l'utilisation d'un package Windows du côté de la modélisation. Le présentateur explique que leurs transactions en argent réel se déroulent sur des serveurs Linux, qui sont connectés de manière transparente à la plate-forme CIRA via un espace de mémoire partagé. Cette configuration permet l'échange de données, y compris FIX, transactions et bougies, entre leur système et la plate-forme. L'orateur révèle qu'ils gèrent le risque en négociant simultanément entre quatre et huit instruments différents. Cependant, ils mettent en garde contre le fait de se fier uniquement à la probabilité dans le commerce du monde réel, car cela pourrait faire manquer aux traders de précieuses opportunités tout au long de la journée.

En conclusion, cette vidéo fournit des informations précieuses sur la mise en œuvre pratique de R dans le trading en temps réel sur les marchés financiers, en se concentrant spécifiquement sur le trading de devises étrangères. Le présentateur couvre divers aspects, y compris le trading de gré à gré, la terminologie standard des marchés financiers, les hypothèses de test, les stratégies de trading de réversion moyenne, des considérations telles que le glissement et les coûts de trading, et l'intégration du code R dans les algorithmes d'exécution. Tout en soulignant les avantages potentiels du trading algorithmique, la vidéo reconnaît également la nécessité de tests rigoureux, d'un examen attentif des problèmes statistiques et de l'importance des stratégies de gestion des risques dans les scénarios de trading réels.

  • 00:00:00 Ellen explique comment elle utilise R dans le trading de devises étrangères. Elle explique pourquoi elle a choisi d'échanger des devises, déclarant qu'il s'agit d'instruments gérables à analyser, avec environ sept ou huit paires qui effectuent 97 à 98 % du commerce mondial des devises. Ellen note également que puisque les devises étrangères sont des instruments de gré à gré, elles ne peuvent pas être négociées en bourse. Elle reconnaît que trouver des anomalies dans les mouvements de devises peut être extrêmement difficile en raison de la liquidité et du caractère aléatoire du marché.

  • 00:05:00 L'orateur explique le concept de trading de gré à gré, soulignant qu'il s'agit d'un échange non réglementé, contrairement à d'autres types de trading. L'orateur explique que ce type de négociation met moins l'accent sur l'exécution et la latence et davantage sur d'autres facteurs tels que la contrepartie et le prix coté. L'orateur poursuit ensuite en expliquant une partie de la terminologie standard utilisée sur le marché financier, comme les bougies et la négociation longue par rapport à la négociation courte. Les bougies sont utilisées comme un outil pratique pour visualiser une gamme de données, tandis que le trading long consiste à acheter à bas prix et à vendre à prix élevé, et le trading à découvert consiste à vendre des actions empruntées à un prix plus élevé, puis à les racheter lorsque le prix baisse pour réaliser un profit.

  • 00: 10: 00 L'orateur discute du concept de trading à la hausse ou à la baisse sur le marché des changes, où les traders négocient toujours un instrument pour obtenir du xq. Il a également mentionné qu'il ne montrera pas aux téléspectateurs comment prévoir le marché ou fournir une sauce secrète, mais qu'il leur expliquera plutôt deux exemples du genre de choses que lui et son équipe analysent. Le premier exemple est une simple question de savoir quelle est la probabilité que la prochaine bougie soit à la hausse ou à la baisse lorsqu'il y a X bougies haussières ou baissières consécutives. L'orateur s'appuie sur la connaissance des bougies montantes et descendantes pour tester son hypothèse et évaluer s'il existe une dynamique sur le marché pour prédire les tendances du marché.

  • 00: 15: 00 L'orateur explique son approche pour tester des hypothèses dans le trading en temps réel sur les marchés financiers à l'aide de R. Il montre un exemple de prétraitement des données et de création d'un tableau de bougies consécutives, qui montre la probabilité d'un changement de direction de la bougie . L'orateur fixe ensuite ses frais de négociation à zéro et crée un solde de profit, qu'il teste à une date modèle. Cependant, ils notent que fixer les coûts de négociation à deux points conduit à perdre de l'argent et à être neutre par rapport au marché, ce qui rend important de tester rigoureusement les entrées et les sorties dans un environnement commercial.

  • 00: 20: 00 L'orateur discute de l'importance de tenir compte du dérapage du marché lors de la négociation et de la construction d'une marge d'erreur pour en tenir compte. Ils mentionnent également la différence de coûts de transaction en fonction du courtier et du volume de transactions. L'orateur passe ensuite à un exemple plus complexe de test de la nature cyclique de l'eurodollar et explique comment ils mesurent la cyclicité en fonction du temps entre les points de retournement et le mouvement des prix. Ils soulignent l'importance d'utiliser un axe des x uniforme dans l'analyse des marchés financiers pour éviter de fausser les mouvements du marché pendant les week-ends. L'orateur propose de partager le code et les données de cet exemple avec les téléspectateurs.

  • 00:25:00 L'orateur explique comment il normalise les séries de données sur les marchés financiers en ajoutant des numéros de ligne sur l'axe des x au lieu d'utiliser la date et l'heure. Il effectue ensuite une régression du noyau pour lisser la courbe et trouve les pics et les chutes à l'aide d'un code. Il teste la cyclicité des pics et les regroupe dans le quadrant inférieur pour montrer que les tournants significatifs de l'eurodollar se produisent dans les 30 heures. L'orateur discute de différentes façons de négocier, y compris la prévision du prochain tournant et en fait un problème légèrement plus difficile.

  • 00:30:00 L'orateur explique une stratégie de trading de retour à la moyenne, qui consiste à rechercher des opportunités là où un marché est monté trop loin et trop vite, conduisant à un renversement de tendance à court terme. L'orateur analyse la distribution des prix et des mouvements de bougies pour déterminer où tracer la ligne de cette stratégie, puis la teste en mettant en place des transactions à coût nul et plus tard avec un petit coût de négociation de 2 pubs. Les résultats sont prudemment optimistes et l'orateur suggère d'autres tests dans des conditions réelles de marché. Cependant, l'orateur note qu'il peut y avoir des problèmes statistiques avec cette stratégie qui nécessitent une enquête plus approfondie.

  • 00: 35: 00 L'orateur discute de l'utilisation de la régression pour lisser les points de données, mais prévient que la droite de régression change à l'envers à mesure que davantage de points de données sont ajoutés à la série, ce qui rend difficile la prévision des tendances futures. Il explique également que les tests en amont et en aval de base avec R sont limités à un instrument à la fois et ne sont pas idéaux pour plusieurs instruments ou paramètres financiers spécifiques au marché. Pour résoudre ce problème, il utilise une plateforme de trading qui lui permet de copier et coller son code R directement dans la plateforme et d'éviter de longs processus de codage et de débogage.

  • 00:40:00 L'orateur discute du code de base utilisé pour incorporer R dans les environnements de trading en temps réel. Ils mentionnent que le code est en grande partie un copier-coller du code qu'ils avaient dans leur studio R, en se concentrant sur le recalcul fréquent des valeurs de régression afin de s'adapter aux changements plutôt que de surajuster le modèle et de s'attendre à ce qu'il fonctionne à long terme. Le code comprend une décision d'achat ou de vente basée sur certains paramètres, tels que les différences de bougies et les changements de prix, et une stratégie pour quitter la position lorsque le profit atteint un certain montant. L'orateur montre ensuite comment il a exécuté un backtest avec le code et s'attend à de bons résultats.

  • 00: 45: 00 Le présentateur discute de l'importance d'utiliser une courbe d'équité Mark-to-Market plutôt qu'une courbe d'équité commerciale lors de l'évaluation des systèmes de négociation. Il explique qu'une courbe d'équité commerciale ne révèle pas la position de trésorerie d'un système pendant que le commerce est en cours, il est donc difficile de modéliser cela dans R. Il montre deux graphiques, l'un avec la courbe d'équité commerciale et l'autre avec le Mark- to-Market Equity, qui reflète la façon dont le système a faibli au cours de certaines périodes, entraînant une baisse importante. Il conclut que l'application d'une stratégie stop-loss aurait aidé à sortir des pertes à temps et montre le code qui permettrait d'effectuer ce changement. Le test final du modèle a échoué en raison d'une stratégie de sortie inadéquate qui a conduit à tenir trop longtemps, créant de lourdes pertes.

  • 00:50:00 L'orateur explique comment ils intègrent leur code dans l'exécution d'algorithmes et utilisent un package Windows du côté de la modélisation. Leur argent réel fonctionne sur des serveurs Linux et est inclus dans ce package. Ils utilisent un espace mémoire partagé entre leur système et la plateforme CIRA pour échanger des données. Ils peuvent prendre FIX et les transactions et les bougies et les transmettre à leur système pour analyse, diviser les résultats dans CIRA et prendre des décisions commerciales. Ils peuvent utiliser ce système pour gérer les risques en négociant entre quatre et huit instruments différents en même temps. Ils avertissent que même si la probabilité est importante, s'appuyer sur elle pour le trading dans le monde réel peut faire manquer aux traders des opportunités tout au long de la journée.
Using R in real time financial market trading
Using R in real time financial market trading
  • 2015.05.28
  • www.youtube.com
Autochartist CEO, Ilan Azbel explains how R can be used in real-time market analysis to build automated trading systems - recorded at a live presentation a t...
 

Introduction au trading quantitatif - Cours 1/8


Introduction au trading quantitatif - Cours 1/8

Ce cours complet sert d'introduction approfondie au monde fascinant du trading quantitatif, dotant les étudiants des connaissances et des compétences nécessaires pour exceller dans ce domaine dynamique. Le trading quantitatif s'articule autour de l'utilisation de modèles mathématiques et de programmes informatiques pour transformer les idées de trading en stratégies d'investissement rentables. Tout commence avec un gestionnaire de portefeuille ou un trader qui commence par une intuition initiale ou un vague concept de trading. Grâce à l'application de techniques mathématiques, ces intuitions sont transformées en modèles de trading mathématiques précis et robustes.

Le processus de trading quantitatif implique de soumettre ces modèles à une analyse rigoureuse, à des tests en amont et à un raffinement. Des tests statistiques et des simulations sont utilisés pour évaluer leurs performances et assurer leur fiabilité. Cette phase de test méticuleuse est cruciale pour identifier et corriger les défauts ou les faiblesses des modèles avant leur mise en œuvre.

Une fois qu'un modèle d'investissement quantitatif a prouvé sa rentabilité potentielle, il est implémenté sur un système informatique, permettant l'exécution automatisée des transactions. Cette intégration de modèles mathématiques dans les programmes informatiques est au cœur du trading quantitatif, alliant la puissance des mathématiques à l'efficacité de l'informatique. Tout au long du cours, les étudiants explorent diverses stratégies d'investissement tirées de la littérature académique populaire, obtiennent un aperçu de leurs principes mathématiques sous-jacents et apprennent à les traduire en modèles de trading exploitables.

Le programme de ce cours englobe un large éventail de sujets, dotant les étudiants des compétences quantitatives, informatiques et de programmation essentielles pour réussir dans le domaine du trading quantitatif. Les étudiants se plongent dans les subtilités de la modélisation mathématique, de l'analyse statistique et du trading algorithmique. Ils acquièrent également une maîtrise des langages de programmation couramment utilisés dans la finance quantitative, tels que Python et R, ce qui leur permet de mettre en œuvre et de tester efficacement leurs modèles de trading.

En suivant ce cours, les étudiants acquièrent non seulement une vue d'ensemble globale du paysage commercial quantitatif, mais développent également les compétences nécessaires pour y naviguer en toute confiance. Ils deviennent aptes à transformer des idées de trading en modèles mathématiques, à tester et à affiner rigoureusement ces modèles, et finalement à les mettre en œuvre dans des scénarios de trading réels. Grâce à leurs bases solides en techniques quantitatives et informatiques, les étudiants sont bien préparés à poursuivre des carrières dans le commerce quantitatif, le commerce algorithmique ou d'autres domaines connexes où la fusion des mathématiques et de la technologie est le moteur du succès.

Introduction to Quantitative Trading - Lecture 1/8
Introduction to Quantitative Trading - Lecture 1/8
  • 2013.10.01
  • www.youtube.com
http://en.cqi.sg/introduction-to-quantitative-investment-201310/This course introduces students to quantitative trading. A "quant" portfolio manager or a tra...
 

Terrain de jeu de l'ingénierie financière : traitement du signal, estimation robuste, Kalman, optimisation



Terrain de jeu de l'ingénierie financière : traitement du signal, estimation robuste, Kalman, optimisation

Dans cette vidéo captivante, Daniel Palomar, professeur au département de génie électrique, électronique et informatique de HKUST, met en lumière les applications étendues du traitement du signal dans le domaine de l'ingénierie financière. Palomar dissipe l'idée fausse entourant l'ingénierie financière et souligne l'omniprésence des techniques de traitement du signal dans ce domaine. Il souligne la pertinence de divers sujets tels que la théorie des matrices aléatoires, les filtres à particules, les filtres de Kalman, les algorithmes d'optimisation, l'apprentissage automatique, l'apprentissage en profondeur, l'optimisation stochastique et les contraintes aléatoires.

Palomar se penche sur les propriétés distinctives des données financières, connues sous le nom de faits stylisés, qui restent cohérentes sur les différents marchés. Il explique comment les ingénieurs financiers utilisent les rendements plutôt que les prix pour modéliser le marché boursier. Les rendements linéaires et logarithmiques, malgré leurs différences mineures, sont largement utilisés en raison de la faible ampleur des rendements. Ces rendements sont analysés pour déterminer leur stationnarité, la non-stationnarité étant une caractéristique importante des données financières. L'orateur aborde également d'autres faits stylisés tels que les distributions à queue lourde, l'asymétrie des rendements à basse fréquence et le phénomène de regroupement de la volatilité.

L'importance de la modélisation des rendements boursiers en finance est soulignée, avec un accent particulier sur la volatilité. Palomar établit des parallèles entre le signal de retour et un signal de parole, explorant les collaborations potentielles entre la modélisation financière et le traitement du signal de parole. Différents régimes de fréquence dans la modélisation, y compris la modélisation à haute fréquence, sont discutés, soulignant les défis posés par le besoin de données en temps réel et de puissantes ressources informatiques.

Les limites des modèles qui se concentrent uniquement sur la modélisation des rendements sans tenir compte de la covariance ou de la variance des rendements sont également examinées. L'orateur souligne l'importance de capturer les informations et la structure fournies par les modèles de covariance et de variance, ce qui peut permettre une prise de décision plus rentable. Palomar introduit le concept de modélisation de la variance et de la covariance des rendements à l'aide d'un résidu composé d'un terme aléatoire normalisé et d'un terme d'enveloppe capturant la covariance des résidus. Cependant, la modélisation d'un résidu multivarié avec une grande matrice de coefficients nécessite des modèles plus sophistiqués.

La vidéo explore les défis de l'estimation des paramètres face à des données limitées et une abondance de paramètres, ce qui peut conduire à un surajustement. Pour résoudre ce problème, la parcimonie de faible rang est introduite comme moyen d'analyser le modèle Vega et de formuler des contraintes. Palomar discute du concept de robustesse et de l'inadéquation de l'hypothèse d'une distribution gaussienne pour l'ingénierie financière en raison des queues lourdes et des régimes d'échantillons réduits. Il explique que les estimateurs d'échantillon traditionnels basés sur la distribution gaussienne donnent des résultats inférieurs à la normale, ce qui nécessite une reformulation sans de telles hypothèses. Des techniques telles que la démarque inconnue et la régularisation sont présentées comme des moyens efficaces de traiter les queues lourdes, avec leur mise en œuvre réussie dans les finances et les communications.

L'estimation robuste, un outil utilisé en finance pour améliorer la précision malgré les valeurs aberrantes, est explorée. L'orateur présente les distributions elliptiques pour modéliser les distributions à queue lourde et explique comment les poids peuvent être calculés pour chaque échantillon à l'aide d'une méthode itérative. L'estimateur de Tyler, qui normalise les échantillons et estime la fonction de densité de probabilité (PDF) de l'échantillon normalisé, est présenté comme un moyen de supprimer la forme de la queue. L'estimateur de Tyler, en combinaison avec des estimateurs robustes, améliore la précision de l'estimation de la matrice de covariance. L'inclusion de termes de régularisation et le développement d'algorithmes contribuent en outre à améliorer les observations et l'estimation des matrices de covariance.

Palomar se penche sur des concepts financiers tels que l'estimation de Wolfe, l'estimation de Tyler et la cointégration. Bien que l'estimation de Wolfe représente une amélioration significative, elle repose toujours sur l'hypothèse d'une distribution gaussienne. L'estimation de Tyler, une alternative intéressante, nécessite un nombre suffisant d'échantillons pour les modèles à dimensions multiples. La cointégration, un concept crucial en finance, suggère qu'il peut être plus facile de prédire le prix relatif de deux actions que de prédire les prix individuels, ouvrant ainsi des opportunités de trading par paires. La distinction entre corrélation et cointégration est explorée, la corrélation se concentrant sur les variations à court terme et la cointégration se rapportant au comportement à long terme.

La vidéo dévoile le concept d'une tendance commune et sa relation avec le spread trading. La tendance commune est décrite comme une marche aléatoire partagée par deux actions qui ont une composante commune. En soustrayant la tendance commune de l'écart entre les prix des actions, les commerçants obtiennent un résidu avec une moyenne nulle, qui sert d'indicateur fiable pour le retour à la moyenne. Cette propriété devient essentielle dans les stratégies de trading de spread. L'orateur explique qu'en fixant des seuils sur le spread, les commerçants peuvent identifier les situations sous-évaluées et capitaliser sur la reprise des prix, profitant ainsi de la différence de prix. L'estimation du paramètre gamma et l'identification des stocks co-intégrés sont des étapes essentielles de ce processus, qui peuvent être accomplies à l'aide de techniques telles que les moindres carrés.

L'orateur se penche sur le rôle du filtre de Kalman dans des scénarios où un changement de régime entraîne la perte de cointégration due à la variation du gamma. L'adaptabilité du filtre de Kalman à ces variations est mise en évidence par une comparaison avec les méthodes des moindres carrés et des moindres carrés glissants. Il est démontré que le filtre de Kalman surpasse les autres techniques, car il maintient un suivi constant autour de zéro, tandis que les moindres carrés présentent des fluctuations qui entraînent des pertes sur une période de temps. Ainsi, l'orateur recommande d'utiliser le filtre de Kalman pour une estimation robuste en ingénierie financière.

Une comparaison entre les performances des modèles des moindres carrés et du filtre de Kalman est présentée, confirmant l'efficacité de la méthode de Kalman en ingénierie financière. L'orateur se penche ensuite sur l'application de modèles de Markov cachés pour détecter les régimes de marché, permettant aux traders d'ajuster leurs stratégies d'investissement en fonction des conditions de marché en vigueur. L'optimisation de portefeuille est présentée comme un concept fondamental, impliquant la conception de portefeuilles qui équilibrent le rendement attendu et la variance du rendement du portefeuille. L'orateur établit des parallèles entre l'optimisation de portefeuille et les modèles de formation de faisceaux et de filtrage linéaire, car ils partagent des modèles de signaux similaires.

La vidéo explique comment les techniques de communication et de traitement du signal peuvent être appliquées à la finance. Le concept de rapport signal sur bruit en communication est comparé au ratio de Sharpe en finance, qui mesure le rapport rendement du portefeuille sur volatilité. L'orateur présente le portefeuille Markowitz, qui cherche à maximiser le rendement attendu tout en minimisant la variance. Cependant, en raison de sa sensibilité aux erreurs d'estimation et de sa dépendance à l'égard de la variance comme mesure du risque, le portefeuille de Markowitz n'est pas largement utilisé dans la pratique. Pour résoudre ce problème, des techniques de parcimonie issues du traitement du signal peuvent être utilisées, en particulier dans le suivi des indices, où seul un sous-ensemble d'actions est utilisé pour suivre un indice, plutôt que d'investir dans toutes les actions constituantes. L'orateur propose des améliorations aux techniques de parcimonie pour réduire les erreurs de suivi.

La vidéo se penche sur le concept de "bourse" et met en évidence le rôle des portefeuilles dans le trading. En utilisant le modèle de valeur à risque (VaR), le conférencier explique comment le trading de portefeuille peut être réalisé en construisant un portefeuille de deux actions avec des pondérations spécifiques. La matrice PI et la matrice bêta sont présentées comme des outils qui fournissent un sous-espace de spreads de retour à la moyenne, permettant un arbitrage statistique. L'incorporation de la matrice bêta dans l'optimisation facilite l'identification de la direction optimale dans le sous-espace, ce qui donne des résultats supérieurs par rapport à l'utilisation de bêta seul. L'orateur mentionne également son livre, "A Signal Processing Perspective on Financial Engineering", qui sert de point d'entrée pour les professionnels du traitement du signal intéressés par le domaine de la finance.

Vers la fin de la vidéo, différentes approches du trading en ingénierie financière sont explorées. L'intervenant fait la distinction entre les stratégies qui capitalisent sur de petites variations et tendances et celles qui se concentrent sur l'exploitation du bruit. Ces deux familles de stratégies d'investissement offrent des avenues distinctes pour générer des profits. L'orateur aborde également les défis posés par le manque de données pour appliquer les techniques d'apprentissage en profondeur dans la finance, car l'apprentissage en profondeur nécessite généralement des quantités importantes de données, qui peuvent être limitées dans des contextes financiers. De plus, le concept d'estimation des dimensions vectorielles pour plus de deux stocks est discuté, l'orateur donnant un aperçu de diverses approches.

Dans le dernier segment, l'orateur aborde la question de la domination du marché par les grandes entreprises et son impact sur le marché financier. Le conférencier souligne l'influence potentielle que peuvent avoir les grandes entreprises disposant de ressources financières importantes lorsqu'elles réalisent des investissements importants. Cette concentration de pouvoir soulève des considérations importantes pour la dynamique du marché et le comportement des autres acteurs du marché.

La vidéo aborde brièvement le sujet de l'exécution des ordres en finance. Il explique que lorsqu'il s'agit de commandes importantes, il est courant de les diviser en plus petits morceaux et de les exécuter progressivement pour éviter de perturber le marché. Cet aspect de la finance implique des techniques d'optimisation complexes et s'inspire souvent des principes de la théorie du contrôle. L'orateur insiste sur la nature mathématique de l'exécution des ordres et mentionne l'existence de nombreux articles académiques sur le sujet.

À la fin de la vidéo, l'orateur invite le public à poser d'autres questions pendant la pause-café, en reconnaissant sa présence et sa participation. La vidéo est une ressource précieuse, fournissant des informations sur l'application du traitement du signal dans l'ingénierie financière. Il offre des perspectives sur l'amélioration des estimations, l'optimisation des portefeuilles et la détection des régimes de marché à travers le prisme des techniques de traitement du signal.

Dans l'ensemble, la vidéo donne un aperçu complet des différentes applications du traitement du signal dans l'ingénierie financière. Il souligne l'importance de la modélisation des rendements boursiers, de la variance et de la covariance en finance tout en relevant les défis de l'estimation des paramètres, du surajustement et des limites des modèles financiers traditionnels. Les concepts d'estimation robuste, de cointégration, d'optimisation de portefeuille et de techniques de parcimonie sont discutés en détail. En mettant en évidence les parallèles entre communication et traitement du signal en finance, le conférencier souligne la pertinence et le potentiel de collaboration entre ces deux domaines. La vidéo se termine en mettant en lumière les stratégies de trading, l'apprentissage automatique dans la finance et l'importance de la dynamique du marché influencée par les grandes entreprises.

  • 00:00:00 Daniel Palomar, professeur au département de génie électrique, électronique et informatique de HKUST, discute du sujet de l'ingénierie financière et de la façon dont il existe une idée fausse sur ce qu'elle est. Palomar explique que le traitement du signal est omniprésent dans l'ingénierie financière et que divers sujets tels que la théorie des matrices aléatoires, le filtre à particules, le filtre de Kalman, les algorithmes d'optimisation, l'apprentissage automatique, l'apprentissage en profondeur, l'optimisation stochastique et les contraintes aléatoires sont pertinents. Il aborde également des faits stylisés sur les données financières et explique que les données financières ont des propriétés spéciales qui sont cohérentes sur différents marchés.

  • 00:05:00 La vidéo explique comment les ingénieurs financiers modélisent le marché boursier en utilisant les rendements au lieu des prix. Il existe deux types de retours : les retours linéaires et logarithmiques, mais ils sont presque identiques puisque les retours sont généralement de petits nombres. Les rendements peuvent être tracés pour voir s'ils sont stationnaires ou non, et le fait stylisé de la finance est sa non-stationnarité. D'autres faits stylisés incluent les queues lourdes, ce qui signifie que les queues de l'histogramme historique des rendements sont lourdes, et non minces comme une distribution gaussienne. Les ingénieurs financiers doivent également modéliser l'asymétrie, en particulier dans les faibles fréquences de rendements. Enfin, la vidéo explique le concept de clustering de volatilité et son importance dans la modélisation financière.

  • 00:10:00 L'orateur discute de l'importance de la modélisation des rendements boursiers en finance. Ils expliquent que la volatilité joue un rôle crucial dans la modélisation, en particulier dans la modélisation de l'écart type, ou enveloppe, du signal de rendement. L'orateur note que le signal de retour ressemble à un signal vocal et se demande s'il existe suffisamment de chevauchement entre la modélisation financière et le traitement du signal vocal pour inspirer la collaboration. Différents régimes de fréquence existent dans la modélisation et la modélisation à haute fréquence, en particulier, nécessite des abonnements coûteux et des ordinateurs puissants en raison de la grande quantité de données critiques dans le temps. La section conclut en mentionnant différents modèles de modélisation financière, tels que le modèle IID et le modèle factoriel, et aborde l'importance de comprendre les corrélations dans le temps dans la modélisation.

  • 00:15:00 L'orateur discute des limites des modèles financiers qui se concentrent uniquement sur la modélisation des rendements et non sur la covariance ou la variance des rendements. Ils expliquent qu'en ne regardant que les rendements, vous risquez de perdre des informations et une structure que d'autres peuvent capturer pour gagner de l'argent. Le conférencier introduit ensuite l'idée de modéliser la variance et la covariance des rendements à l'aide d'un résidu composé de deux facteurs : un terme aléatoire normalisé de variance unitaire et un terme enveloppe qui capte la covariance des résidus. Ils notent que les modèles pour le résidu scalaire sont bien établis, mais la modélisation d'un résidu multivarié avec un coefficient de matrice de 500 par 500 nécessite des modèles beaucoup plus complexes.

  • 00:20:00 L'orateur explique les défis de l'estimation des paramètres avec pas assez de données et trop de paramètres, conduisant à un surajustement. Pour résoudre ce problème, il est nécessaire d'imposer une parcimonie de bas rang pour analyser le modèle Vega et formuler quelques contraintes. L'orateur introduit le concept de robustesse, où l'on considère que la distribution gaussienne n'est pas adéquate pour l'ingénierie financière à cause des queues lourdes et des petits régimes d'échantillons. Les estimateurs d'échantillon traditionnels basés sur la distribution gaussienne donnent des estimateurs peu performants. Pour résoudre ce problème, nous devons tout reformuler sans supposer une distribution gaussienne, et les queues lourdes peuvent être traitées par des méthodes de retrait ou de régularisation, qui ont été utilisées dans diverses industries, y compris la finance et les communications.

  • 00:25:00 L'orateur discute de l'estimation robuste, qui est un outil utilisé en finance pour faire des estimations plus précises malgré diverses valeurs aberrantes dans les données. L'orateur explique que les distributions elliptiques peuvent être utilisées pour modéliser des distributions à queue lourde et que les poids de chaque échantillon peuvent être calculés par une méthode itérative. De plus, l'orateur explique l'estimateur de Tyler, qui normalise les échantillons et estime la PDF de l'échantillon normalisé de sorte que la forme de la queue soit supprimée. Cet estimateur peut être utilisé avec des estimateurs robustes pour fournir une estimation plus précise des matrices de covariance. L'orateur explique ensuite comment des termes de régularisation peuvent être inclus et des algorithmes peuvent être développés pour obtenir une meilleure compréhension des observations, avec un graphique représenté pour montrer l'erreur d'estimation des matrices de covariance par rapport au nombre d'échantillons.

  • 00:30:00 L'orateur discute de concepts financiers tels que l'estimation de Wolfe, l'estimation de Tyler et la cointégration. L'estimation de Wolfe est une grande amélioration, mais fait toujours l'hypothèse d'une distribution gaussienne. L'estimation de Tyler est une bonne alternative mais nécessite au moins 40 échantillons pour un modèle à 14 dimensions. La cointégration, un concept spécifique en finance, est l'idée que le prix relatif de deux actions peut être plus facile à prévoir que les prix individuels, permettant aux traders de gagner de l'argent grâce au trading de paires. La différence entre corrélation et cointégration est que la corrélation concerne les variations à court terme, tandis que la cointégration concerne davantage le comportement à long terme. L'orateur illustre ces concepts avec divers tracés et graphiques.

  • 00:35:00 L'orateur explique le concept d'une tendance commune et son lien avec le spread trading. La tendance commune est une marche aléatoire que deux actions ayant une composante commune partagent. En soustrayant la tendance commune de l'écart entre les cours des actions, le trader se retrouve avec un résidu qui est une moyenne nulle, ce qui en fait un bon indicateur de retour à la moyenne, une propriété qui peut être utilisée pour le trading d'écart. Le trader fixe deux seuils sur le spread et achète lorsqu'il est sous-évalué et vend lorsqu'il se redresse, gagnant de l'argent sur la différence. Les moindres carrés peuvent être utilisés pour estimer le gamma, mais cela nécessite de trouver les deux stocks qui sont co-intégrés et la valeur de gamma. L'orateur montre un exemple d'un scénario de trading de spread réel.

  • 00:40:00 L'orateur explique comment Kalman intervient lorsqu'il y a un changement de régime et que la cointégration est perdue en raison du changement de gamma, et comment il s'adapte à ces variations. L'orateur utilise deux actions comme exemple pour comparer le suivi de l'UM et du gamma en utilisant les moindres carrés, Kalman et un roulement des moindres carrés, et conclut que Kalman fonctionne le mieux. La ligne verte pour le suivi de Kalman reste autour de zéro, tandis que la ligne noire pour les moindres carrés monte et descend, entraînant une perte d'argent pendant une période de deux ans. Par conséquent, l'orateur suggère d'utiliser Kalman pour une estimation robuste en ingénierie financière.

  • 00:45:00 L'orateur compare les performances des modèles de formation des moindres carrés et de Kalman et conclut que la méthode de Kalman fonctionne bien en ingénierie financière, tandis que le modèle des moindres carrés se rétrécit après un certain point. Il discute de l'utilisation de modèles de Markov cachés dans la détection des régimes de marché, ce qui aide à modifier les stratégies d'investissement selon que le marché est dans un bon ou mauvais état. De plus, il explore le concept d'optimisation de portefeuille et explique que les portefeuilles sont des vecteurs avec des pondérations qui indiquent aux investisseurs combien d'argent investir dans une action. Le rendement attendu et la variance du rendement du portefeuille sont également des facteurs clés utilisés pour concevoir les portefeuilles. L'orateur établit une comparaison avec les modèles de formation de faisceaux et de filtrage linéaire, qui utilisent des modèles de signaux similaires à l'optimisation de portefeuille.

  • 00:50:00 L'orateur explique comment les techniques de communication et de traitement du signal peuvent être appliquées à la finance. Le concept de rapport signal sur bruit dans les communications est similaire au ratio de Sharpe dans la finance, qui est un rapport entre le rendement du portefeuille et la volatilité. L'optimisation de portefeuille, en particulier le portefeuille de Markowitz, qui consiste à maximiser le rendement attendu et à minimiser la variance, est présentée comme un simple problème convexe. L'orateur note également que le portefeuille de Markowitz n'est pas souvent utilisé dans la pratique en raison de sa sensibilité aux erreurs d'estimation et de sa dépendance à la variance comme mesure du risque. Cependant, les techniques de parcimonie du traitement du signal peuvent être appliquées au suivi des indices, où au lieu d'acheter des centaines d'actions pour suivre un indice, seul un sous-ensemble d'actions est utilisé. Enfin, l'orateur propose une amélioration des techniques de parcimonie dans le suivi des erreurs.

  • 00:55:00 L'orateur discute du "bourse" et de l'utilisation de portefeuilles dans le trading. En utilisant le modèle VaR (value at risk), le conférencier explique comment le trading de portefeuille peut être fait avec deux actions et un portefeuille de deux composants avec un poids et moins gamma. L'orateur introduit ensuite la matrice PI et la matrice bêta, qui donnent un sous-espace de spreads de retour à la moyenne qui peuvent être utilisés pour l'arbitrage statistique. L'utilisation de la matrice bêta dans l'optimisation aide à trouver la meilleure direction dans le sous-espace et donne de meilleurs résultats que la simple utilisation de la bêta magique seule. L'orateur fait également la promotion de son livre, "A Signal Processing Perspective on Financial Engineering", qui est un point d'entrée pour les personnes en traitement du signal intéressées par le domaine de la finance.

  • 01:00:00 L'orateur discute des différentes approches du trading en ingénierie financière, y compris le trading sur le spread en utilisant la fin de la tendance des prix et de petites variations. Il explique qu'il existe deux familles de stratégies d'investissement : celles qui gagnent de l'argent en fonction de la tendance et des petites variations, et celles qui gagnent de l'argent avec le bruit, en ignorant la tendance lors de la formation d'un spread. L'intervenant évoque également le machine learning en finance et explique que le manque de données pose problème pour l'utilisation du deep learning en finance, le deep learning nécessitant une grande quantité de données, souvent limitée en finance. Enfin, il discute de la notion de cointégration et explique différentes approches d'estimation des dimensions vectorielles pour plus de deux actions.

  • 01:05:00 L'orateur aborde le problème des grandes entreprises qui ont trop d'argent, ce qui peut stimuler le marché lorsqu'elles investissent. Ils mentionnent également le sujet de l'exécution des ordres dans la finance, où les gros ordres sont coupés en petits morceaux et envoyés lentement pour éviter de perturber le marché. Cette branche de la finance implique beaucoup d'optimisation et peut devenir très mathématique, avec de nombreux articles sur le sujet en théorie du contrôle. L'orateur suggère de poser d'autres questions pendant la pause-café et remercie le public d'être venu.
Financial Engineering Playground: Signal Processing, Robust Estimation, Kalman, Optimization
Financial Engineering Playground: Signal Processing, Robust Estimation, Kalman, Optimization
  • 2019.10.31
  • www.youtube.com
Plenary Talk by Prof. Daniel P Palomar on "Financial Engineering Playground: Signal Processing, Robust Estimation, Kalman, HMM, Optimization, et Cetera"Plen...
 

"Kalman Filtering with Applications in Finance" par Shengjie Xiu, tutoriel de cours 2021



"Kalman Filtering with Applications in Finance" par Shengjie Xiu, tutoriel de cours 2021

Dans la vidéo intitulée "Kalman Filtering with Applications in Finance", le concept de modèles basés sur l'état et leur application en finance sont explorés. L'orateur présente le filtre de Kalman comme une technique polyvalente pour prédire l'état d'un système sur la base d'observations antérieures et corriger la prédiction à l'aide des observations actuelles. La vidéo couvre également le Common Smoother et l'algorithme EM, qui sont utilisés pour analyser les données historiques et apprendre les paramètres d'un modèle financier basé sur l'état.

La vidéo commence par illustrer le concept de modèles basés sur l'état en utilisant l'exemple d'une voiture roulant le long d'un axe avec des positions cachées. Le présentateur explique comment les modèles basés sur l'état consistent en des matrices de transition et d'observation qui cartographient l'état dans l'espace observé. Ces modèles peuvent gérer plusieurs états ou capteurs enregistrant des positions simultanément. L'état caché suit une propriété de Markov, conduisant à une forme élégante de probabilité.

L'orateur se penche ensuite sur l'algorithme du filtre de Kalman et son application en finance. L'algorithme implique des étapes de prédiction et de correction, où l'incertitude est représentée par la variance d'une fonction gaussienne. Le gain commun, qui détermine le poids entre la prédiction et l'observation, est mis en évidence comme un facteur crucial. La simplicité et l'efficacité de calcul du filtre de Kalman sont soulignées.

Une expérience comparant la fiabilité des données du GPS et de l'odomètre pour prédire l'emplacement d'une voiture est discutée, démontrant l'efficacité du filtre de Kalman même lorsque certaines sources de données ne sont pas fiables. Cependant, il est à noter que le filtre de Kalman est conçu pour des modèles stabilisés gaussiens linéaires, ce qui limite son applicabilité.

La vidéo présente également le Common Smoother, qui offre des performances plus fluides que le Common Filter et résout le problème de tendance à la baisse du filtre. La nécessité de former des paramètres en finance et le concept de paramètres variant dans le temps sont discutés. L'algorithme d'espérance-maximisation (EM) est présenté comme un moyen d'apprendre les paramètres lorsque les états cachés sont inconnus.

L'orateur explique l'algorithme EM, qui consiste en l'étape E et l'étape M, pour calculer les distributions postérieures des états latents et optimiser la fonction objectif pour l'estimation des paramètres. L'application du modèle basé sur l'État en finance, en particulier pour la décomposition du volume des échanges intrajournaliers, est mise en évidence.

Diverses variantes du filtre de Kalman, telles que le filtre de Kalman étendu et le filtre de Kalman non parfumé, sont mentionnées comme solutions pour gérer la fonctionnalité non linéaire et le bruit. Les filtres à particules sont introduits en tant que méthode de calcul pour les modèles complexes qui ne peuvent pas être résolus analytiquement.

La vidéo conclut en discutant des limites des solutions analytiques et de la nécessité de méthodes de calcul comme les méthodes de Monte Carlo. L'orateur reconnaît la nature exigeante de ces processus mais souligne les aspects fascinants du filtrage de Kalman.

Dans l'ensemble, la vidéo fournit une exploration approfondie des modèles basés sur l'état, du filtre de Kalman et de leurs applications en finance. Il couvre les concepts fondamentaux, les étapes algorithmiques et les considérations pratiques, tout en mentionnant également les variantes avancées et les méthodes de calcul. L'orateur souligne la pertinence et la puissance des modèles basés sur l'état pour révéler des informations cachées et met l'accent sur les progrès continus dans le domaine.

  • 00:00:00 Le présentateur vidéo présente le concept de modèles basés sur l'état à l'aide d'un exemple simple d'une voiture roulant le long d'un axe avec des positions cachées appelées "axe z". Les états cachés, notés "jt" au temps t, sont inconnus de l'observateur, tout comme en bourse où l'état du marché est caché. Le présentateur décrit deux modèles liés aux modèles basés sur l'état, le filtre commun et le lisseur commun, et comment apprendre automatiquement les paramètres dans le modèle basé sur l'état. Enfin, la vidéo aborde les applications des modèles basés sur l'État en finance. L'équation d'état et l'équation d'observation sont introduites, où l'état dépend uniquement du nœud précédent, et chaque observation repose sur des états cachés pertinents.

  • 00:05:00 L'orateur explique les modèles basés sur l'état et leur composition en matrices de transition et d'observation qui cartographient l'état dans l'espace observé, qui peut être différent. L'état et l'observation peuvent être des vecteurs avec plusieurs états ou des capteurs enregistrant la position simultanément, ce qui permet une forme plus générique. L'état caché suit une propriété de Markov, qui conduit à une forme élégante de probabilité. L'orateur clarifie les concepts de prédiction, de filtrage et de lissage et comment ils se combinent pour créer l'algorithme direct dans le filtre de Kalman. Le filtre de Kalman est composé de deux composants : la prédiction et la correction. Il a d'abord été conçu par Kalman et utilisé dans le projet Apollo pour suivre les engins spatiaux. Il est maintenant largement utilisé dans de nombreux domaines, y compris les prévisions de séries chronologiques en finance.

  • 00:10:00 L'algorithme de filtrage de Kalman est présenté et son application en finance est discutée. L'algorithme consiste à prédire l'état d'un système sur la base d'observations antérieures, puis à corriger la prédiction à l'aide des observations actuelles. L'incertitude dans la prédiction est représentée par la variance d'une fonction gaussienne, et la correction est effectuée en multipliant les distributions gaussiennes de prédiction et d'observation. L'importance du gain commun, qui détermine le poids entre la prédiction et l'observation, est soulignée. L'algorithme s'avère assez simple et n'implique que quelques lignes de code.

  • 00:15:00 Le conférencier discute d'une expérience dans laquelle la fiabilité du GPS et de l'odomètre ont été comparés dans une équation d'état. Les résultats ont montré que l'approche du filtre de Kalman réussissait à prédire l'emplacement d'une voiture, même lorsque le GPS n'était pas fiable pendant des sections spécifiques du trajet. Le conférencier a également discuté des avantages et des inconvénients du filtre de Kalman et a noté son efficacité de calcul et le fait qu'il est largement utilisé dans les applications en temps réel. Cependant, une de ses limites est qu'il est conçu pour des modèles stabilisés gaussiens linéaires. Le conférencier a également brièvement discuté du Common Smoother et de son utilisation dans l'analyse des données historiques.

  • 00:20:00 La performance du lisseur commun en finance est présentée à l'aide de l'exemple d'une voiture traversant un tunnel. Le lisseur commun fournit une performance beaucoup plus fluide que le filtre commun et résout le problème de tendance à la baisse du filtre, fournissant une meilleure approximation. Avant d'exécuter le lisseur commun, la fonction de filtre commun vers l'avant doit être implémentée. La section couvre également le concept de paramètres en finance, la nécessité de les former et comment ils peuvent varier dans le temps. La théorie de l'apprentissage est introduite, y compris l'estimation du maximum de vraisemblance et l'algorithme de maximisation des attentes pour trouver des paramètres lorsque les états cachés sont inconnus. L'algorithme EM se compose de deux étapes, l'étape d'attente et l'étape de maximisation, pour calculer les distributions postérieures des états latents et la valeur attendue de la conjecture.

  • 00: 25: 00 L'orateur discute de l'algorithme EM et de la manière dont il peut être utilisé pour apprendre les paramètres d'un modèle financier basé sur l'état. L'algorithme se compose de deux étapes : l'étape E, où la probabilité a posteriori est calculée à l'aide du filtre commun et du lisseur, et l'étape M, où la fonction objectif est maximisée pour trouver les nouveaux paramètres d'estimation. Les paramètres sont continuellement mis en boucle et optimisés jusqu'à ce qu'ils convergent. Le conférencier explique également comment ce modèle peut être appliqué à la finance, notamment en ce qui concerne la décomposition du volume des échanges intrajournaliers, où les composantes quotidiennes et périodiques sont séparées à l'aide du modèle. L'orateur note que la mise en œuvre du modèle est simple en utilisant des packages existants tels que les marques dans R.

  • 00: 30: 00 L'orateur discute du modèle d'état utilisé en finance, qui consiste en un état caché avec des composants à la fois quotidiens et périodiques, et un modèle d'observation qui combine les termes quotidiens et périodiques pour former le volume des transactions. Le modèle est analysé à l'aide d'un filtre de Kalman et d'un lisseur, et l'algorithme EM est utilisé pour apprendre les paramètres de manière efficace. Le modèle peut également être utilisé pour la prévision de séries chronologiques en prédisant le futur terme quotidien et en gardant le même terme saisonnier. Le modèle basé sur l'état est utile pour trouver des informations cachées et peut également être appliqué à d'autres applications financières.

  • 00:35:00 L'orateur discute de la puissance des modèles basés sur l'état et de la manière dont ils peuvent révéler des informations cachées dans les observations. Le filtre de Kalman est une technique polyvalente et utile qui peut être appliquée dans pratiquement tous les domaines, y compris la finance. Alors que le filtre de Kalman est conçu pour des cas plus simples, d'autres variantes peuvent être utilisées pour des modèles plus compliqués. Le filtre de Kalman étendu et le filtre de Kalman non parfumé sont deux exemples de variantes capables de gérer les fonctionnalités non linéaires et le bruit. De plus, les filtres à particules sont utilisés lorsque le modèle est trop compliqué pour les solutions analytiques. Alors que le filtre de Kalman a été développé dans les années 1960, il reste une solution optimale au modèle à états dans un cas très particulier, avec des fonctions de transition linéaires et un bruit gaussien.

  • 00: 40: 00 L'orateur discute des limites de la résolution analytique des intégrales et de la nécessité de méthodes de calcul lourdes comme les méthodes de Monte Carlo pour certaines tâches telles que le filtrage des particules. Il note que cela n'était pas possible dans le passé, mais qu'il l'est maintenant grâce à l'état actuel de la technologie. L'orateur mentionne également que bien qu'il s'agisse d'un processus exigeant, il s'agit d'un sujet fascinant, faisant référence au filtrage de Kalman.
"Kalman Filtering with Applications in Finance" by Shengjie Xiu, course tutorial 2021
"Kalman Filtering with Applications in Finance" by Shengjie Xiu, course tutorial 2021
  • 2021.05.20
  • www.youtube.com
"Kalman Filtering with Applications in Finance" by Shengjie Xiu, tutorial in course IEDA3180 - Data-Driven Portfolio Optimization, Spring 2020/21.This talk g...
 

"Thrifting Alpha : Utiliser Ensemble Learning pour revitaliser les facteurs Alpha fatigués" par Max Margenot


"Thrifting Alpha : Utiliser Ensemble Learning pour revitaliser les facteurs Alpha fatigués" par Max Margenot

Dans la vidéo intitulée "Thrifting Alpha : Utilisation de l'apprentissage d'ensemble pour améliorer les facteurs alpha", Max Margenot, spécialiste des données chez Quantopian, partage ses idées sur l'exploitation de l'apprentissage d'ensemble pour améliorer les performances des facteurs alpha. Margenot souligne l'importance de construire un portefeuille en combinant des signaux indépendants, ce qui se traduit par des résultats améliorés et nouveaux. Il introduit le concept de modélisation factorielle, aborde les complexités de l'évaluation des performances des modèles et explore l'utilisation créative de l'apprentissage d'ensemble pour une allocation d'actifs efficace.

Margenot commence par introduire le concept d'« épargne alpha », qui vise à revitaliser les facteurs alpha fatigués en utilisant l'apprentissage d'ensemble. Les facteurs alpha représentent des rendements uniques et intéressants en finance, les différenciant des facteurs de risque tels que les rendements du marché. L'objectif est de créer un portefeuille en combinant des signaux indépendants pour générer des résultats nouveaux et améliorés. Il donne également un bref aperçu du modèle d'évaluation des immobilisations et explique comment Quantopian sert de plate-forme gratuite pour la recherche quantitative.

La modélisation factorielle est au cœur de la présentation de Margenot. Il souligne comment les rendements d'un portefeuille se composent des rendements du marché et d'autres facteurs inexpliqués. En incorporant des facteurs classiques tels que petite-grande (petite capitalisation boursière vs grandes capitalisations boursières) et haut moins bas pour le ratio livre/prix, le modèle peut évaluer le risque de marché et étendre son analyse à d'autres flux de rendement. Les objectifs de la modélisation factorielle comprennent la diversification des signaux non corrélés, la réduction de la volatilité globale du portefeuille et l'augmentation des rendements.

Le conférencier discute de la popularité croissante de la modélisation factorielle dans les processus de construction de portefeuille, citant une enquête Blackrock qui indique que 87 % des investisseurs institutionnels intègrent des facteurs dans leurs stratégies d'investissement. Margenot décrit les cinq principaux types de facteurs autour desquels s'articulent les portefeuilles : la valeur, le momentum, la qualité, la volatilité et la croissance. Il explique également le concept de long/short equity, où les positions sont prises à la fois sur les positions longues et courtes sur la base des valeurs des facteurs. L'objectif est d'utiliser ces expositions pour créer un portefeuille bien équilibré.

Margenot plonge dans l'univers dans lequel l'algorithme est appliqué, soulignant l'importance d'aligner le modèle statistique avec l'exécution des transactions. Si les transactions ne peuvent pas être exécutées en raison de contraintes, telles que des limitations de vente à découvert, le mandat de la stratégie est violé. Margenot privilégie les stratégies neutres en dollars qui finissent par devenir neutres sur le marché. Il construit des portefeuilles où seules les valeurs les plus élevées et les plus basses comptent, visant à capturer les rendements attendus les plus élevés. La combinaison de plusieurs facteurs implique une composition d'un rang combiné, offrant une flexibilité au sein du portefeuille.

L'évaluation des performances des modèles et la gestion des rendements inexpliqués posent des défis, comme l'explique Margenot. Il discute de l'importance d'un univers fiable avec une liquidité suffisante et présente l'univers Q 1500, conçu pour filtrer les éléments indésirables. Au lieu de prédire les prix, Margenot souligne l'importance de comprendre quelles actions sont meilleures que d'autres et de saisir la valeur relative. Il démontre l'utilisation de l'API de pipeline dans leur cadre pour calculer l'élan, en fournissant des exemples de calculs vectoriels.

L'orateur se concentre sur la création d'un facteur dynamique qui considère à la fois les tendances à long terme et à court terme. Margenot normalise les rendements et pénalise l'aspect long terme pour faire face au risque de retournements à court terme. Il utilise un package appelé Alpha Ones pour évaluer le signal sur différentes échelles de temps et construit un portefeuille en utilisant le facteur momentum. Margenot souligne l'importance de déterminer une échelle de temps raisonnable et discute des facteurs avec lesquels il travaille. Il met en évidence le flux de travail consistant à définir un univers, les facteurs alpha et à combiner les alphas pour construire un portefeuille d'actions long/short.

Margenot discute de la combinaison de différents facteurs alpha et de la construction de leur portefeuille, soulignant que la combinaison de signaux indépendants devrait idéalement se traduire par un signal global plus fort. Il présente des méthodes d'agrégation dynamiques et statiques pour combiner des facteurs et construire un portefeuille. L'agrégation statique implique un portefeuille équipondéré de différents facteurs, tandis que l'agrégation dynamique ajuste les poids des facteurs en fonction de leur performance. La normalisation des facteurs est essentielle pour assurer la comparabilité au sein de chaque facteur individuel.

L'apprentissage d'ensemble est un sujet clé abordé par Margenot. Il explique que trouver un algorithme d'entraînement à tendance constante à la hausse peut être difficile, car il doit aller au-delà de la simple version bêta. Pour surmonter cette limitation, il utilise l'apprentissage d'ensemble pour agréger plusieurs signaux individuels. Margenot utilise spécifiquement AdaBoost, une technique bien connue dans l'apprentissage d'ensemble, pour former des arbres de décision basés sur six caractéristiques. Ces arbres de décision prédisent si un actif augmentera ou diminuera, et la prédiction finale est déterminée par la sortie majoritaire d'un millier d'arbres de décision. Cette approche permet des prévisions plus précises et plus robustes.

Margenot développe plus avant l'évaluation du signal alpha en revitalisant les facteurs alpha fatigués grâce à l'apprentissage d'ensemble. Il forme des arbres de décision sur un mois et tente de prédire les rendements ou si le marché sera à la hausse ou à la baisse à l'avenir. En agrégeant les performances des classificateurs, il extrait les importances des caractéristiques de la somme pondérée des arbres de décision et évalue la lentille alpha du signal. Cependant, Margenot reconnaît la nécessité d'intégrer les commissions et les dérapages dans le processus d'évaluation, car ils peuvent avoir un impact significatif sur les résultats finaux.

L'intégration des considérations de commission et de glissement dans les algorithmes est un aspect essentiel mis en évidence par Margenot. Il souligne que les coûts de négociation réels doivent être pris en compte pour assurer la viabilité des signaux. Il démontre les rendements négatifs potentiels et les baisses dans un backtester en raison de la fenêtre de formation limitée pour un classificateur d'apprentissage automatique et du taux de rotation élevé. Margenot suggère d'explorer des méthodes alternatives d'apprentissage d'ensemble ou des implémentations de plateformes pour potentiellement améliorer les performances à l'avenir. Il mentionne également les outils qu'il a utilisés pour l'analyse du facteur alpha et l'analyse de portefeuille.

Tout au long de la vidéo, Margenot présente divers outils et ressources qui peuvent aider à mettre en œuvre des techniques d'apprentissage d'ensemble. Il recommande de vérifier le moteur de backtesting de la tyrolienne et d'utiliser la plate-forme Quantiopian, qui y donne accès. Margenot suggère d'utiliser Scikit-learn et le package Ensembles, qui sont précieux pour l'apprentissage automatique, les statistiques et les classificateurs. Il mentionne également qu'il partage des conférences, des algorithmes et des solutions de modèles sur son GitHub, offrant un accès gratuit à son expertise aux scientifiques des données et aux commerçants.

Vers la fin de la présentation, Margenot discute du processus de refonte des facteurs alpha existants à l'aide de l'apprentissage d'ensemble. Il souligne que même si un facteur alpha ne donne initialement pas de résultats positifs, il peut être amélioré. Il souligne l'importance du pipeline dans la définition des calculs et explique comment la formation des composants sur les données historiques permet de prédire les mouvements du marché 20 jours à l'avance. Alors que la validation croisée peut être difficile avec des données historiques, Margenot suggère de s'entraîner en avant et de prédire sur le prochain ensemble de données comme solution de contournement.

Margenot conclut en discutant des aspects pratiques de la mise en œuvre de l'apprentissage d'ensemble pour améliorer les facteurs alpha. Il conseille de former le classificateur d'ensemble sur une plus longue période et de prévoir également sur une plus longue période. Il suggère d'employer un schéma de pondération des facteurs et d'autres contraintes pour répartir les ressources entre différentes stratégies. Margenot préconise la formation d'un modèle unique sur tous les interprètes du pipeline, traitant chaque facteur comme faisant partie d'un modèle unifié. Il mentionne également avec humour la possibilité que des facteurs fassent le contraire de leur objectif en ajoutant un signe négatif, soulignant que cela se produit rarement.

En résumé, la vidéo de Max Margenot fournit des informations précieuses sur le domaine de l'apprentissage d'ensemble et son application à l'amélioration des facteurs alpha. En combinant des signaux indépendants et en utilisant des techniques d'apprentissage d'ensemble, les data scientists et les traders peuvent optimiser leurs stratégies d'investissement grâce à des approches avancées d'apprentissage automatique. Les conseils pratiques, les démonstrations et les outils recommandés de Margenot offrent des conseils à ceux qui cherchent à tirer parti de l'apprentissage d'ensemble pour une prise de décision plus précise et plus rentable dans les stratégies de trading.

  • 00:00:00 Dans cette section, Max Margenot, data scientist chez Quantopian, introduit le concept de "drifting alpha" qui vise à revitaliser les facteurs alpha fatigués en utilisant l'apprentissage d'ensemble. Il explique que les facteurs alpha font référence à des rendements nouveaux et intéressants en finance, tandis que les facteurs de risque sont les rendements habituels que tout le monde connaît, comme le marché. L'objectif est de créer un portefeuille en combinant des signaux indépendants pour obtenir quelque chose de nouveau et de meilleurs résultats. Il explique également brièvement le modèle de tarification des immobilisations et comment Quantopian fonctionne comme une plate-forme gratuite pour la recherche quantitative.

  • 00:05:00 Dans cette section, l'orateur introduit l'idée d'un modèle factoriel, qui tente de comprendre les risques d'un portefeuille. Le conférencier explique que les rendements d'un portefeuille sont constitués des rendements du marché et de quelque chose d'autre qui est nouveau et inexpliqué. Les facteurs classiques ajoutés à un modèle factoriel incluent petit - grand, qui fait référence aux entreprises à petite capitalisation boursière par rapport aux entreprises à grande capitalisation boursière, et élevé moins faible pour le ratio livre / prix. En évaluant le risque de marché et en ajoutant d'autres facteurs, on peut étendre le modèle et examiner l'exposition par rapport à d'autres flux de rendement. En fin de compte, diversifier les signaux non corrélés, réduire la volatilité du portefeuille global et augmenter les rendements sont les objectifs de la modélisation factorielle.

  • 00:10:00 Dans cette section, le conférencier explique comment la modélisation factorielle devient de plus en plus courante dans les processus de construction de portefeuille. Selon une enquête Blackrock, 87 % des investisseurs institutionnels intègrent des facteurs dans leur processus d'investissement. Les cinq principaux types de facteurs autour desquels s'articulent les portefeuilles sont la valeur, le momentum, la qualité, la volatilité et la croissance. L'orateur parle également de long/short equity, ce qui implique d'être long sur certaines actions et court sur d'autres en utilisant la valeur factorielle pour déterminer où ils vont long ou short. En fin de compte, l'objectif est d'utiliser ces expositions pour créer un portefeuille.

  • 00:15:00 Dans cette section, Max Margenot discute de l'univers dans lequel l'algorithme est appliqué. L'algorithme applique un modèle statistique et exécute les transactions conformément au modèle. Si les transactions ne peuvent pas être effectuées en raison de contraintes, telles que l'impossibilité de vendre à découvert, le mandat de la stratégie est violé. Margenot préfère les stratégies neutres en dollars, qui finissent généralement par être neutres sur le marché, et construit des portefeuilles où seules les valeurs les plus élevées et les plus basses comptent pour capturer les rendements attendus les plus élevés. La combinaison de plusieurs facteurs implique une composition d'un rang combiné, ce qui implique beaucoup de marge de manœuvre et c'est pourquoi il le définit spécifiquement de cette manière.

  • 00: 20: 00 Dans cette section, l'orateur discute des défis liés à l'évaluation des performances d'un modèle et de la façon dont les rendements inexpliqués peuvent être plus intimidants que les pertes ou les baisses expliquées. Il parle de l'importance d'avoir un univers fiable qui a suffisamment de liquidités et comment ils ont créé l'univers Q 1500 pour filtrer les éléments indésirables. L'orateur explique également à quel point le calcul des prix est difficile, et au lieu de prédire les prix, il se concentre sur la compréhension des actions qui sont meilleures que les autres. Il explique ensuite la notion de valeur relative et comment la capturer est plus critique que d'être dans un marché haussier ou baissier. Enfin, il définit un exemple de vecteur et comment il utilise l'API de pipeline dans leur cadre pour calculer l'élan.

  • 00:25:00 Dans cette section de la vidéo, Max Margenot discute de son approche pour créer un facteur de momentum qui prend en compte les tendances à long et à court terme. Il standardise les rendements et pénalise l'aspect long terme pour faire face au risque de retournement à court terme. Il utilise un package appelé Alpha Ones pour évaluer le signal sur différentes échelles de temps et construit finalement un portefeuille en utilisant le facteur momentum. Margenot explique l'importance de décider d'une échelle de temps raisonnable et discute des facteurs avec lesquels il travaille. Il met également l'accent sur le flux de travail consistant à définir un univers, les facteurs alpha et à combiner les alphas pour construire un portefeuille d'actions long/short.

  • 00:30:00 Dans cette section, Max Margenot discute de la combinaison de différents facteurs alpha et de la construction de leur portefeuille, notant que la combinaison de signaux indépendants conduit idéalement à un signal global plus fort. Il présente des méthodes d'agrégation dynamiques et statiques pour combiner des facteurs et construire un portefeuille, l'agrégation statique étant le portefeuille équipondéré de différents facteurs, tandis que l'agrégation dynamique consiste à modifier le poids des facteurs en fonction de leur performance. De plus, il souligne l'importance de normaliser les facteurs pour s'assurer qu'ils sont comparables au sein de chaque facteur individuel.

  • 00:35:00 Dans cette section de la vidéo, Max Margenot parle de l'apprentissage d'ensemble et comment il peut être utilisé pour répartir les actifs construits de manière créative. Il explique qu'il est difficile de trouver un bon algorithme d'entraînement qui monte constamment d'une manière nouvelle qui n'est pas seulement bêta. Pour surmonter cette limitation, il utilise l'apprentissage d'ensemble pour agréger de nombreux signaux individuels différents. Il utilise AdaBoost, un ancien favori de l'apprentissage d'ensemble, pour former des arbres de décision basés sur ses six caractéristiques, prédisant si quelque chose va monter ou descendre. Il prend ensuite la combinaison gagnante parmi un millier d'arbres de décision différents et prend le sinus de ce résultat, votant oui ou non en fonction de la sortie majoritaire.

  • 00:40:00 Dans cette section, Max Margenot explique comment évaluer un signal alpha en utilisant l'apprentissage d'ensemble pour revitaliser les facteurs alpha fatigués. Il forme des arbres de décision sur un mois et essaie de prédire les rendements ou s'il sera en hausse ou en baisse d'un mois à l'autre, en s'appuyant sur les performances globales des classificateurs. Il extrait ensuite l'importance des caractéristiques à partir de la somme pondérée des arbres de décision et évalue la lentille alpha du signal. Bien que la valeur adaboost ait une forte probabilité de conduire à un rendement élevé, il reconnaît la nécessité de l'intégrer dans quelque chose comme une lentille alpha des Baux, qui intègre les commissions et les dérapages.

  • 00:45:00 Dans cette section de la vidéo, le présentateur discute de l'importance d'incorporer la commission et le glissement dans les algorithmes pour s'assurer que les signaux sont toujours bons après coup. Il montre ensuite les rendements négatifs et les baisses dans un backtester en raison de la fenêtre de formation limitée pour un classificateur d'apprentissage automatique et du taux de rotation élevé. Le présentateur suggère que l'utilisation d'une méthode d'apprentissage d'ensemble ou d'une implémentation de plate-forme différente peut entraîner de meilleures performances à l'avenir. Enfin, il énumère les outils qu'il a utilisés pour l'analyse du facteur alpha et l'analyse de portefeuille.

  • 00:50:00 Dans cette section, Max Margenot parle de l'utilisation de Pi-elle et Cool pour calculer l'intention derrière le commerce d'un algorithme et comment il peut aider à réaliser cette intention au moment où la position est fermée. Il recommande de consulter le moteur de backtesting de la tyrolienne et d'utiliser la plate-forme Quantiopian pour y accéder. Il suggère également d'utiliser le package Scikit-learn et Ensembles, qui est idéal pour l'apprentissage automatique, les statistiques et les classificateurs. Max Margenot est chargé de cours à Quantopian et offre un accès gratuit à ses conférences, algorithmes et solutions de modèles sur son GitHub.

  • 00: 55: 00 Dans cette section, Max Margenot, un chercheur quantitatif, discute de son processus d'utilisation de l'apprentissage d'ensemble pour réorganiser les facteurs alpha existants. Il explique que même si un facteur alpha n'a pas fonctionné au départ, il est toujours possible de s'appuyer dessus et de l'améliorer. Il aborde également l'importance du pipeline dans le processus de définition des calculs, et comment, en formant les composants requis sur des données historiques, il est possible de prédire à la hausse ou à la baisse 20 jours à l'avance. Cependant, Margenot souligne que la validation croisée est difficile à mettre en œuvre lorsqu'il s'agit de données historiques, mais sa technique consiste à s'entraîner en avant et à prédire sur le prochain ensemble de données.

  • 01:00:00 Dans cette section, Max Margenot parle de l'utilisation de l'apprentissage d'ensemble pour améliorer les facteurs alpha. Il explique que chaque fois qu'il entraîne le classificateur d'ensemble, les pondérations attribuées à chaque facteur sont différentes en fonction des performances du mois précédent. Il suggère de s'entraîner sur une période plus longue et de prévoir sur une période plus longue. Il suggère également d'utiliser un schéma de pondération des facteurs et d'autres contraintes pour répartir entre différentes stratégies. Margenot parle également de former un modèle unique sur tous les interprètes du pipeline pour tous les facteurs, plutôt que de traiter chaque facteur comme un modèle individuel. Il plaisante sur la possibilité que des facteurs fassent le contraire de ce qu'ils sont censés faire lorsqu'un signe négatif est ajouté et explique que cela n'arrive jamais.

  • 01:05:00 Dans cette section, le conférencier discute de son processus de rééquilibrage, qui a lieu une fois par mois, car il le juge plus fidèle à son processus de recherche. Ils reconnaissent également que les données bruyantes peuvent affecter leurs prédictions, car ils n'obtiennent qu'un avantage de 1 % sur l'ensemble d'apprentissage donné. L'orateur envisage également l'idée d'ajouter une fonction vers le haut ou vers le bas à son modèle, mais estime que cela demande plus d'efforts que cela n'en vaut la peine. Ils discutent brièvement de l'utilisation des réseaux de neurones, reconnaissant leur pouvoir mais déclarant également qu'ils préfèrent les méthodes plus interprétables qu'ils utilisent actuellement. Enfin, le conférencier termine en discutant de l'importance d'utiliser l'apprentissage automatique comme outil de classification ou de régression, plutôt que de découverte.

  • 01:10:00 Dans cette section de la vidéo, l'orateur discute de l'utilité d'utiliser adaboost pour gérer les valeurs aberrantes lorsqu'il s'agit d'un grand nombre de choses disparates. L'orateur mentionne également l'utilisation de l'apprentissage d'ensemble pour prédire des choses avec des rendements élevés et faibles sans les diviser en paniers jusqu'à ce que la prédiction soit faite. Ils mentionnent la possibilité d'utiliser une troisième chose pour la prédiction. Cependant, ils suggèrent de commencer par deux choses pour éviter de s'occuper de beaucoup d'autres choses.
"Thrifting Alpha: Using Ensemble Learning To Revitalize Tired Alpha Factors" by Max Margenot
"Thrifting Alpha: Using Ensemble Learning To Revitalize Tired Alpha Factors" by Max Margenot
  • 2017.07.25
  • www.youtube.com
This talk was given by Max Margenot at the Quantopian Meetup in San Francisco on July 18th, 2017. Video work was done by Matt Fisher, http://www.precipitate....
 

MIT 18.S096 Sujets en mathématiques avec applications en finance - 1. Introduction, termes et concepts financiers



1. Introduction, termes et concepts financiers

Dans cette vidéo informative, les téléspectateurs sont emmenés dans un voyage à travers divers termes et concepts financiers pour établir une base solide en finance. Le cours s'adresse aux étudiants de premier cycle et des cycles supérieurs qui souhaitent poursuivre une carrière dans ce domaine. Il vise à fournir une introduction à la finance moderne et à doter les étudiants des connaissances essentielles.

Le conférencier commence par plonger dans l'histoire des termes et concepts financiers, en mettant en lumière des termes importants tels que Vega, Kappa et la volatilité. Vega est expliqué comme une mesure de la sensibilité à la volatilité, tandis que Kappa mesure la volatilité des variations de prix dans le temps. L'enseignant souligne que le domaine de la finance a connu une transformation remarquable au cours des trois dernières décennies, portée par l'intégration des méthodes quantitatives.

La vidéo explore également l'évolution de la profession de trading et les changements qu'elle a connus au cours des 30 dernières années. Il aborde les divers produits commerciaux disponibles sur le marché et la manière dont ils sont négociés. Le conférencier se penche ensuite sur les causes de la crise financière de 2008, l'attribuant à la déréglementation du secteur bancaire, qui a permis aux banques d'investissement de proposer des produits complexes aux investisseurs.

L'importance des marchés financiers est soulignée, car ils jouent un rôle crucial dans la mise en relation des prêteurs et des emprunteurs, tout en offrant aux investisseurs la possibilité de générer des rendements plus élevés sur leurs investissements. La vidéo met en lumière les différents acteurs des marchés financiers, notamment les banques, les courtiers, les fonds communs de placement, les compagnies d'assurance, les fonds de pension et les fonds spéculatifs.

Tout au long de la vidéo, divers termes et concepts financiers sont abordés en détail. La couverture, la tenue de marché et le trading pour compte propre sont expliqués, et des termes tels que bêta et alpha sont introduits. Le bêta est décrit comme la différence de rendement entre deux actifs, tandis que l'alpha représente la différence de rendement entre une action et l'indice S&P 500. L'enseignant aborde également la gestion de portefeuille en relation avec l'alpha et le bêta.

La vidéo donne un aperçu des différents types de transactions et de la manière dont elles sont exécutées. Il explique le rôle de la couverture et de la tenue de marché dans la protection des investisseurs. De plus, la vidéo présente M. White, qui élabore sur les termes et concepts financiers utilisés sur les marchés. Delta, gamma et thêta sont discutés dans le contexte de la négociation d'actions, et l'importance de comprendre l'exposition à la volatilité, les exigences de capital et les risques de bilan est soulignée. M. White explore également diverses méthodes utilisées pour analyser les actions, y compris l'analyse fondamentale et l'arbitrage.

La vidéo mentionne un changement de politique de la Réserve fédérale visant à réduire l'assouplissement quantitatif, ce qui a provoqué la prudence des investisseurs et entraîné une vente massive des marchés boursiers. Il met l'accent sur la nature difficile de la tarification des instruments financiers et de la gestion des risques à l'aide de modèles mathématiques. Le conférencier insiste sur la nécessité de mettre constamment à jour les stratégies de trading en raison de la nature dynamique du marché.

Le concept de risque et de récompense est examiné en profondeur, et la vidéo montre comment le comportement humain peut parfois conduire à des résultats inattendus dans la prise de décision financière. Un exemple est présenté, où le public se voit proposer deux options avec des probabilités différentes et des gains ou des pertes potentiels, mettant en évidence les différentes préférences que les individus peuvent avoir.

À la fin de la vidéo, les téléspectateurs sont encouragés à s'inscrire à un futur cours, et des devoirs facultatifs liés à la compilation d'une liste de concepts financiers sont suggérés. Cette vidéo complète constitue un excellent guide d'introduction aux termes et concepts financiers, fournissant un point de départ solide pour ceux qui s'intéressent au domaine de la finance.

  • 00:00:00 Cette vidéo présente les concepts, termes et formules financiers, et fournit une introduction à la finance moderne. La classe est ouverte aux étudiants de premier cycle et les étudiants des cycles supérieurs sont les bienvenus. L'objectif est de fournir une base aux étudiants qui souhaitent poursuivre une carrière dans la finance.

  • 00:05:00 Cette conférence traite de l'histoire des termes et concepts financiers, y compris Vega, Kappa et volatilité. Vega est une mesure de la sensibilité d'un livre ou d'un portefeuille à la volatilité, et Kappa est une mesure de la volatilité d'un prix qui peut changer au fil du temps. La conférence note également que la finance n'a pas toujours été une profession quantitative et que les 30 dernières années ont été une transformation dans le domaine en raison de l'introduction des méthodes quantitatives.

  • 00:10:00 Cette vidéo fournit des informations sur le secteur financier, notamment sur l'évolution de la profession de trading au cours des 30 dernières années. Il couvre également les différentes formes de produits commerciaux et la façon dont ils sont échangés.

  • 00:15:00 La crise financière de 2008 a été largement causée par la déréglementation du secteur bancaire, qui a permis aux banques d'investissement d'offrir plus facilement des produits complexes aux investisseurs.

  • 00:20:00 Les marchés financiers sont essentiels pour combler le fossé entre les prêteurs et les emprunteurs et pour aider les investisseurs à générer des rendements plus élevés sur leurs investissements. Il existe différents types d'acteurs sur les marchés, notamment les banques, les concessionnaires, les fonds communs de placement, les compagnies d'assurance, les fonds de pension et les fonds spéculatifs.

  • 00:25:00 Les termes et concepts financiers sont abordés dans cette vidéo, y compris la couverture, la tenue de marché et le trading pour compte propre. Le bêta est expliqué comme la différence de rendement entre deux actifs, l'alpha est la différence de rendement entre une action et l'indice S&P 500, et la gestion de portefeuille est discutée en relation avec l'alpha et le bêta.

  • 00:30:00 Cette vidéo explique comment différents types de transactions sont exécutés et comment la couverture et la tenue de marché peuvent aider à protéger les investisseurs.

  • 00:35:00 Dans cette vidéo, M. White explique les différents termes et concepts financiers utilisés sur les marchés. Delta, gamma et thêta sont tous des concepts importants à comprendre lors de la négociation d'actions. L'exposition à la volatilité, les exigences de fonds propres et les risques de bilan sont également abordés. Enfin, M. White explique les différentes méthodes utilisées pour analyser les actions, y compris l'analyse fondamentale et l'arbitrage.

  • 00:40:00 Le changement de politique de la Réserve fédérale fait référence à un plan visant à réduire le montant de l'assouplissement quantitatif qu'ils font. Cela a provoqué la vente du marché boursier, les investisseurs devenant plus prudents quant à l'avenir. Les modèles mathématiques sont utilisés pour évaluer les instruments financiers et gérer les risques, deux tâches difficiles. De plus, les stratégies de trading doivent être constamment mises à jour en raison de la nature en évolution rapide du marché.

  • 00:45:00 Le présentateur discute des concepts de risque et de récompense et montre comment le comportement humain peut conduire à des résultats inattendus dans les décisions financières. Il présente ensuite deux options - une avec 80% de chances de perdre de l'argent et une avec 100% de chances de gagner - et demande au public laquelle ils choisiraient. La plupart des spectateurs choisissent l'option avec la valeur attendue la plus élevée, mais une minorité choisit le choix b, qui a le moins de chances de gagner mais le potentiel de perdre plus d'argent.

  • 00:50:00 La vidéo traite des termes et concepts financiers et donne un exemple de la façon dont les gens pourraient apprendre de leurs expériences. La vidéo suggère également les devoirs facultatifs de compilation d'une liste de concepts financiers.

  • 00:55:00 Cette vidéo présente les termes et concepts financiers, y compris les concepts de produits dérivés, les méthodes de Monte Carlo et le trading électronique. Jake fournit deux exemples de projets sur lesquels il a travaillé, l'un impliquant l'estimation de la dérivée bruitée d'une fonction, et l'autre impliquant une meilleure prédiction des prix des devises.

  • 01:00:00 Cette vidéo présente les termes et concepts financiers et demande aux spectateurs de s'inscrire à un futur cours.
1. Introduction, Financial Terms and Concepts
1. Introduction, Financial Terms and Concepts
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter Kempthorne,...
 

2. Algèbre linéaire



2. Algèbre linéaire

La vidéo couvre largement l'algèbre linéaire, en se concentrant sur les matrices, les valeurs propres et les vecteurs propres. Il explique que les valeurs propres et les vecteurs propres sont des vecteurs spéciaux qui subissent une mise à l'échelle lorsqu'une transformation linéaire est appliquée. Chaque matrice n par n a au moins un vecteur propre, et en utilisant une matrice orthonormée, il devient possible de décomposer une matrice en directions, simplifiant la compréhension des transformations linéaires. La vidéo présente également la décomposition en valeurs singulières (SVD) comme un autre outil pour comprendre les matrices, en particulier pour une classe plus générale de matrices. SVD permet la représentation d'une matrice comme le produit de matrices orthonormées et d'une matrice diagonale, ce qui économise de l'espace pour les matrices de rang inférieur. De plus, la vidéo met en évidence l'importance des vecteurs propres dans la mesure de la corrélation des données et la définition d'un nouveau système de coordonnées orthogonales sans altérer les données elles-mêmes.

En plus des concepts susmentionnés, la vidéo se penche sur deux théorèmes importants en algèbre linéaire. Le premier est le théorème de Perron-Frobenius, qui stipule qu'une matrice non symétrique possède une valeur propre unique avec la plus grande valeur absolue, ainsi qu'un vecteur propre correspondant avec des entrées positives. Ce théorème a des applications pratiques dans divers domaines. Le deuxième théorème discuté est la décomposition en valeurs singulières (SVD), qui permet la rotation des données dans une nouvelle orientation représentée par des bases orthonormées. SVD est applicable à une gamme plus large de matrices et permet une simplification en éliminant les colonnes et les lignes inutiles, en particulier dans les matrices avec un rang nettement inférieur par rapport au nombre de colonnes et de lignes.

La vidéo fournit des explications détaillées, des exemples et des preuves de ces concepts, soulignant leur pertinence dans différents domaines de l'ingénierie et des sciences. Il encourage les téléspectateurs à comprendre les principes sous-jacents et à s'engager avec le matériel.

  • 00:00:00 Dans cette section, le professeur commence par passer en revue l'algèbre linéaire, en supposant que les téléspectateurs ont déjà suivi un cours à ce sujet. Il adapte les notes de cours pour en faire une révision pour ceux qui ont suivi le cours d'algèbre linéaire le plus élémentaire. La conférence se concentre principalement sur les matrices et leur signification. Le professeur explique qu'une matrice est une collection de nombres qui peuvent être utilisés pour organiser des données telles que les prix des actions. Une matrice est également un opérateur qui définit une transformation linéaire d'un espace vectoriel à n dimensions vers un espace vectoriel à m dimensions. Le professeur introduit également le concept de valeurs propres et de vecteurs propres et explique comment ils peuvent être appliqués à des ensembles de données pour obtenir des propriétés et des quantités importantes.

  • 00:05:00 Dans cette section, la vidéo YouTube explique le concept de valeurs propres et de vecteurs propres et leur importance pour l'algèbre linéaire. Il est défini comme un nombre réel et un vecteur qui satisfait la condition que A fois v soit égal à lambda fois V, et v étant un vecteur propre correspondant à lambda. Le déterminant de (A-lambda I) vaut 0 si A-lambda I n'est pas de rang plein, et det(A-lambda I) est un polynôme de degré n pour les matrices carrées. La vidéo souligne également qu'il existe toujours au moins une valeur propre et un vecteur propre, et la signification géométrique de ce concept est expliquée du point de vue de la transformation linéaire, où A prend le vecteur dans R^3 et le transforme en un autre vecteur dans R^ 3.

  • 00:10:00 Dans cette section de la vidéo, le concept de valeurs propres et de vecteurs propres est présenté comme des vecteurs spéciaux qui, lorsqu'une transformation linéaire est appliquée, sont simplement mis à l'échelle d'une certaine quantité, connue sous le nom de lambda. Il est établi que chaque matrice n par n a au moins un vecteur propre, et une matrice orthonormée peut être utilisée pour décomposer une matrice en directions, ce qui rend la transformation linéaire facile à comprendre. Enfin, il est expliqué que les matrices qui peuvent être décomposées dans ces directions sont les plus importantes en algèbre linéaire, et ces directions sont définies par la matrice U, tandis que D définit son échelle.

  • 00:15:00 Dans cette section, le concept de matrices diagonalisables est introduit. Bien que toutes les matrices ne soient pas diagonalisables, il existe une classe spéciale de matrices qui le sont toujours, et la plupart des matrices qui seront étudiées dans le cours entrent dans cette catégorie. Une matrice est considérée comme diagonalisable si elle se décompose en n directions, et cela est particulièrement vrai pour les matrices symétriques, qui ont des valeurs propres réelles et sont toujours diagonalisables. Le théorème 2 est discuté, ce qui fournit une preuve de la diagonalisabilité des matrices symétriques.

  • 00:20:00 Dans cette section, l'orateur explique comment diagonaliser des matrices symétriques, ce qui implique des valeurs propres et des vecteurs propres. L'orateur insiste ensuite sur l'importance de se souvenir des théorèmes 1 et 2 pour les matrices symétriques réelles. Alors que la diagonalisation est possible pour les matrices symétriques, elle n'est pas toujours possible pour les matrices générales. Par conséquent, l'orateur présente un outil alternatif qui peut être utilisé pour toutes les matrices pour distiller des informations importantes grâce à des opérations simples telles que la mise à l'échelle.

  • 00:25:00 Dans cette section, l'orateur présente la décomposition en valeurs singulières comme deuxième outil de compréhension des matrices, qui est similaire à la diagonalisation mais a une forme légèrement différente. Le théorème stipule que pour toute matrice m sur n , il existe toujours deux matrices orthonormées, U et V, et une matrice diagonale, sigma, telles que la matrice peut être décomposée en U fois sigma fois V transposée. L'orateur explique que cela fonctionne pour toutes les matrices générales m par n, alors que la décomposition des valeurs propres ne fonctionne que pour les matrices n par n diagonalisables. De plus, l'orateur mentionne que SVD donne une trame de vecteurs pour laquelle A agit comme un opérateur de mise à l'échelle, et les espaces pour les vecteurs sont différents les uns des autres.

  • 00:30:00 Dans cette section, l'intervenant discute de la diagonalisation et de la décomposition des valeurs propres, et de leur fonctionnement dans leurs cadres respectifs. Ils la comparent à la décomposition en valeurs singulières, qui s'applique à une classe plus générale de matrices. Ils abordent également la preuve de la décomposition en valeurs singulières, qui repose sur la décomposition en valeurs propres. L'orateur souligne l'importance et l'omniprésence des deux formes de décomposition dans de nombreux domaines de l'ingénierie et des sciences, et encourage les spectateurs à essayer d'imaginer et de comprendre les concepts derrière la théorie.

  • 00:35:00 Dans cette section de la vidéo, le concept de valeurs propres et de vecteurs propres est expliqué. En supposant que toutes les r valeurs propres sauf les premières sont nulles, les valeurs propres sont réécrites sous la forme sigma_1^2, sigma_2^2, sigma_r^2 et 0. Les vecteurs propres sont alors définis comme u_1, u_2 jusqu'à u_r, où u_i est calculé par en divisant A fois v_i par sa valeur propre correspondante sigma_i. Avec cela, une matrice U est définie comprenant de u_1 jusqu'à u_n, et la matrice V est définie comme v_1 jusqu'à v_r, et v_r+1 jusqu'à v_n. La multiplication de ces matrices donne une matrice diagonale, où les r premières entrées diagonales sont sigma_1 à sigma_r, et les entrées restantes sont nulles.

  • 00:40:00 Dans cette section, l'orateur fournit un tutoriel sur l'algèbre linéaire et explique comment définir la matrice U et V en appliquant A fois V/sigma (où A est A transpose fois A). La diagonale de la matrice est ensuite remplie de valeurs sigma et les colonnes sont définies par le produit scalaire de U transposé avec les valeurs lambda et V. L'orateur aborde également une erreur de calcul, la corrige et révèle la simplicité du processus.

  • 00:45:00 Dans cette section, le professeur enseigne comment trouver la décomposition en valeurs singulières d'une matrice, ce qui peut être un outil puissant. Pour obtenir la décomposition en valeurs singulières, vous devez trouver les valeurs propres et les vecteurs propres de la matrice et les organiser correctement. Bien que cela puisse être un peu fastidieux à faire à la main, c'est un exercice utile. Il existe également des moyens plus efficaces de calculer cela sur un ordinateur si nécessaire. Le professeur donne un exemple pour trouver la décomposition en valeurs singulières d'une matrice 2x3 et montre les étapes pour l'obtenir.

  • 00:50:00 Dans cette section, le professeur explique le processus de recherche de la décomposition en valeurs singulières d'une matrice. Il montre comment trouver les vecteurs propres d'une matrice et montre comment décomposer la matrice en forme de transposition U, sigma et V. Il souligne que les vecteurs propres qui correspondent à une valeur propre de zéro ne sont pas importants et peuvent être supprimés, ce qui économise le calcul. Le professeur conclut cette section en énonçant une forme différente de décomposition en valeurs singulières.

  • 00:55:00 Dans cette section, la forme simplifiée de SVD est introduite. A devient égal à U fois sigma fois V transposée, où U est toujours une matrice m par m, sigma est aussi m par m et V est une matrice m par n. Cela ne fonctionne que lorsque m est inférieur ou égal à n. La preuve est la même, et la dernière étape consiste à supprimer les informations non pertinentes. Ce formulaire simplifie les matrices en supprimant les colonnes et les lignes inutiles, ce qui le rend très puissant pour les matrices dont le rang est bien inférieur au nombre de colonnes et de lignes. Un exemple de ceci est le cours des actions avec cinq sociétés et 365 jours par an. La forme réduite économise beaucoup d'espace et sera la forme vue la plupart du temps. Les vecteurs propres aident à mesurer la corrélation des données et à définir un nouveau système de coordonnées orthogonales sans modifier les données elles-mêmes.

  • 01:00:00 Dans cette section, le professeur explique comment la décomposition en valeurs singulières (SVD) fait pivoter les données dans une orientation différente représentée par la base orthonormée vers laquelle vous effectuez la transformation. Les corrélations entre les différents stocks sont représentées par la façon dont ces points sont orientés dans l'espace transformé. De plus, le professeur mentionne le théorème de Perron-Frobenius, qui semble théorique, mais Steve Ross a trouvé un résultat qui utilise ce théorème appelé théorème de récupération de Steve Ross. Le théorème stipule que pour une matrice symétrique n par n dont les entrées sont toutes positives, il existe une plus grande valeur propre, lambda_0.

  • 01:05:00 Dans cette section, le conférencier présente un théorème d'algèbre linéaire bien connu qui a de nombreuses applications théoriques, y compris la théorie des probabilités et la combinatoire. Le théorème stipule que pour une matrice non symétrique, il existe une valeur propre unique avec la plus grande valeur absolue, qui est un nombre réel. De plus, il existe un vecteur propre avec des entrées positives correspondant à cette valeur propre. Le théorème a été utilisé dans de nombreux contextes, et l'orateur décrit brièvement comment cela fonctionne lorsque la matrice est symétrique. La preuve implique plusieurs observations, y compris le fait que la plus grande valeur propre positive domine la plus petite valeur propre négative si toutes les valeurs propres ont des entrées positives.

  • 01:10:00 Dans cette section, l'orateur explique comment les entrées positives d'une matrice ont un impact sur les vecteurs propres de la matrice. Si un vecteur a des entrées non positives ou des entrées négatives, inverser le signe des entrées et obtenir un nouveau vecteur augmentera la magnitude, ce qui ne peut pas se produire dans une matrice avec des entrées positives. Le vecteur propre d'une matrice avec des entrées positives devrait également avoir des entrées positives, et ce théorème est vrai même dans des contextes plus généraux. L'orateur reverra ce concept plus tard, mais il entrera en jeu plus tard.
2. Linear Algebra
2. Linear Algebra
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Choongbum LeeThis...
 

3. Théorie des probabilités



3. Théorie des probabilités

Cette série vidéo complète sur la théorie des probabilités couvre un large éventail de sujets, offrant une compréhension approfondie des concepts fondamentaux et de leurs applications pratiques. Le professeur commence par rafraîchir nos connaissances sur les distributions de probabilité et les fonctions génératrices de moments. Il fait la distinction entre les variables aléatoires discrètes et continues et définit des termes importants comme la fonction de masse de probabilité et la fonction de distribution de probabilité. Le professeur illustre également ces notions par des exemples, dont la distribution uniforme.

Ensuite, le professeur approfondit les concepts de probabilité et d'espérance pour les variables aléatoires. Il explique comment calculer la probabilité d'un événement et définit l'espérance (moyenne) d'une variable aléatoire. Le professeur aborde également la notion d'indépendance pour les variables aléatoires et introduit la distribution normale comme distribution universelle pour les variables aléatoires continues.

En explorant la modélisation des prix des actions et des produits financiers, le professeur souligne que l'utilisation de la seule distribution normale peut ne pas saisir avec précision l'ampleur des variations de prix. Au lieu de cela, il suggère de modéliser la variation en pourcentage comme une variable normalement distribuée. En outre, le professeur discute de la distribution log-normale et de sa fonction de densité de probabilité, soulignant que ses paramètres mu et sigma sont dérivés de la distribution normale.

La série vidéo procède à l'introduction d'autres distributions au sein de la famille exponentielle, telles que les distributions de Poisson et exponentielles. Ces distributions possèdent des propriétés statistiques qui les rendent utiles dans les applications du monde réel. Le professeur explique comment ces distributions peuvent être paramétrées et met l'accent sur la relation entre la distribution log-normale et la famille exponentielle.

Ensuite, le professeur explore les aspects statistiques et le comportement à long terme des variables aléatoires. Il explique le concept de moments, représentés par les k-ièmes moments d'une variable aléatoire, et met l'accent sur l'utilisation de la fonction génératrice de moments comme outil unifié pour étudier tous les moments. De plus, le professeur discute du comportement à long terme des variables aléatoires en observant plusieurs variables aléatoires indépendantes avec la même distribution, conduisant à un graphique qui ressemble étroitement à une courbe.

La série de vidéos se concentre ensuite sur deux théorèmes importants : la loi des grands nombres et le théorème central limite. La loi des grands nombres stipule que la moyenne des variables aléatoires indépendantes et identiquement distribuées converge vers la moyenne dans un sens faible à mesure que le nombre d'essais augmente. La probabilité d'écart par rapport à la moyenne diminue avec un plus grand nombre d'essais. Le théorème central limite démontre que la distribution de la moyenne des variables aléatoires indépendantes se rapproche d'une distribution normale, quelle que soit la distribution initiale. La fonction génératrice de moment joue un rôle clé dans la mise en évidence de la convergence de la distribution de la variable aléatoire.

La convergence des variables aléatoires est discutée plus en détail, soulignant comment la fonction génératrice de moment peut contrôler la distribution. Le professeur introduit le concept de râteau de casino comme moyen de générer des profits et discute de l'influence de la variance sur la croyance en ses capacités. La preuve de la loi des grands nombres est expliquée, en soulignant comment la moyenne d'un plus grand nombre de termes réduit la variance.

Dans le cadre d'un casino, l'orateur explique comment la loi des grands nombres peut être appliquée. Il est à noter qu'un joueur peut avoir un léger désavantage dans les jeux individuels, mais avec un échantillon de grande taille, la loi des grands nombres garantit que le résultat moyen tend vers la valeur attendue. L'idée d'un casino prenant un râteau est explorée, soulignant comment l'avantage du joueur et la croyance dans les principes mathématiques peuvent influencer les résultats.

Enfin, la série de vidéos se penche sur les lois faibles et fortes des grands nombres et discute du théorème central limite. La loi faible stipule que la moyenne des variables aléatoires indépendantes et identiquement distribuées converge vers la moyenne lorsque le nombre d'essais tend vers l'infini. La loi forte des grands nombres fournit une forme de convergence plus forte. Le théorème central limite explique la convergence de la distribution de la moyenne vers une distribution normale, même lorsque la distribution initiale est différente.

Dans l'ensemble, cette série de vidéos propose une exploration approfondie des concepts de la théorie des probabilités, y compris les distributions de probabilités, les fonctions génératrices de moments, les lois des grands nombres, le théorème central limite et leurs implications pratiques.

  • 00:00:00 Dans cette section, le professeur introduit le sujet de la théorie des probabilités, en donnant un aperçu des distributions de probabilité et en se concentrant sur la fonction génératrice de moment. Il fait la distinction entre les variables aléatoires discrètes et continues et définit la fonction de masse de probabilité et la fonction de distribution de probabilité. Le professeur précise que l'espace d'échantillonnage est généralement considéré comme les nombres réels pour les variables aléatoires continues et fournit des exemples de fonctions de masse de probabilité et de fonctions de distribution de probabilité, y compris une distribution uniforme. Dans l'ensemble, cette section sert de rappel pour ceux qui connaissent les bases de la théorie des probabilités.

  • 00:05:00 Dans cette section, le professeur aborde les concepts de probabilité et d'espérance pour les variables aléatoires. Il explique que la probabilité d'un événement peut être calculée soit comme la somme de tous les points de l'événement, soit comme l'intégrale sur l'ensemble. Il définit également l'espérance, ou la moyenne, des variables aléatoires comme la somme ou l'intégrale de toutes les valeurs possibles de la variable aléatoire multipliée par cette valeur. Le professeur poursuit ensuite en expliquant le concept d'indépendance des variables aléatoires, en distinguant les événements mutuellement indépendants des événements indépendants par paires. Enfin, il introduit la distribution normale comme distribution universelle pour les variables aléatoires continues.

  • 00:10:00 Dans cette section de la vidéo sur la théorie des probabilités, l'orateur discute de l'utilisation de la distribution normale comme moyen de modéliser les cours des actions ou des produits financiers, et comment ce n'est pas toujours un bon choix en raison de la non-prise en compte de la ordre de grandeur du prix lui-même. Au lieu de cela, l'orateur plonge dans l'idée que la variation en pourcentage devrait être normalement distribuée pour mieux modéliser les prix des actions. L'orateur mentionne que les augmentations de prix normalement distribuées produiront un prix normalement distribué plutôt que d'avoir une quelconque tendance.

  • 00:15:00 Dans cette section, le professeur explique comment trouver la distribution de probabilité de Pn lorsque les variations de prix suivent une distribution log-normale. Il définit une distribution log-normale Y comme une variable aléatoire telle que log Y est normalement distribué. En utilisant la formule de changement de variable, il montre comment trouver la fonction de distribution de probabilité de la distribution log-normale en utilisant la distribution de probabilité de la normale. Le professeur explique également pourquoi prendre la variation en pourcentage comme modèle de variation des prix n'est pas un bon choix à long terme, car cela peut prendre des valeurs négatives et faire monter ou descendre le prix jusqu'à l'infini.

  • 00:20:00 Dans cette section, le professeur discute de la distribution log-normale et de sa définition. La fonction de densité de probabilité de X est égale à la fonction de densité de probabilité de Y à log X multiplié par la différenciation de log X qui est de 1 sur X. La distribution est désignée par les paramètres mu et sigma, qui proviennent de la distribution normale . Cependant, lorsqu'il est asymétrique, il n'est plus centré sur mu, et prendre la moyenne ne donne pas la moyenne, qui n'est pas e au sigma.

  • 00:25:00 Dans cette section, le professeur introduit d'autres distributions que les distributions normales et log-normales, telles que les distributions de Poisson et exponentielles, qui appartiennent à une famille de distributions appelée famille exponentielle. Cette famille possède de bonnes propriétés statistiques qui les rendent utiles dans les applications du monde réel. Le professeur explique que toutes les distributions de cette famille peuvent être paramétrées par un vecteur appelé "thêta", et que la fonction de densité de probabilité peut être écrite comme un produit de trois fonctions : h(x), t_i(x) et c(thêta ). Le professeur explique ensuite comment la distribution log-normale tombe dans la famille exponentielle en utilisant la formule 1 sur x sigma racine carrée 2 pi, e au moins log x [INAUDIBLE] au carré.

  • 00:30:00 Dans cette section, l'orateur discute des deux principaux éléments d'intérêt lors de l'étude d'une variable aléatoire : les statistiques et le comportement à long terme/à grande échelle. Les statistiques sont représentées par les k-ièmes moments de la variable aléatoire, où le k-ième moment est défini comme l'espérance de X au k. L'orateur explique qu'une manière unifiée d'étudier tous les moments ensemble consiste à utiliser la fonction génératrice de moment, qui contient toutes les informations statistiques d'une variable aléatoire. Le deuxième sujet principal est le comportement à long terme ou à grande échelle d'une variable aléatoire, qui peut être observé à travers plusieurs variables aléatoires indépendantes avec exactement la même distribution. Lorsque les nombres sont très grands, un graphique peut être tracé pour montrer combien de variables aléatoires tombent dans chaque point, ce qui ressemblera très près à une courbe.

  • 00:35:00 Dans cette section, l'orateur discute de la théorie des probabilités et du comportement à long terme ou à grande échelle des variables aléatoires. Les deux théorèmes discutés sont la loi des grands nombres et le théorème central limite. La fonction génératrice de moment est également introduite et est définie comme l'espérance de e aux t fois x, où t est un paramètre. La fonction donne le k-ième moment de la variable aléatoire et est pour tous les entiers. L'orateur note que l'existence de la fonction génératrice de moment est importante car elle classe les variables aléatoires.

  • 00:40:00 Dans cette section, le théorème selon lequel si deux variables aléatoires ont la même fonction génératrice de moment, alors elles ont la même distribution est discuté. Cependant, il convient de noter que cela ne signifie pas que toutes les variables aléatoires avec des k-ièmes moments identiques pour tous les k ont la même distribution, car l'existence de fonctions génératrices de moments est requise. Une autre déclaration est mentionnée, qui dit que si la fonction génératrice de moment existe pour une séquence de variables aléatoires et qu'elle converge vers la fonction génératrice de moment d'une autre variable aléatoire X, alors la distribution de cette séquence se rapproche de plus en plus de la distribution de X

  • 00:45:00 Dans cette section, le professeur discute du concept de convergence des variables aléatoires et explique que les distributions des variables aléatoires convergent vers la distribution d'une variable aléatoire. La fonction génératrice de moment est un outil puissant pour contrôler la distribution, comme on le voit dans les théorèmes donnés. Le professeur introduit ensuite la loi des grands nombres, où X est défini comme la moyenne de n variables aléatoires, et explique que si ces variables sont indépendantes, identiquement distribuées avec une moyenne mu et une variance sigma carré, alors la probabilité que X soit inférieur ou égal à égal à une certaine valeur tend vers la probabilité de cette valeur.

  • 00:50:00 Dans cette section, l'orateur aborde la loi des grands nombres et son application au casino. Lorsqu'un grand nombre de distributions indépendantes identiques sont moyennées, leurs valeurs seront très proches de la moyenne. En jouant au blackjack dans un casino, le joueur a un petit désavantage avec une probabilité de gagner de 48 %. Du point de vue du joueur, seule une petite taille d'échantillon est prise, ce qui fait que la variance prend le dessus sur une courte période de temps. Cependant, du point de vue du casino, ils ont une très grande taille d'échantillon et tant qu'il y aura un avantage en leur faveur, ils continueront à gagner de l'argent. Le poker est différent des jeux de casino car il se joue contre d'autres joueurs, pas contre le casino.

  • 00:55:00 Dans cette section, l'idée d'un casino prenant un râteau comme moyen de gagner de l'argent est discutée, les frais payés par les joueurs s'accumulant pour créer des bénéfices pour le casino. Il est postulé que si un joueur est meilleur que son adversaire et que cet avantage est supérieur aux frais facturés par le casino, le joueur peut gagner en utilisant la loi des grands nombres. Malgré cela, lorsque la variance est importante, la croyance en ses capacités peut diminuer ; cependant, avoir foi en les mathématiques peut être tout ce qui est nécessaire pour maintenir le cap. La preuve de la loi des grands nombres est ensuite expliquée, avec un exemple illustrant comment la moyenne d'un plus grand nombre de termes diminue la variance.

  • 01:00:00 Dans cette section, la loi faible des grands nombres est discutée, qui stipule que si vous avez des variables aléatoires indépendantes et identiquement distribuées (IID), la moyenne converge vers la moyenne dans un sens faible à mesure que le nombre d'essais va à l'infini. La probabilité d'écart par rapport à la moyenne diminue à mesure que le nombre d'essais augmente. La loi forte des grands nombres est également brièvement abordée, qui a une convergence plus forte que la loi faible. Le théorème central limite est le sujet suivant, qui explore ce qui se passe lorsque le nombre d'essais est remplacé par la racine carrée du nombre d'essais dans la variable aléatoire.

  • 01:05:00 Dans cette section, le professeur explique comment le théorème central limite répond à une question concernant la distribution de Yn avec une moyenne de 0 et une variance sigma au carré. Il a déclaré qu'en prenant de nombreux événements indépendants et en trouvant leur moyenne, dans ce sens, leur distribution converge vers une distribution normale. Il a en outre énoncé un théorème sur la convergence de la distribution de Yn vers la distribution normale avec une moyenne de 0 et une variance sigma. Quelle que soit la distribution initiale, la convergence vers la distribution normale se produit.

  • 01:10:00 Dans cette section, le but est de prouver que la fonction génératrice de moment de Y_n converge vers la fonction génératrice de moment de la normale pour tout t, convergence ponctuelle. La fonction génératrice de moment de la normale est e au carré t sigma carré sur 2. La fonction génératrice de moment de Y_n est égale à l'espérance de e à t Y_n. Le produit de e au t, 1 sur la racine carrée n, X_i moins mu devient le produit de 1 à n, espérance e au t fois la racine carrée n. La n-ième puissance de cela est égale à l'espérance de e au t sur la racine carrée n, X_i moins mu à la n-ième puissance. Le développement de Taylor est utilisé, et comme n tend vers l'infini, tous ces termes seront d'un ordre de grandeur inférieur à n, 1 sur n.

  • 01:15:00 Dans cette section, l'orateur discute de la loi des grands nombres et du théorème central limite comme moyens d'estimer la moyenne d'une variable aléatoire. En prenant de nombreux essais indépendants d'une variable aléatoire et en les utilisant pour estimer la moyenne, la loi des grands nombres stipule que l'estimation sera très proche de la moyenne réelle si le nombre d'essais est suffisamment grand. Le théorème central limite explique alors comment la distribution de cette estimation se situe autour de la moyenne, les distributions normales ayant de très petites distributions de queue. Cependant, l'orateur note que pour certaines distributions, il est préférable de prendre un estimateur différent de l'estimateur du maximum de vraisemblance.
3. Probability Theory
3. Probability Theory
  • 2015.04.23
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Choongbum LeeThis...
 

5. Processus stochastiques I



5. Processus stochastiques I

Dans cette vidéo sur les processus stochastiques, le professeur présente une introduction et un aperçu complets des processus stochastiques en temps discret et en temps continu. Ces modèles probabilistes sont utilisés pour analyser des événements aléatoires se produisant au fil du temps. La vidéo présente des exemples de marche aléatoire simple et de processus de chaîne de Markov pour illustrer comment ils abordent les questions liées à la dépendance, au comportement à long terme et aux événements limites. De plus, le théorème de Perron-Frobenius est discuté, soulignant l'importance des vecteurs propres et des valeurs propres dans la détermination du comportement à long terme du système. La vidéo se termine en introduisant le concept de processus de martingale, qui servent de modèles de jeu équitable.

La vidéo commence par présenter le concept de martingales dans les processus stochastiques, qui sont conçus pour maintenir une valeur attendue inchangée. Un exemple de martingale est une marche aléatoire, qui présente des fluctuations tout en maintenant constamment une valeur attendue de 1. La vidéo explique également les temps d'arrêt, qui sont des stratégies prédéterminées dépendant uniquement des valeurs de processus stochastiques jusqu'à un point spécifique. Le théorème d'arrêt optionnel stipule que si une martingale et un temps d'arrêt tau existent, la valeur attendue au temps d'arrêt sera égale à la valeur initiale de la martingale. Ce théorème souligne la nature équitable et équilibrée des processus de martingale.

Tout au long de la vidéo, divers sujets sont abordés en détail. Des processus stochastiques en temps discret et en temps continu sont introduits, illustrant leur représentation par des distributions de probabilité sur différents chemins. Des exemples tels qu'une simple marche aléatoire et un jeu de tirage au sort aident à élucider les propriétés et les comportements de ces processus. L'importance des chaînes de Markov est discutée, soulignant comment l'état futur dépend uniquement de l'état actuel, simplifiant l'analyse des processus stochastiques. La notion de distribution stationnaire est explorée, mettant en évidence le théorème de Perron-Frobenius, qui établit l'existence d'un vecteur propre unique correspondant à la plus grande valeur propre, représentant le comportement à long terme du système.

La vidéo se termine en insistant sur le lien entre les martingales et les jeux équitables. Il est à noter qu'un processus de martingale garantit que la valeur attendue reste inchangée, ce qui signifie un jeu équilibré. Inversement, les jeux comme la roulette dans les casinos ne sont pas des martingales car la valeur attendue est inférieure à 0, ce qui entraîne des pertes attendues pour les joueurs. Enfin, un théorème est mentionné, suggérant que si un joueur est modélisé à l'aide d'une martingale, quelle que soit la stratégie employée, le solde sera toujours égal au solde initial. De plus, l'espérance de X_tau, la valeur au temps d'arrêt, est toujours 0, indiquant que, lorsqu'il est modélisé par une martingale, le joueur ne devrait pas gagner.

Dans l'ensemble, la vidéo fournit un aperçu complet des processus stochastiques, de leurs propriétés et de leurs applications dans la modélisation et l'analyse d'événements aléatoires.

  • 00:00:00 Dans cette section, le professeur présente une introduction aux processus stochastiques, une collection de variables aléatoires indexées par le temps. Elle fait la distinction entre les processus stochastiques en temps discret et en temps continu et explique qu'ils peuvent être représentés par un ensemble de probabilités sur différents chemins. Elle donne des exemples de trois processus stochastiques, dont un dans lequel f(t) est égal à t avec probabilité 1, un dans lequel f(t) est égal à t pour tout t avec probabilité 1/2, ou f(t) est égal à -t pour tout t avec probabilité 1/2, et une dans laquelle pour chaque t, f(t) est égal à t ou -t avec probabilité 1/2.

  • 00:05:00 Dans cette section, l'orateur aborde le concept de processus stochastiques et les différents types de questions qui sont étudiées en relation avec eux. Les processus stochastiques sont utilisés pour modéliser des situations réelles, telles que les cours boursiers, et impliquent des variables aléatoires qui dépendent les unes des autres. Les trois principaux types de questions étudiées incluent les dépendances dans la séquence des valeurs, le comportement à long terme et les événements limites. L'orateur explique comment chaque type de question se rapporte aux processus stochastiques et à leur distribution de probabilité.

  • 00:10:00 Dans cette section, le sujet des processus stochastiques est introduit, qui fait référence à l'analyse d'événements aléatoires qui se produisent au fil du temps. Plus précisément, l'accent est mis sur les processus stochastiques à temps discret, dont l'un des plus importants est la marche aléatoire simple. Ceci est défini comme une séquence de variables aléatoires, X sub t, qui est la somme de variables indépendantes distribuées de manière identique (IID), Y_i, qui peuvent prendre des valeurs de 1 ou -1 avec une probabilité de 1/2. La trajectoire de la marche aléatoire peut être visualisée comme une séquence de mouvements, vers le haut ou vers le bas, selon la valeur de Y_i. Ce modèle fournira une base pour comprendre les processus stochastiques en temps continu plus tard dans le cours.

  • 00:15:00 Dans cette section, le professeur discute du comportement d'une marche aléatoire simple sur une longue période de temps. Selon le théorème central limite, plus une valeur X_t se rapproche de 0, plus la variance sera petite, qui devrait être d'environ 1 sur t, et l'écart type autour de 1 sur la racine carrée de t. Lors de l'observation de X_t sur la racine carrée de t, les valeurs auront une distribution normale, avec une moyenne de 0 et une variance la racine carrée de t. Par conséquent, à très grande échelle, une marche aléatoire simple ne s'écartera pas trop de la racine carrée des courbes t et moins la racine carrée des courbes t. Même si une valeur extrême théorique pour la marche est t et moins t, vous allez être proche des courbes, jouant principalement dans cette zone. Le professeur mentionne qu'il existe un théorème indiquant que vous frapperez les deux lignes infiniment souvent.

  • 00:20:00 Dans cette section, les propriétés d'une marche aléatoire sont discutées. La première propriété est que l'espérance de X sous k est 0, et la deuxième propriété est appelée incrément indépendant. Cela signifie que si vous regardez ce qui se passe de 1 à 10, cela n'a aucun rapport avec ce qui se passe de 20 à 30. La troisième propriété est appelée stationnaire. Il indique que la distribution de X sub t+h moins X sub t est la même que la distribution de X sub h. L'exemple d'un jeu de tirage au sort est utilisé pour montrer que si vous partez d'un solde de 0,00 $ avec une pièce équitable, votre solde suivra exactement la marche aléatoire simple, en supposant une chance de 50-50.

  • 00:25:00 Dans cette section, le professeur discute des probabilités dans un scénario de marche aléatoire où il lance une pièce et s'arrête après avoir gagné 100 $ ou perdu 50 $. En mettant une ligne aux deux points d'arrêt, il explique que la probabilité de toucher la ligne supérieure en premier est A sur A plus B, et la probabilité de toucher la ligne inférieure en premier est B sur A plus B. En utilisant cette formule, il calcule que la probabilité de gagner 100 $ est de 2/3 et de perdre 50 $ est de 1/3. Le professeur explique ensuite comment prouver cette formule en définissant f de k comme la probabilité d'atteindre l'une ou l'autre des lignes en premier en commençant à la position k dans la marche aléatoire.

  • 00:30:00 Dans cette section, l'orateur discute de deux processus stochastiques importants : la marche aléatoire simple et la chaîne de Markov. La marche aléatoire simple est un processus où à chaque étape, un individu monte ou descend avec une probabilité de 1/2. La propriété stationnaire de ce processus permet un calcul facile des probabilités. D'autre part, une chaîne de Markov est un ensemble de processus stochastiques où l'effet du passé sur le futur est résumé par l'état actuel. L'importance de la chaîne de Markov est que le futur ne dépend que du présent, ce qui en fait un processus stochastique plus gérable à analyser.

  • 00:35:00 Dans cette section, l'orateur explique le concept de processus stochastiques à temps discret sous la forme d'une chaîne de Markov. L'exemple d'une marche aléatoire simple est utilisé pour illustrer que le processus est une chaîne de Markov car sa probabilité d'atteindre sa prochaine étape ne dépend que de la valeur actuelle et non de ses valeurs précédentes. La probabilité du processus peut être définie mathématiquement, la probabilité de sa transition de i à j étant la somme de toutes les probabilités de passer de i à tous les autres points de l'ensemble. Pour un ensemble fini S, les chaînes de Markov sont faciles à décrire en calculant leurs probabilités de transition.

  • 00:40:00 Dans cette section, l'orateur explique que la matrice de probabilité de transition est un outil crucial pour comprendre les chaînes de Markov. Cette matrice, constituée des probabilités de transition d'un état à un autre, possède toutes les informations nécessaires pour prédire les transitions futures dans une chaîne de Markov. En utilisant cette matrice, on peut déterminer la probabilité de faire une transition d'un état à un autre en un nombre quelconque d'étapes. Cependant, il est important de noter que l'espace d'état doit être fini pour que la matrice de probabilité de transition existe.

  • 00:45:00 Dans cette section, un exemple de chaîne de Markov d'un système qui peut être modélisé comme un ensemble d'états avec des états fonctionnels ou cassés est donné. L'exemple montre une matrice avec des probabilités de transition entre les états comme la probabilité qu'elle soit réparée et la probabilité qu'elle reste cassée. La question posée est de savoir quelle serait la distribution de probabilité du système après une longue période, disons 10 ans, et l'hypothèse faite est que la distribution de probabilité au jour 3 650 et celle au jour 3 651 devraient être à peu près les mêmes. Sous cette hypothèse, la distribution de probabilité observée après une longue période de temps sera le vecteur propre de la matrice, dont la valeur propre est 1, et dont le vecteur propre est [p, q].

  • 00:50:00 Dans cette section, l'orateur discute du théorème de Perron-Frobenius, qui stipule que pour une matrice de transition avec des entrées positives dans une chaîne de Markov, il existe un vecteur satisfaisant Av = v. Ce vecteur est appelé la distribution stationnaire et représente le comportement à long terme du système. La plus grande valeur propre de la matrice est garantie d'être 1, et le vecteur propre correspondant sera celui qui représente la distribution stationnaire. Le théorème est général et s'applique non seulement à la matrice utilisée dans l'exemple mais à toute matrice de transition dans une chaîne de Markov avec des entrées positives.

  • 00:55:00 Dans cette section, le professeur discute de la distribution stationnaire et de son unicité liée aux vecteurs propres et aux valeurs propres. Le théorème de Perron-Frebenius dit qu'il n'y a qu'un seul vecteur propre qui correspond à la plus grande valeur propre, qui s'avère être 1. Les autres valeurs propres de la matrice sont inférieures à 1, ce qui signifie qu'elles se dissipent, mais le comportement correspondant à la distribution stationnaire persiste . Dans le dernier sujet, le professeur explique la martingale, qui est une autre collection de processus stochastiques, utilisée pour modéliser un jeu équitable. Un processus stochastique est considéré comme une martingale s'il s'agit d'un jeu équitable.

  • 01:00:00 Dans cette section, le conférencier explique comment un processus stochastique peut être une martingale, ce qui est un jeu équitable. Dans une martingale, si vous regardez ce qui pourrait arriver au temps t+1, la valeur attendue doit être exactement égale à la valeur au temps t, donc le processus est centré à ce point. Si c'est comme votre solde dans un jeu, on s'attend à ce que vous ne gagniez pas du tout d'argent. Le conférencier donne l'exemple d'une marche aléatoire, qui est une martingale. Cependant, un jeu de roulette dans un casino n'est pas une martingale puisque la valeur attendue est inférieure à 0, ce qui signifie que le joueur est conçu pour perdre de l'argent. Enfin, le conférencier montre un exemple amusant pour illustrer qu'il existe de nombreuses façons dont un processus stochastique peut être une martingale, en constituant l'exemple de X_k égal à 2 ou -1, selon la distribution de probabilité.

  • 01:05:00 Dans cette section, le concept de martingales a été introduit, qui sont des processus stochastiques conçus pour que la valeur attendue soit toujours égale à 1. Un exemple de martingale est une marche aléatoire qui fluctue beaucoup, mais en attente, maintient une valeur attendue de 1 à tout moment. Le théorème d'arrêt facultatif a également été discuté, qui stipule que jouer à un jeu de martingale garantit que vous ne gagnerez ni ne perdrez dans l'attente, quelle que soit la stratégie que vous utilisez. La définition du temps d'arrêt a également été expliquée, qui est une variable aléatoire à valeur entière non négative qui ne dépend que du processus stochastique jusqu'à un certain temps.

  • 01:10:00 Dans cette section, le professeur explique le concept de temps d'arrêt, qui est un ensemble prédéfini de stratégies qui ne reposent que sur les valeurs du processus stochastique jusqu'à un certain point, ce qui en fait un temps d'arrêt. Il donne un exemple de jeu de tirage au sort et montre comment le moment où le solde devient 100 $ ou négatif 50 $ est un temps d'arrêt, alors que le moment du premier pic ne l'est pas, car il dépend des valeurs futures. Le théorème d'arrêt facultatif stipule que s'il existe une martingale et un temps d'arrêt tau toujours inférieur ou égal à une constante T, la valeur au temps d'arrêt aura une valeur attendue égale à la valeur initiale de la martingale.

  • 01:15:00 Dans cette section, la vidéo traite d'un théorème montrant que si un joueur est modélisé à l'aide d'une martingale, quelle que soit la stratégie utilisée, le joueur ne peut pas gagner car le solde au début est toujours égal au solde lorsque le le joueur s'arrête. Bien que le conférencier ne prouve pas ce théorème, il fournit un corollaire intéressant qui montre que l'espérance de X_tau est égale à 0. Cela signifie que quel que soit le cas utilisé, qu'il s'arrête à $100, -50 ou non borné, le résultat reviendra toujours à 0. Le conférencier souligne que le contenu du théorème est intéressant car il implique que si quelque chose peut être modélisé à l'aide d'une martingale, le joueur n'est pas censé gagner.
5. Stochastic Processes I
5. Stochastic Processes I
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Choongbum Lee*NOT...