Trading Quantitatif - page 32

 

Two Sigma présente le Deep Learning pour les séquences en finance quantitative David Kriegman


Two Sigma présente le Deep Learning pour les séquences en finance quantitative David Kriegman

Au cours de la présentation, le conférencier présente l'événement et fournit des informations générales sur Two Sigma, une société renommée en sciences financières qui applique des méthodes scientifiques au domaine de la finance. Ils soulignent que Two Sigma opère dans plusieurs entreprises du secteur financier, y compris les fonds spéculatifs quantitatifs, les services de courtage, les investissements privés, les assurances et les solutions aux investisseurs. L'orateur met l'accent sur la diversité des parcours de l'auditoire, indiquant que la conférence s'adressera à des personnes de tous niveaux d'expertise, montrant comment l'apprentissage en profondeur peut être appliqué efficacement à la finance quantitative. Notamment, ils mentionnent que Two Sigma emploie environ 1600 professionnels dans le monde, dont 600 titulaires de diplômes supérieurs et plus de 200 titulaires d'un doctorat.

Ensuite, le conférencier introduit le concept d'apprentissage en profondeur pour les séquences et illustre son impact sur diverses applications au cours de la dernière décennie. Ils fournissent des exemples tels que la classification des sentiments, la reconnaissance de l'activité vidéo et la traduction automatique. L'orateur explique que les tâches de traitement de séquences impliquent de prendre des séquences en entrée et de générer des séquences en sortie, dont la longueur peut varier. Plus précisément, ils discutent de l'application de l'apprentissage en profondeur pour prédire les valeurs boursières à l'aide de séquences historiques. L'orateur souligne l'importance de prévoir à la fois les points hauts et les points bas afin de maximiser la rentabilité.

Ensuite, l'orateur se penche sur le pipeline d'investissement quantitatif typique en finance, qui englobe une séquence de processus impliqués dans la prise de décisions d'investissement. Ils décrivent les deux étapes clés du pipeline : la modélisation alpha et l'extraction des caractéristiques. La modélisation alpha consiste à prédire la direction des cours des actions à l'aide de modèles de retour à la moyenne ou de modèles de momentum. L'extraction de caractéristiques se concentre sur l'extraction de caractéristiques techniques du marché, telles que le prix, le volume et l'écart entre l'offre et la demande. L'orateur souligne que ces processus conduisent finalement à des décisions d'achat ou de vente sur les marchés, dans le but ultime de générer des profits et de minimiser les pertes. Ils soulignent l'importance d'éviter la prise de décision émotionnelle et soulignent l'importance de diversifier les portefeuilles dans le domaine de la finance.

Par la suite, David Kriegman de Two Sigma prend la parole pour discuter des facteurs qui jouent un rôle crucial dans la prise de décisions éclairées en matière de négociation d'actions. Le premier facteur mis en évidence est la collecte de données fondamentales, qui peuvent être obtenues par le biais de rapports directs d'entreprises ou déduites d'informations accessibles au public. De plus, l'analyse des sentiments peut être effectuée en interprétant des données non structurées provenant de sources telles que les actualités, les médias sociaux et les commentaires d'analystes. L'orateur introduit l'idée d'utiliser des sources non traditionnelles, telles que le nombre de voitures dans un parc de stationnement ou la congestion des porte-conteneurs dans un port, pour recueillir des informations qui peuvent indiquer la performance d'un stock spécifique. Après avoir utilisé le modèle alpha pour faire des prédictions sur la performance des actions, la prochaine étape du pipeline implique l'optimisation du portefeuille. Cette étape implique souvent de résoudre des problèmes d'optimisation à grande échelle et de prendre en compte des facteurs tels que les stocks actuels, la confiance dans les prévisions, les exigences de diversification et les coûts de transaction associés. Enfin, la phase d'exécution consiste à prendre des décisions sur la taille, le placement et le type d'ordre, à l'aide d'un modèle pour comprendre l'impact potentiel de ces actions.

Revenant sur le sujet de l'apprentissage en profondeur, l'orateur souligne la nature séquentielle du pipeline décisionnel financier quantitatif. Ils se concentrent ensuite sur l'apprentissage en profondeur, le décrivant comme un type de réseau de neurones caractérisé par plusieurs couches. L'orateur discute des développements significatifs des réseaux de neurones depuis leur introduction initiale dans les années 1950, y compris l'émergence de nouvelles architectures de réseau, la disponibilité d'ensembles de données de formation massifs et les progrès du calcul parallèle. Pour illustrer l'idée de base derrière un perceptron unique, l'orateur explique comment il prend des entrées, calcule une somme pondérée et transmet le résultat à travers une fonction non linéaire. Ils mentionnent que la fonction d'activation traditionnelle, un seuil, a été remplacée par une alternative appelée unité linéaire rectifiée (ReLU), qui produit zéro pour les valeurs inférieures à un seuil et la valeur réelle pour les valeurs supérieures.

Poursuivant sur le thème des réseaux de neurones, le conférencier introduit le concept de perceptron multicouche. Dans cette architecture, chaque cercle représente un perceptron avec sa propre fonction d'activation et son propre ensemble de poids. Cela peut être représenté par une paire de matrices de pondération, permettant la création de réseaux plus importants. L'orateur poursuit en discutant de l'application des réseaux de neurones pour la modélisation alpha, en particulier pour prédire les cours des actions en fonction des performances historiques. Le réseau est entraîné à l'aide d'un ensemble de données d'entraînement comprenant à la fois des données sur les caractéristiques et les prix, dans le but d'optimiser la perte totale. Ce processus de formation implique diverses techniques telles que la rétropropagation et la descente de gradient stochastique.

Pour améliorer davantage le modèle alpha, l'orateur explique l'importance d'intégrer plusieurs fonctionnalités plutôt que de se fier à un seul signal, tel que le prix ou l'historique. En combinant toutes les fonctionnalités pertinentes, un modèle plus puissant et plus précis peut être créé. Cependant, l'utilisation d'un réseau entièrement connecté avec cette approche peut entraîner un problème connu sous le nom de malédiction de la dimensionnalité, car le nombre de poids devient extrêmement important et tous ne peuvent pas être entraînés efficacement. Pour surmonter ce défi, l'orateur introduit une autre classe de réseaux de traitement de séquences appelés réseaux de neurones récurrents (RNN). Ces réseaux introduisent un aspect mémoire et remontent les informations, construisant un état à chaque instant. En conséquence, le problème d'avoir un nombre excessif de poids est atténué. Dans les RNN, les poids sont partagés entre chaque élément, ce qui rend le réseau profond et fournit une solution traitable.

Le conférencier souligne les difficultés de la formation de réseaux profonds et comment les réseaux fermés, tels que les unités récurrentes fermées (GRU) et les réseaux à mémoire longue et à court terme (LSTM), relèvent ces défis. Les réseaux fermés intègrent des portes analogiques qui contrôlent le flux d'informations et permettent la mise à jour des états précédents avec de nouveaux états potentiels. Les composants de ces réseaux sont différenciables, ce qui permet de les entraîner par rétropropagation. Par rapport aux LSTM, les GRU ont des capacités de mémoire plus longues.

Discutant de diverses architectures utilisées dans l'apprentissage en profondeur pour les séquences, le conférencier présente les réseaux LSTM et GRU, ainsi que des développements plus récents tels que les réseaux de neurones convolutifs (CNN), les mécanismes d'attention et les transformateurs. Ils abordent également l'apprentissage par renforcement, qui optimise les processus décisionnels séquentiels comme ceux impliqués dans les interactions commerciales et de marché. Alors que l'apprentissage par renforcement a fait ses preuves dans les jeux, son application à la finance nécessite des simulateurs appropriés, une infrastructure logicielle robuste et des ressources de calcul importantes. Globalement, le conférencier souligne que les différentes architectures et modèles évoqués représentent des outils puissants pour la finance quantitative, chacun avec ses propres avantages et défis.

Revenant à la contribution de David Kriegman, il met en lumière le pipeline utilisé dans la finance quantitative et la manière dont les réseaux de neurones profonds peuvent être formés pour en mettre en œuvre différentes parties. Il souligne les vastes opérations de Two Sigma, qui impliquent de négocier des milliers d'actions et de prendre des centaines de millions de décisions chaque jour. La gestion d'aussi grandes quantités de données nécessite une puissance de calcul considérable, une infrastructure logicielle robuste et une équipe de personnes créatives. Répondant aux préoccupations concernant le manque d'explicabilité et d'interprétabilité associé aux réseaux de neurones profonds et leur impact sur le développement de la stratégie, Kriegman explique que certaines architectures peuvent introduire des représentations interprétables. Il souligne également que dans les scénarios de trading en évolution rapide, différentes distributions sont nécessaires. De plus, Two Sigma intègre des commerçants humains qui surveillent et mettent en œuvre des systèmes lors d'événements de marché extrêmes.

L'orateur discute de la manière dont les approches d'apprentissage profond peuvent interagir avec l'hypothèse d'un marché efficace de la finance quantitative. Alors que le marché est généralement considéré comme efficace, l'apprentissage en profondeur peut faciliter une réponse plus rapide aux informations et offrir des méthodes alternatives d'assimilation des données, identifiant potentiellement les inefficacités et les opportunités d'investissement. Ils mettent également en évidence la pertinence des techniques de vision par ordinateur dans la modélisation séquentielle au sein de la finance, en particulier lors des premières étapes d'extraction de caractéristiques à partir de données non structurées. Two Sigma recherche activement des personnes pour des rôles d'ingénierie et de modélisation, et bien que différents rôles s'alignent sur différentes équipes, l'application de l'apprentissage en profondeur imprègne toute l'organisation. Les récents diplômés universitaires et les candidats au niveau de la maîtrise sont encouragés à postuler via le site Web Two Sigma.

Au cours de la session de questions-réponses, le conférencier aborde plusieurs défis associés à l'application de l'apprentissage en profondeur à la finance quantitative. L'un des principaux défis est le manque de stationnarité dans les séries chronologiques financières, car les modèles d'apprentissage en profondeur fonctionnent mieux lorsque l'avenir ressemble au passé. Pour aborder cette question, l'orateur insiste sur l'importance de la simulation et de la prédiction pour introduire des méthodes de transfert de domaine, permettant aux modèles de s'adapter aux conditions changeantes du marché. De plus, l'orateur note que le taux d'erreur dans la finance quantitative est généralement plus élevé que dans d'autres domaines, et même être légèrement supérieur à 50% peut fournir un avantage significatif dans le trading.

Interrogé sur les implications prometteuses pour la finance quantitative, l'orateur mentionne que presque tous les domaines de recherche dans l'apprentissage en profondeur et les réseaux de neurones ont des implications prometteuses. Ils mettent spécifiquement en évidence l'apprentissage par renforcement et le transfert de domaine comme domaines d'intérêt. En outre, ils reconnaissent les défis du stockage des données en finance et suggèrent que les techniques de compression des données peuvent être utiles pour résoudre ces problèmes.

Développant le sujet de l'équipe d'ingénierie responsable de la mise en œuvre des modèles d'apprentissage en profondeur dans la finance quantitative, l'orateur explique que l'équipe travaille sur diverses tâches, y compris la gestion du stockage, les systèmes physiques et les couches construites au-dessus de ces systèmes. Ils soulignent que les modèles d'apprentissage en profondeur et la modélisation statistique ont leurs rôles en fonction du cas d'utilisation spécifique. Cependant, ils notent que si un modèle profond est réduit à une forme dégénérée de régression linéaire, il perd son intérêt et sa puissance intrinsèques.

La présentation met l'accent sur l'application de l'apprentissage profond en finance quantitative, en particulier dans le contexte du traitement de séquences et des pipelines de prise de décision. Il met en évidence les défis et les opportunités qui se présentent lors de l'utilisation de réseaux de neurones profonds dans ce domaine, y compris le besoin d'interprétabilité, la non-stationnarité et l'exploitation de diverses architectures. Tout au long de la présentation, Two Sigma est présentée comme une entreprise de premier plan intégrant activement des techniques d'apprentissage en profondeur dans ses opérations et recherchant activement des personnes talentueuses pour rejoindre son équipe.

  • 00:00:00 L'orateur présente l'événement et donne quelques informations sur Two Sigma, une société de sciences financières qui applique des méthodes scientifiques à la finance. Ils expliquent que la société opère dans diverses activités du secteur financier, notamment les fonds spéculatifs quantitatifs, les courtiers, les investissements privés, les assurances et les solutions aux investisseurs. Ils parlent également de la diversité des parcours parmi le public et soulignent que leur conférence fournira des idées à tous les niveaux sur la façon dont l'apprentissage en profondeur peut être appliqué à la finance quantitative. Enfin, ils mentionnent que 1600 personnes travaillent chez Two Sigma dans le monde, dont 600 titulaires de diplômes supérieurs et plus de 200 titulaires d'un doctorat.

  • 00:05:00 L'orateur présente le concept d'apprentissage en profondeur pour les séquences et son impact sur diverses applications au cours de la dernière décennie, telles que la classification des sentiments, la reconnaissance de l'activité vidéo et la traduction automatique. Il explique que les tâches de traitement de séquences prennent des séquences en entrée et produisent des séquences en sortie, qui peuvent être de longueurs identiques ou différentes. Le conférencier parle également de la prédiction des valeurs boursières à l'aide de séquences passées et souligne l'importance de prédire les points hauts et bas afin de gagner plus d'argent.

  • 00:10:00 L'orateur explique le pipeline d'investissement quantitatif typique en finance, impliquant une séquence de processus pour prendre des décisions d'investissement. Cela inclut la modélisation alpha, qui prédit la direction des cours boursiers via des modèles de réversion moyenne ou des modèles de momentum, et l'extraction de caractéristiques, qui implique des caractéristiques techniques telles que le prix, le volume et l'écart acheteur-vendeur. Le pipeline conduit finalement à des décisions d'achat ou de vente sur les marchés, dans le but de ne pas perdre d'argent et de réaliser des bénéfices. Le conférencier insiste sur l'importance d'éviter les prises de décision émotionnelles et de diversifier les portefeuilles en finance.

  • 00:15:00 David Kriegman de Two Sigma présente les différents facteurs à prendre en compte lors de la prise de décision en matière de négociation d'actions. La première consiste à recueillir des données fondamentales, qui peuvent être directement communiquées par l'entreprise ou déduites sur la base d'informations accessibles au public. De plus, l'analyse des sentiments peut être effectuée en interprétant des données non structurées provenant de sources telles que les actualités, les médias sociaux et les commentaires d'analystes. Des sources non traditionnelles, comme le nombre de voitures dans un parc de stationnement ou de porte-conteneurs de secours dans un port, peuvent également fournir des informations sur la performance d'un stock particulier. Après avoir utilisé le modèle alpha pour faire des prédictions sur la performance des actions, l'étape suivante consiste à optimiser le portefeuille. Cela est souvent géré par des problèmes d'optimisation à grande échelle et nécessite de déterminer la quantité de stock déjà détenue, la confiance dans les prévisions, la diversification des investissements et les coûts associés à la réalisation des transactions. Enfin, l'exécution est la dernière étape au cours de laquelle les décisions concernant la taille, le placement et le type de la commande sont prises, et un modèle est utilisé pour comprendre l'impact des actions entreprises.

  • 00:20:00 L'orateur présente le pipeline de prise de décisions d'achat et de vente en finance quantitative, y compris l'extraction de caractéristiques, la modélisation alpha et l'exécution, et met l'accent sur la nature séquentielle du processus. L'accent est ensuite mis sur l'apprentissage en profondeur, qui est un type de réseau de neurones caractérisé par un grand nombre de couches. Le conférencier explique les changements clés qui se sont produits depuis la première introduction des réseaux de neurones dans les années 1950, tels que les nouvelles architectures de réseau, les quantités massives de données de formation et le calcul parallèle massif. L'orateur illustre ensuite l'idée de base d'un perceptron unique, qui prend des entrées et calcule une somme pondérée avant de passer le résultat par une fonction non linéaire. La fonction d'activation traditionnelle était un seuil mais a été remplacée par une alternative appelée unité linéaire rectifiée (ReLU), qui produit zéro pour les valeurs inférieures à un seuil et la valeur réelle sinon.

  • 00:25:00 L'orateur introduit le concept d'un perceptron multicouche, dans lequel chaque cercle représente un perceptron avec sa propre fonction d'activation et son propre ensemble de poids. Cela peut être représenté par une paire de matrices de pondération, permettant la création de réseaux plus importants. Ensuite, le conférencier discute de l'utilisation d'un réseau de neurones pour la modélisation alpha afin de prédire le prix d'une action, en fonction de ses performances passées. Le réseau est formé à l'aide d'un ensemble de données de formation qui comprend des caractéristiques et des données de prix, avec l'objectif d'optimisation de minimiser la perte totale. Ceci est réalisé grâce à un ensemble de techniques d'entraînement, telles que la rétropropagation et la descente de gradient stochastique.

  • 00:30:00 L'orateur explique comment créer un modèle alpha en utilisant plusieurs fonctionnalités au lieu d'un seul signal tel que le prix ou l'historique. En prenant toutes les fonctionnalités pertinentes et en les combinant, un modèle plus puissant pourrait être créé. Cependant, l'utilisation d'un réseau entièrement connecté avec cette approche crée un problème car le nombre de poids peut être très important et tous ne peuvent pas être formés. Pour résoudre ce problème, l'orateur introduit une autre classe de réseaux de traitement de séquences, appelés réseaux de neurones récurrents. Ces réseaux introduisent un aspect mémoire et renvoient les informations vers l'arrière, construisant un état à chaque instant, et atténuant par conséquent le problème d'avoir trop de poids. Les poids de ces réseaux sont partagés entre chaque élément, ce qui rend ce réseau profond et fournit une solution traitable.

  • 00:35:00 L'orateur discute des difficultés de la formation de réseaux profonds et de la manière dont les réseaux fermés, tels que les GRU et les LSTM, peuvent résoudre ces problèmes en permettant aux informations de se propager plus loin dans le temps. Les réseaux fermés utilisent des portes analogiques pour contrôler la quantité d'informations qui circulent et mettre à jour l'état précédent avec un nouvel état potentiel. Les composants des réseaux fermés sont différenciables et donc entraînables par rétropropagation. Les GRU ont une mémoire plus longue que les LSTM, qui signifie mémoire longue à court terme.

  • 00:40:00 L'orateur discute de diverses architectures utilisées dans l'apprentissage en profondeur pour les séquences, y compris les réseaux LSTM et GRU, ainsi que des développements plus récents tels que les réseaux de neurones convolutifs, les mécanismes d'attention et les transformateurs. Ils introduisent également l'apprentissage par renforcement, qui optimise les processus décisionnels séquentiels tels que ceux impliqués dans le commerce et l'interaction avec le marché. Bien que l'apprentissage par renforcement ait été couronné de succès dans les jeux, son application à la finance nécessite un bon simulateur, une infrastructure logicielle et beaucoup de calculs. Dans l'ensemble, les différentes architectures et modèles discutés représentent des outils puissants pour la finance quantitative, chacun avec ses propres avantages et défis.

  • 00:45:00 David Kriegman discute du pipeline utilisé dans la finance quantitative et de la manière dont les réseaux de neurones profonds peuvent être formés pour en mettre en œuvre certaines parties. Il mentionne que Two Sigma opère à grande échelle, négocie des milliers d'actions et prend des centaines de millions de décisions par jour. Pour gérer cette quantité de données, ils ont besoin de beaucoup de calculs, d'une bonne infrastructure logicielle et de personnes créatives. Interrogé sur le manque d'explicabilité et d'interprétabilité associé aux réseaux profonds et sur la manière dont il affecte le développement de la stratégie, Kriegman explique que certaines architectures peuvent introduire des représentations interprétables, et que certaines décisions commerciales se produisent rapidement et nécessitent différentes distributions. De plus, Two Sigma a des commerçants humains qui surveillent et mettent en œuvre des systèmes lors d'événements de marché extrêmes.

  • 00:50:00 L'orateur a discuté de la manière dont les approches d'apprentissage en profondeur peuvent interagir avec l'hypothèse d'un marché efficace de la finance quantitative. Alors que le marché est généralement efficace, l'apprentissage en profondeur peut aider à réagir plus rapidement à l'information et à l'assimiler d'une manière différente, identifiant potentiellement les inefficacités et les opportunités d'investissement. Certains aspects de la vision par ordinateur peuvent également être pertinents pour la modélisation séquentielle en finance, en particulier dans les premières étapes de l'extraction de caractéristiques à partir d'informations non structurées. Two Sigma recrute activement pour les rôles d'ingénierie et de modélisation, et bien que différents rôles correspondent à différentes équipes, il existe une application définie de l'apprentissage en profondeur dans toute l'organisation. Les récents diplômés universitaires et les candidats au niveau de la maîtrise sont encouragés à postuler via le site Web Two Sigma.

  • 00:55:00 L'orateur répond aux questions sur les défis de l'application de l'apprentissage en profondeur à la finance quantitative. Plus précisément, le manque de stationnarité dans les séries chronologiques financières pose un problème pour l'apprentissage en profondeur, qui fonctionne mieux lorsque l'avenir ressemble beaucoup au passé. Pour résoudre ce problème, la mesure dans laquelle on peut simuler, prédire et introduire des méthodes de transfert de domaine est cruciale. De plus, l'orateur note que le taux d'erreur dans ce domaine est plus élevé que la plupart, et qu'être meilleur que 50% peut donner un avantage dans le trading. Interrogé sur les implications prometteuses pour la finance quantitative, l'orateur mentionne que presque tous les domaines de recherche dans l'apprentissage en profondeur et les réseaux de neurones ont des implications prometteuses, en particulier l'apprentissage par renforcement et le transfert de domaine. Enfin, il existe des problèmes de stockage de données qui doivent être résolus, et les techniques de compression des données sont utiles dans ce processus.

  • 01:00:00 L'orateur explique la diversité de l'équipe d'ingénierie responsable de l'exécution des modèles d'apprentissage en profondeur pour la finance quantitative. L'équipe travaille sur diverses tâches, notamment le stockage, les systèmes physiques et les couches qui reposent sur ces systèmes physiques. De plus, lorsqu'il s'agit de modèles d'apprentissage en profondeur par rapport à la modélisation statistique, les deux ont des rôles à jouer en fonction de l'utilisation, et si un modèle en profondeur est transformé en une forme dégénérée de régression linéaire, il n'est plus intéressant.
 

Two Sigma Presents : Modèles d'apprentissage automatique des données financières


Two Sigma Presents : Modèles d'apprentissage automatique des données financières

Justin Ceriano de Two Sigma Securities propose une présentation complète sur l'intégration des modèles d'apprentissage automatique dans le domaine de la finance. Il commence par souligner l'intérêt croissant des sociétés financières à tirer parti de l'apprentissage automatique pour améliorer leurs capacités prédictives et leurs processus de prise de décision. Plus précisément, les algorithmes d'apprentissage automatique peuvent être utilisés pour prédire les prix futurs des instruments financiers et déterminer les stratégies de négociation optimales.

Ceriano introduit le concept d'apprentissage par renforcement, qui relève d'une classe de méthodes capables d'apprendre des politiques de décision directement à partir des données disponibles afin de maximiser une fonction objectif appropriée. L'apprentissage par renforcement s'avère particulièrement précieux en finance, où l'objectif est d'optimiser les résultats sur la base de données historiques.

L'un des aspects fondamentaux abordés est l'application de modèles d'apprentissage automatique pour analyser les carnets d'ordres limités sur les marchés électroniques. Dans ce système, les acheteurs et les vendeurs soumettent des ordres spécifiant les prix auxquels ils sont prêts à acheter ou à vendre un actif particulier. Ces ordres sont ensuite appariés en fonction du meilleur prix vendeur ou acheteur disponible. Ceriano souligne que les données du carnet de commandes, qui représentent l'offre et la demande visibles d'un stock, forment une séquence de grande dimension qui peut être utilisée efficacement pour prédire les futurs changements de prix à l'aide de modèles d'apprentissage automatique.

De plus, Ceriano souligne l'importance de considérer des spreads non nuls dans les stratégies de trading. Ces écarts peuvent avoir un impact sur la rentabilité des prévisions de prix, nécessitant ainsi une évaluation et un ajustement minutieux.

Pour démontrer la mise en œuvre pratique des modèles d'apprentissage automatique, Ceriano explique la construction d'un réseau neuronal récurrent conçu pour prédire les variations de prix à l'aide de données financières à haute fréquence. Le modèle est formé pour prévoir si le prochain changement de prix sera positif ou négatif, et ses performances sont comparées à un modèle récurrent linéaire. L'ensemble de données utilisé consiste en trois années de données à haute fréquence événement par événement pour environ 1 000 actions. L'objectif est d'évaluer si les modèles d'apprentissage automatique non linéaires, tels que les réseaux récurrents, surpassent les modèles statistiques linéaires dans la capture des relations non linéaires au sein des données. L'optimisation des prédictions des modèles est obtenue grâce à l'algorithme de rétropropagation, minimisant l'erreur de prédiction. Pour réduire les coûts de calcul, l'algorithme de rétropropagation tronquée dans le temps est utilisé.

Les défis liés à l'optimisation des réseaux récurrents, en particulier le problème bien connu du gradient de fuite, sont abordés dans la présentation. Le problème du gradient de fuite fait référence au problème des gradients qui deviennent extrêmement petits lorsqu'ils se propagent à travers les couches inférieures du réseau. Par conséquent, cela peut entraver la vitesse d'apprentissage et rendre difficile pour le réseau de retenir les informations des parties éloignées de la séquence. Ceriano présente le réseau Long Short-Term Memory (LSTM), l'un des types de réseaux récurrents les plus populaires, qui a été spécialement conçu pour résoudre ce problème en mettant à jour efficacement l'état de la mémoire, permettant ainsi au modèle de conserver des informations pertinentes de loin dans le passé.

La présentation aborde ensuite la formation et l'évaluation des modèles d'apprentissage automatique à l'aide de données de carnet de commandes à haute fréquence. Les auteurs comparent la précision d'un modèle linéaire à celle d'un réseau récurrent LSTM, et les résultats indiquent clairement les performances supérieures du modèle d'apprentissage en profondeur lorsqu'il est testé sur environ 500 actions sur une période hors échantillon de trois mois. La discussion approfondit également la nature universelle de la relation entre les données du carnet de commandes et les mouvements de prix, suggérant l'existence d'un modèle universel de formation des prix applicable à plusieurs actions. Cette découverte a des implications pratiques importantes, telles que la réduction des coûts de calcul et la capacité d'améliorer un modèle pour un stock en utilisant les données d'un autre.

L'expérience vise à former un modèle universel en regroupant les données de nombreux stocks et en évaluant sa précision par rapport aux modèles spécifiques aux stocks. Les résultats démontrent systématiquement la supériorité du modèle universel, indiquant une universalité partagée dans la dynamique du carnet de commandes entre les différentes actions. Cela réduit non seulement le surajustement, mais améliore également la précision du modèle. De plus, le modèle universel présente une stabilité pendant plus d'un an et une évolutivité à l'aide d'un calcul haute performance, utilisant 25 GPU avec descente de gradient stochastique asynchrone.

La présentation explore également l'application de l'apprentissage par renforcement pour optimiser les stratégies de soumission des commandes pour une exécution optimale. L'accent est mis sur l'élaboration de politiques pour les ordres au marché ou les ordres limités d'une action, visant à maximiser les récompenses attendues et les économies de coûts dans des intervalles de temps discrets. En utilisant les données historiques du carnet de commandes, le modèle d'apprentissage par renforcement est formé pour simuler les prix exécutés pour les petites commandes. Le modèle détermine s'il faut soumettre un ordre au marché immédiatement ou attendre que le meilleur cours vendeur diminue, en utilisant les données du carnet d'ordres limités comme entrée. La performance du modèle est évaluée à l'aide d'une année de données, puis testée sur un ensemble de données distinct de six mois.

Les résultats de simulation sur un univers de 100 actions sont présentés, en considérant des horizons temporels de 10 et 60 secondes pour une stratégie d'apprentissage par renforcement des ordres de marché uniquement et une stratégie d'ordres limités simples. Les résultats indiquent systématiquement des économies de coûts positives réalisées par le modèle d'apprentissage par renforcement sur les 50 stocks, bien qu'avec une certaine variabilité. De plus, les économies de coûts ont tendance à augmenter avec des horizons temporels plus longs. La présentation introduit le concept d'utilisation des données historiques du carnet d'ordres pour simuler si un ordre à cours limité soumis sera exécuté dans un intervalle de temps spécifique. Le modèle d'apprentissage par renforcement est formé pour sélectionner dynamiquement le moment optimal pour maximiser les économies de coûts attendues. Bien que les économies de coûts varient selon les actions, la stratégie d'apprentissage par renforcement donne systématiquement des résultats positifs, certaines actions affichant des économies de coûts nettement plus élevées que d'autres.

La présentation se termine en abordant la nécessité de développer des méthodes d'optimisation avancées et des architectures d'apprentissage en profondeur spécifiquement adaptées aux données financières. Il met l'accent sur les défis actuels liés à la fusion de l'apprentissage par renforcement avec des simulations précises pour des commandes de plus grande taille afin d'améliorer encore l'application de l'apprentissage automatique dans la finance. Pour saisir efficacement les concepts abordés, Ceriano recommande d'acquérir une expérience pratique en mettant en œuvre des techniques d'apprentissage automatique sur des ensembles de données à grande échelle. Il souligne l'importance de comprendre la théorie mathématique sous-jacente et de maîtriser les bibliothèques d'apprentissage en profondeur telles que TensorFlow et PyTorch. De plus, les compétences en calcul haute performance pour la parallélisation de la formation de modèles sont soulignées.

De plus, les présentateurs discutent des politiques d'embauche de Two Sigma et des possibilités de travail à distance. Bien qu'une politique de travail à distance à temps plein ne soit pas en place, Two Sigma embauche des personnes de divers pays du monde et exploite une équipe en ligne appelée Alpha Studio pour le travail à distance. Ils soulignent l'importance d'acquérir des connaissances en finance quantitative, en probabilités et en statistiques par le biais de plusieurs cours pour ceux qui souhaitent poursuivre l'apprentissage automatique en finance. La présentation mentionne également l'utilisation de bibliothèques d'apprentissage en profondeur telles que TensorFlow et PyTorch dans la base de code de Two Sigma.

Le processus d'embauche chez Two Sigma est discuté, en mettant l'accent sur le recrutement qui se déroule tout au long de l'année, en particulier pendant l'été. Des exceptions sont faites pour les embauches d'automne et de printemps, et l'entreprise encourage les personnes intéressées à commencer le plus tôt possible, même si cela signifie commencer en décembre. Les présentateurs suggèrent que des projets impressionnants impliquent l'identification de modèles et de tendances dans des données réelles et l'application d'approches d'apprentissage automatique pour résoudre des problèmes du monde réel. L'appropriation du projet et la valorisation de ses apports au sein du projet sont mises en avant comme des qualités précieuses recherchées par les recruteurs. L'équipe de recherche fondamentale sur les actions de Two Sigma, qui collabore étroitement avec des ingénieurs et des scientifiques des données, est également brièvement mentionnée.

La distinction entre un scientifique des données et un chercheur quantique chez Two Sigma est élucidée. Alors que les deux postes impliquent la modélisation et le trading, la science des données se concentre principalement sur l'aspect science des données et l'ingénierie des fonctionnalités, tandis que les chercheurs quantitatifs considèrent l'ensemble du processus de trading du début à la fin. Les présentateurs abordent la culture de bureau et les réunions chez Two Sigma, décrivant les réunions comme étant principalement informelles et proposant des tableaux blancs pour des discussions collaboratives. Des présentations préparées sont parfois requises pour des réunions spécifiques.

Enfin, les avantages de l'utilisation d'un modèle universel par rapport à des modèles spécifiques à un stock sont mis en évidence. La capacité du modèle universel à tirer parti de l'apprentissage par transfert et à atténuer les problèmes de surapprentissage est soulignée comme un avantage clé. La présentation se termine en mentionnant que la session enregistrée sera disponible sur la chaîne YouTube de Two Sigma et en soulignant les pratiques d'embauche mondiales de l'entreprise, la majorité des embauches étant basées aux États-Unis.

  • 00:00:00 Justin Ceriano de Two Sigma Securities présente le concept de modèles d'apprentissage automatique en finance. Il explique comment les sociétés financières souhaitent utiliser l'apprentissage automatique pour faire des prédictions et prendre des décisions, telles que prédire le prix futur d'un instrument financier et déterminer une stratégie de trading optimale. Ceriano souligne que l'apprentissage par renforcement est une classe de méthodes, qui peuvent apprendre des politiques de décision directement à partir des données dans le but de maximiser une fonction objective appropriée. Il conclut en discutant des défis du surajustement avec des données insuffisantes, des avantages des modèles d'apprentissage en profondeur et de l'importance du calcul haute performance pour former de grands modèles sur des ensembles de données financières à haute fréquence.

  • 00:05:00 Le concept de carnets d'ordres à cours limité sur les marchés électroniques est introduit, où les acheteurs et les vendeurs soumettent des ordres à des prix auxquels ils sont prêts à acheter ou à vendre, et sont appariés en fonction du meilleur prix vendeur ou acheteur. L'offre et la demande visibles d'un stock sont représentées par les données du carnet de commandes et constituent une séquence de grande dimension utilisée pour prédire les futures variations de prix à l'aide de modèles d'apprentissage automatique. Il est également important de prendre en compte les spreads non nuls dans les stratégies de trading, ce qui peut rendre les prévisions de prix moins rentables.

  • 00:10:00 Un réseau neuronal récurrent est mis en place pour prédire les variations de prix dans les données financières à haute fréquence. Le modèle prédira si le prochain changement de prix est positif ou négatif, et les résultats seront comparés à un modèle récurrent linéaire. L'ensemble de données se compose de trois années de données à haute fréquence événement par événement pour environ 1 000 actions. Les performances du modèle d'apprentissage en profondeur seront évaluées pour déterminer si les modèles d'apprentissage automatique non linéaires, comme les réseaux récurrents, peuvent surpasser les modèles statistiques linéaires dans l'apprentissage des relations non linéaires dans les données. L'algorithme de rétropropagation sera utilisé pour optimiser sur la fonction objectif afin de minimiser l'erreur de prédiction. La rétropropagation tronquée à travers l'algorithme temporel est utilisée pour réduire les coûts de calcul.

  • 00:15:00 La vidéo explique comment optimiser les réseaux récurrents, ce qui est similaire dans l'esprit à l'optimisation d'un réseau à anticipation multicouche. Cependant, le problème du gradient de fuite est un défi bien connu, où l'amplitude du gradient est faible par rapport aux couches inférieures du réseau. Cela peut ralentir la formation, compliquer la formation des réseaux pour qu'ils se souviennent de données lointaines dans le passé et conduire à une descente de gradient stochastique pour converger lentement. La transcription présente également le réseau LSTM comme l'un des types de réseaux récurrents les plus populaires, qui est conçu pour mettre à jour efficacement l'état de la mémoire dans le but d'aider le modèle à mémoriser des données de loin dans le passé dans la séquence.

  • 00:20:00 Les auteurs décrivent comment ils ont formé une série de modèles d'apprentissage automatique sur des données de carnet de commandes à haute fréquence et évalué leurs performances sur un ensemble de données de test. Les auteurs ont comparé la précision du modèle linéaire au réseau récurrent LSTM et ont constaté que le modèle d'apprentissage en profondeur surpasse clairement le modèle linéaire dans un ensemble de données de test d'environ 500 actions sur une période de test hors échantillon de trois mois. Ils examinent la question de savoir si la relation entre les données du carnet de commandes et les mouvements de prix est universelle entre les actions ou si les actions individuelles ont besoin de leur propre modèle et trouvent des preuves solides d'un modèle universel de formation des prix mappant le flux de commandes aux variations de prix. Ils discutent également des implications pratiques de cette découverte, notamment des coûts de calcul réduits et la possibilité d'améliorer le modèle d'un stock en utilisant les données d'un autre.

  • 00:25:00 L'expérience vise à former un modèle universel en regroupant les données de centaines de stocks et en comparant sa précision avec celle des modèles spécifiques aux stocks. Le résultat montre que le modèle universel surpasse systématiquement les modèles spécifiques aux actions, indiquant une universalité partagée dans la dynamique du carnet de commandes des différentes actions. Cela permet de réduire le surajustement et d'améliorer la précision du modèle. De plus, le modèle universel est capable de se généraliser à de nouveaux stocks, démontrant la stabilité du modèle pendant plus d'un an et l'évolutivité du modèle à l'aide d'un calcul haute performance utilisant 25 GPU avec descente de gradient stochastique asynchrone. Le deuxième exemple présenté dans cette section est l'exécution optimale où l'apprentissage par renforcement est utilisé pour développer des stratégies de soumission d'ordres. Cependant, la politique optimale pour un processus de décision de Markov est difficile en raison de la probabilité de transition inconnue.

  • 00:30:00 La vidéo explique comment l'apprentissage par renforcement peut être utilisé pour apprendre des politiques optimales pour un exemple simple d'exécution d'ordre. Le modèle d'apprentissage par renforcement est formé pour simuler avec précision le prix exécuté pour une petite commande à l'aide des données historiques du carnet de commandes. L'accent est mis sur l'exécution optimale d'un ordre au marché ou d'un ordre limité d'une action, dans le but de maximiser la récompense attendue et les économies de coûts pour chaque moment discret jusqu'à l'horizon temporel. Le modèle d'apprentissage par renforcement sélectionne s'il faut soumettre l'ordre au marché ou attendre que le meilleur cours vendeur diminue, l'entrée étant les données du carnet d'ordres limités et le modèle étant évalué sur une année de données, puis testé sur six mois de données.

  • 00:35:00 La vidéo présente les résultats de simulation sur l'univers de 100 actions avec des horizons temporels de 10 et 60 secondes pour la stratégie d'apprentissage par renforcement des ordres de marché uniquement et la stratégie d'ordre limite simple. Les résultats montrent que le modèle d'apprentissage par renforcement fournit systématiquement des économies de coûts positives, bien qu'avec une variabilité significative, sur les 50 stocks. Les économies de coûts augmentent en général compte tenu d'un horizon temporel plus long. La vidéo présente également l'utilisation des données historiques du carnet de commandes pour simuler si l'ordre limité soumis pour une action sera exécuté ou non dans l'intervalle de temps et former le modèle d'apprentissage par renforcement pour sélectionner de manière adaptative le moment afin de maximiser les économies de coûts attendues. Les résultats montrent que la stratégie d'apprentissage par renforcement fournit systématiquement des économies de coûts positives, bien que les économies de coûts varient pour certains stocks, alors qu'elles sont relativement importantes pour d'autres.

  • 00:40:00 La vidéo met en évidence la nécessité de développer de meilleures méthodes d'optimisation et des architectures d'apprentissage en profondeur spécialement conçues pour les données financières. Il reste des défis à relever, tels que la fusion de l'apprentissage par renforcement avec des simulations précises pour des commandes plus importantes afin d'appliquer l'apprentissage automatique aux données financières. Justin recommande que la meilleure façon d'apprendre l'apprentissage automatique est de l'implémenter de première main sur des ensembles de données à grande échelle et de comprendre la théorie mathématique qui le sous-tend. Il est essentiel d'avoir une expérience dans les bibliothèques d'apprentissage profond telles que PiTorch ou TensorFlow et le calcul haute performance pour paralléliser la formation de modèles pour appliquer l'apprentissage automatique aux données financières. Enfin, l'enregistrement de la session sera disponible sur leur chaîne YouTube, et Two Sigma embauche dans le monde entier avec la plupart de leurs embauches basées aux États-Unis.

  • 00:45:00 Des représentants de Two Sigma parlent de leurs politiques d'embauche et de travail à distance. Bien qu'ils n'aient pas de politique de travail à distance à temps plein, ils embauchent des personnes de différents pays du monde et disposent d'une équipe en ligne appelée Alpha Studio pour le travail à distance. Ils discutent également de l'importance de suivre plusieurs cours en finance quantitative, en probabilités et en statistiques pour ceux qui s'intéressent à l'apprentissage automatique dans ce domaine. Enfin, les présentateurs révèlent que leur code comporte les bibliothèques d'apprentissage en profondeur TensorFlow et PyTorch.

  • 00:50:00 Les conférenciers discutent du processus d'embauche chez Two Sigma et des différentes périodes de l'année où ils embauchent, en mettant l'accent sur l'été mais en faisant également des exceptions pour l'automne et le printemps. Ils mentionnent également qu'ils embauchent sur une base continue et encouragent les gens à commencer le plus tôt possible, même si cela signifie commencer en décembre. En termes de projets qui seraient intéressants pour les recruteurs, ils suggèrent de trouver des modèles et des tendances dans les données réelles et d'appliquer des approches d'apprentissage automatique aux problèmes du monde réel, en mettant l'accent sur la propriété du projet et en mettant en évidence ce que l'individu possédait dans le projet sur lequel il travaillait. sur. Les conférenciers mentionnent également l'équipe de recherche fondamentale sur les actions de Two Sigma, qui travaille en étroite collaboration avec les ingénieurs, les scientifiques des données et d'autres secteurs de l'entreprise. Enfin, ils abordent une question sur l'utilisation de l'apprentissage par renforcement pour optimiser les exécutions de trading automatisées.

  • 00:55:00 L'orateur discute de la différence entre un scientifique des données et un chercheur quantitatif chez Two Sigma. Alors que les deux postes impliquent la modélisation et le trading, la science des données se concentre sur l'aspect science des données et l'ingénierie des fonctionnalités, tandis que la recherche quantitative considère l'image complète du trading du début à la fin. L'orateur répond également à une question sur la culture de bureau et les réunions chez Two Sigma, expliquant que bien qu'il y ait des réunions occasionnelles qui nécessitent des présentations préparées, les réunions sont plus généralement décontractées avec des tableaux blancs disponibles pour les discussions. Enfin, le conférencier discute des avantages d'un modèle universel par rapport à un modèle spécifique à un stock, citant l'apprentissage par transfert et le potentiel de problèmes de surajustement comme raisons pour lesquelles un seul modèle universel formé sur un ensemble de données combiné peut surpasser les modèles spécialisés.
 

clés du succès dans le trading algorithmique | Baladodiffusion | Dr EP Chan


clés du succès dans le trading algorithmique | Baladodiffusion | Dr EP Chan

Le trading quantitatif, ou le trading en général, est considéré comme l'une des professions les plus difficiles à percer et à réussir. Le Dr DE Shaw, pionnier du trading quantitatif et fondateur d'un fonds spéculatif de plusieurs milliards de dollars à New York, a reconnu que le domaine est devenu de plus en plus difficile d'année en année. Ce sentiment est partagé par de nombreux commerçants expérimentés dans l'industrie.

Malgré sa difficulté, le trading quantitatif vaut toujours la peine d'être poursuivi pour ceux qui en sont passionnés. Tout comme devenir un acteur, un chanteur, un mannequin ou un écrivain à succès, réussir dans le trading algorithmique nécessite du dévouement et de la persévérance. Bien que tout le monde ne puisse pas atteindre le niveau de commerçants renommés comme DE Shaw ou Renaissance Technologies, les commerçants en herbe ne doivent pas être découragés. Il est important d'être préparé à l'échec car le succès dans ce domaine est une valeur aberrante.

Pour les personnes qui ne sont pas déjà dans le secteur financier, il est conseillé de ne pas quitter leur emploi de jour immédiatement après avoir obtenu leur diplôme et commencé leur première stratégie de trading. Il est recommandé d'avoir au moins deux stratégies de trading rentables en cours d'exécution pendant une période de deux ans avant d'envisager le trading à plein temps. Ce conseil est basé sur l'expérience personnelle et les expériences d'autres commerçants prospères.

Les traders commettent souvent l'erreur d'être trop optimistes quant aux performances passées d'une stratégie, ce qui les conduit à un effet de levier trop élevé. Il est crucial d'éviter un effet de levier excessif, car il peut rapidement anéantir les fonds propres d'un compte. De plus, la performance de la stratégie ne continue généralement pas à évoluer de la même manière. L'allocation de capital basée uniquement sur les performances passées est une erreur courante. Au lieu de cela, une allocation de parité des risques, où le capital est alloué de manière inversement proportionnelle à la volatilité d'une stratégie, est généralement une meilleure approche.

Une autre erreur courante consiste à ne pas investir les bénéfices dans l'équipement de données et le personnel pendant les périodes fastes. Il est essentiel de réinvestir une partie des bénéfices pour améliorer l'infrastructure de données et embaucher du personnel qualifié, car cela peut aider à prévenir de futurs prélèvements.

Sur une note positive, il est recommandé de commencer par des stratégies simples qui ont une justification intuitive. Il est sage de comprendre et d'améliorer les stratégies existantes avant de se plonger dans des approches plus complexes comme les réseaux de neurones récurrents ou l'apprentissage en profondeur. En commençant par des stratégies simples, les traders peuvent mieux comprendre les raisons des succès ou des échecs, en les attribuant à des facteurs spécifiques.

En conclusion, le trading quantitatif est une profession exigeante mais potentiellement enrichissante. Cela demande de la persévérance, un apprentissage continu et une prise de décision prudente. Bien qu'il y ait des pièges à éviter, il y a aussi de précieuses leçons à tirer des commerçants expérimentés. En commençant par des stratégies simples, en gérant les risques et en investissant dans l'infrastructure et le personnel, les futurs traders peuvent augmenter leurs chances de succès dans le domaine du trading quantitatif.

Keys to Success in Algorithmic Trading | Podcast | Dr. E.P. Chan
Keys to Success in Algorithmic Trading | Podcast | Dr. E.P. Chan
  • 2020.07.02
  • www.youtube.com
Dr. Ernest P. Chan is the Managing Member of QTS Capital Management, LLC. He has worked for various investment banks (Morgan Stanley, Credit Suisse, Maple) a...
 

"Arbitrage statistique de base : comprendre les mathématiques derrière le trading de paires" par Max Margenot


"Arbitrage statistique de base : comprendre les mathématiques derrière le trading de paires" par Max Margenot

Bienvenue au Quanto Peon Algorithmic Trading Meetup, un événement dédié à l'exploration du monde de la finance quantitative. Je suis Max Margit, un scientifique des données chez Quanto Peon, et aujourd'hui je vais me plonger dans le sujet fascinant de l'arbitrage statistique et les concepts statistiques fondamentaux qui y sont associés.

Avant de plonger dans les aspects théoriques, permettez-moi de vous présenter brièvement Quanto Peon. Notre objectif principal est de rendre la finance quantitative accessible à tous en proposant des outils open source gratuits qui permettent aux individus de rechercher et de développer leurs propres stratégies de trading algorithmique. Le trading algorithmique implique l'utilisation d'instructions pour exécuter automatiquement des transactions sur les marchés financiers, allant de règles simples comme l'achat d'actions Apple tous les jours à 10h00 à une analyse quantitative plus sophistiquée utilisant des modèles statistiques.

L'arbitrage statistique, au centre de la discussion d'aujourd'hui, tourne autour de l'exploitation des inefficacités du marché à l'aide d'analyses statistiques au lieu de s'appuyer sur des déséquilibres physiques. Cette approche vise à identifier et capitaliser sur les déséquilibres statistiques des prix des actifs. Pour mieux comprendre ce concept, il est crucial de comprendre certains concepts statistiques fondamentaux.

L'un des concepts clés que nous explorerons est la stationnarité, en particulier dans le contexte des données de séries chronologiques. La stationnarité fait référence à une série de points de données où chaque échantillon est tiré de la même distribution de probabilité avec des paramètres cohérents dans le temps. En termes plus simples, cela signifie que la moyenne et l'écart type des données restent constants dans le temps. Ceci est important car de nombreux modèles statistiques utilisés en finance supposent la stationnarité. En assurant la stationnarité, on peut se fier aux résultats obtenus à partir de ces modèles.

Pour illustrer le concept de stationnarité, générons quelques points de données. Je vais utiliser une fonction de base appelée "generate_data_point" pour créer un ensemble d'échantillons à partir d'une distribution normale standard. Ces échantillons représentent une série temporelle stationnaire souvent appelée bruit blanc. Dans ce cas, la moyenne est zéro et l'écart type est un. Lorsque nous traçons ces données, nous observons un motif aléatoire ressemblant à un bruit blanc.

Cependant, toutes les données de séries chronologiques ne présentent pas de stationnarité. Si nous introduisons une tendance dans la moyenne, la série chronologique devient non stationnaire. En finance, la non-stationnarité peut être beaucoup plus complexe que ce simple exemple. Les statistiques descriptives, telles que la moyenne, perdent leur sens pour les données non stationnaires car elles ne représentent pas avec précision l'ensemble de la série chronologique.

Maintenant, comment déterminer si une série chronologique est stationnaire ou non ? C'est là qu'interviennent les tests d'hypothèses, comme le test de Dickey-Fuller augmenté couramment utilisé dans l'analyse de stationnarité. Ce test nous aide à évaluer la probabilité qu'une série chronologique donnée soit non stationnaire.

Appliquons le test de Dickey-Fuller augmenté à nos données de séries chronologiques générées. Le test fournit une valeur de p, qui indique la probabilité de rejeter l'hypothèse nulle selon laquelle la série chronologique n'est pas stationnaire. Dans notre premier exemple, où les données ont été délibérément générées comme stationnaires, la valeur de p est proche de zéro. Cela nous permet de rejeter l'hypothèse nulle et de conclure que la série chronologique est probablement stationnaire. D'autre part, dans le deuxième exemple avec la tendance introduite, la valeur de p dépasse le seuil (0,01) et nous ne parvenons pas à rejeter l'hypothèse nulle, indiquant que la série chronologique est probablement non stationnaire.

Cependant, il est important de noter que les tests d'hypothèse ont des limites. Des faux positifs peuvent se produire, en particulier lorsqu'il s'agit de relations subtiles ou complexes au sein de données financières. Par conséquent, il est essentiel de faire preuve de prudence et de ne pas se fier uniquement aux tests d'hypothèse pour déterminer la stationnarité.

Maintenant, concentrons-nous sur le trading de paires. Si je veux m'engager dans le trading de paires, je dois envisager plusieurs paires et placer des paris indépendants sur chacune d'elles. Au lieu de compter sur une seule paire, diversifier mon portefeuille en négociant 100, 200 ou même 300 paires me permet de tirer parti de tout avantage que je peux avoir sur chaque paire, augmentant ainsi mes chances globales de succès.

Les paires de trading nécessitent un cadre solide pour gérer et surveiller efficacement les transactions. Cela implique de mettre à jour en permanence la relation entre les paires et d'ajuster les positions en conséquence. Étant donné que les valeurs bêta, qui représentent la relation entre les paires, peuvent changer au fil du temps, j'ai besoin d'un système qui s'adapte dynamiquement à ces changements.

De plus, il est crucial d'avoir une stratégie de sortie claire pour chaque transaction. Je dois déterminer quand fermer une position si la paire ne présente plus le comportement attendu ou si la relation entre les paires se rompt. Cela nécessite une surveillance constante du spread et des critères prédéfinis pour sortir d'un trade.

De plus, la gestion des risques joue un rôle important dans le trading de paires. Il est essentiel de calculer soigneusement la taille des positions pour chaque paire en fonction de facteurs tels que la volatilité, la corrélation et l'exposition globale du portefeuille. En diversifiant mes transactions et en gérant efficacement les risques, je peux minimiser l'impact des conditions de marché défavorables et maximiser les profits potentiels.

Pour mettre en œuvre efficacement des stratégies de trading de paires, les traders s'appuient souvent sur des techniques quantitatives avancées et développent des algorithmes sophistiqués. Ces algorithmes analysent automatiquement le marché à la recherche de paires potentielles, évaluent leur cointégration et leurs propriétés statistiques, et génèrent des signaux de trading basés sur des critères prédéfinis.

En conclusion, comprendre la stationnarité et effectuer des tests appropriés sont cruciaux lors de la construction de modèles statistiques pour le trading algorithmique. En saisissant le concept de stationnarité et en utilisant des tests comme le test Dickey-Fuller augmenté, les traders peuvent évaluer la probabilité de non-stationnarité dans les données de séries chronologiques. Le trading de paires, en tant que stratégie d'arbitrage statistique, permet aux traders d'exploiter des écarts temporaires par rapport à la relation historique entre deux titres corrélés. Cependant, une mise en œuvre réussie nécessite des cadres solides, une surveillance continue, une gestion des risques et l'utilisation de techniques quantitatives avancées.

Chez Quanto Peon, nous nous efforçons de combler le fossé entre la finance et la technologie en proposant des conférences gratuites sur les statistiques et la finance dans le cadre de notre série de conférences Quanto Peon. Notre mission est de démocratiser la finance quantitative et de fournir aux particuliers les outils et les connaissances nécessaires pour développer leurs stratégies de trading algorithmique.

"Basic Statistical Arbitrage: Understanding the Math Behind Pairs Trading" by Max Margenot
"Basic Statistical Arbitrage: Understanding the Math Behind Pairs Trading" by Max Margenot
  • 2017.07.25
  • www.youtube.com
This talk was given by Max Margenot at the Quantopian Meetup in Santa Clara on July 17th, 2017. To learn more about Quantopian, visit: https://www.quantopian...
 

mouvement brownien pour les mathématiques financières | Mouvement brownien pour les quants | Calcul stochastique


mouvement brownien pour les mathématiques financières | Mouvement brownien pour les quants | Calcul stochastique

Bonjour, YouTube, et bienvenue sur la chaîne ASX Portfolio. Je m'appelle Jonathan, et aujourd'hui nous allons plonger dans le monde fascinant du mouvement brownien, plus précisément dans le contexte des mathématiques financières. Il s'agit d'un sujet crucial car il constitue le fondement des processus stochastiques et du calcul stochastique, qui sont essentiels dans le domaine des mathématiques financières. Le mouvement brownien est la base des intégrales d'Ito et revêt une grande importance, il est donc de la plus haute importance de le comprendre. Dans de futures vidéos, nous explorerons plus en profondeur les mathématiques, en couvrant des sujets tels que le mouvement brownien géométrique, ses applications et les intégrales d'Ito. Assurez-vous de cliquer sur le bouton d'abonnement si vous souhaitez rester à l'écoute des vidéos à venir.

Dans cette vidéo, nous allons parcourir un cahier Jupyter que j'ai préparé pour expliquer ce qu'est le mouvement brownien et comment il se produit. Alors, allons-y directement. Nous commencerons par considérer une marche aléatoire symétrique, puis passerons à une marche aléatoire à l'échelle, démontrant comment ils convergent vers le mouvement brownien. Tout au long de cette explication, nous utiliserons la notation et les exemples du livre de Steven Shreve, "Stochastic Calculus for Finance II".

Tout d'abord, il est crucial de comprendre que les principales propriétés du mouvement brownien sont les suivantes : c'est une martingale, ce qui signifie que l'attente est uniquement basée sur la position actuelle de la particule ou du cours de l'action. De plus, c'est un processus de Markov et il accumule une variation quadratique. La variation quadratique est un concept unique dans le calcul stochastique, ce qui le distingue du calcul ordinaire. Dans cet épisode, nous allons nous plonger dans ce qu'implique la variation quadratique.

Si vous souhaitez suivre le code, il est disponible sur mon site Web. J'ai importé les dépendances nécessaires dont nous aurons besoin pour cette démonstration. Il est important de noter que le mouvement brownien est un processus stochastique, et pour nos besoins, nous considérerons un espace de probabilité filtré avec des résultats et une filtration F, ainsi qu'un espace de probabilité P. Ici, nous avons un ensemble de résultats réels dans l'intervalle de 0 à l'instant T.

Le mouvement brownien a toujours une valeur initiale de zéro. Il a des incréments indépendants, suit une distribution gaussienne et présente presque sûrement des chemins d'échantillonnage continus. Nous allons détailler toutes ces propriétés.

Commençons par l'exemple le plus simple : une marche aléatoire symétrique. Si vous n'êtes pas familier avec le concept de marche aléatoire, considérez-le comme une séquence de lancers de pièces successifs. Chaque résultat, représenté par la variable oméga, peut être face ou face. Nous utiliserons la variable X_j pour représenter chaque résultat, en prenant la valeur 1 pour pile et -1 pour pile.

Si nous définissons un processus avec m_0 égal à zéro, alors m_k sera la sommation le long de tous les chemins de lancer de pièces possibles pour k lancers. Dans ce cas, nous avons une marche aléatoire où le processus peut monter de 1 ou descendre de 1, et nous additionnons ces incréments sur les chemins. J'ai écrit un script pour générer 10 exemples de chemins sur un horizon temporel de 10 ans. Le graphique montre comment la marche aléatoire monte ou descend de 1 à chaque pas de temps le long des chemins.

Cet exemple révèle quelques propriétés intéressantes. Premièrement, les incréments entre les périodes de temps, tels que m_k+1 - m_k, sont indépendants. De plus, l'espérance de ces incréments indépendants est nulle, et la variance est égale à la différence de temps ou à la distance entre les pas de temps (k_i+1 - k_i). La variance s'accumule à raison de un par unité de temps.

De plus, la marche aléatoire symétrique est une martingale. Cela signifie que l'espérance conditionnelle de la valeur suivante, compte tenu de la position actuelle, est égale à la position actuelle. Dans le cadre d'une marche aléatoire symétrique, l'espérance de

Poursuivant là où nous nous étions arrêtés, dans la vidéo suivante, nous explorerons comment créer des échantillons de mouvement brownien géométrique à l'aide de Python. Le mouvement brownien géométrique est un processus stochastique couramment utilisé en mathématiques financières pour modéliser les cours des actions. C'est un concept essentiel à comprendre sur le terrain.

Mais avant de plonger là-dedans, récapitulons quelques-unes des propriétés clés du mouvement brownien. Le mouvement brownien est un processus stochastique caractérisé par plusieurs propriétés :

  1. Incréments indépendants : les incréments du mouvement brownien sont indépendants, ce qui signifie que le changement entre deux points dans le temps n'est pas lié au changement entre deux autres points.

  2. Distribution gaussienne : les incréments du mouvement brownien suivent une distribution gaussienne ou normale. Cette distribution décrit la probabilité de divers résultats et est un concept fondamental de la théorie des probabilités.

  3. Chemins d'échantillonnage continus : le mouvement brownien a des chemins d'échantillonnage continus, ce qui signifie qu'il est non différentiable à chaque période de temps. Cette propriété le rend adapté à la modélisation de divers phénomènes avec des fluctuations aléatoires.

  4. Variation quadratique: La variation quadratique est une propriété unique du mouvement brownien dans le calcul stochastique. Il mesure les fluctuations accumulées dans le temps et est crucial pour comprendre le comportement des processus stochastiques.

Parlons maintenant du mouvement brownien géométrique. Le mouvement brownien géométrique est une extension du mouvement brownien qui intègre une croissance exponentielle. Il est couramment utilisé pour modéliser le comportement des actifs financiers tels que les cours des actions. Le mouvement brownien géométrique a la forme suivante :

dS(t) = μS(t)dt + σS(t)dW(t)

Ici, S(t) représente le prix de l'actif au temps t, μ est le taux de rendement ou de dérive attendu, σ est la volatilité ou l'écart type des rendements, dt est un petit intervalle de temps et dW(t) est un mouvement brownien standard incrément.

Pour simuler le mouvement brownien géométrique, on peut discrétiser le processus à l'aide de méthodes numériques comme la méthode d'Euler ou l'intégrale d'Itô. Ces méthodes nous permettent d'approximer le processus continu en utilisant une séquence d'étapes discrètes.

Dans la vidéo à venir, nous explorerons les détails mathématiques du mouvement brownien géométrique et ses applications en mathématiques financières. Nous fournirons également des exemples pratiques et des extraits de code en Python pour simuler et visualiser le mouvement brownien géométrique.

Si vous souhaitez en savoir plus sur ce sujet, assurez-vous de vous abonner à notre chaîne et restez à l'écoute pour la prochaine vidéo. Nous sommes impatients de partager plus d'idées avec vous. Merci pour votre attention, et à la prochaine vidéo !

Brownian Motion for Financial Mathematics | Brownian Motion for Quants | Stochastic Calculus
Brownian Motion for Financial Mathematics | Brownian Motion for Quants | Stochastic Calculus
  • 2021.09.09
  • www.youtube.com
In this tutorial we will investigate the stochastic process that is the building block of financial mathematics. We will consider a symmetric random walk, sc...
 

Simulation du mouvement brownien géométrique en Python | Calcul stochastique pour les quants


Simulation du mouvement brownien géométrique en Python | Calcul stochastique pour les quants

Bonjour, YouTube, et bienvenue sur la chaîne de portefeuille ASX. Je m'appelle Jonathan, et aujourd'hui nous allons simuler le mouvement brownien géométrique en Python. Dans ce didacticiel, nous n'aborderons pas la dérivation de la dynamique du mouvement brownien géométrique ni ne couvrirons le calcul Ito, les intégrales Ito et les processus stochastiques. Cependant, nous explorerons ces sujets en détail dans le didacticiel suivant. Si vous souhaitez en savoir plus à leur sujet, veuillez vous abonner à notre chaîne et activer la cloche de notification afin d'être averti lorsque cette vidéo sera publiée.

Passons à la simulation. J'utiliserai ce cahier Jupyter à des fins de démonstration. Tout d'abord, nous allons définir les paramètres de notre simulation. Le coefficient de dérive, mu, est fixé à 0,1 ou 10 % sur un an. Nous définirons le nombre de pas de temps comme "n" et le fixerons à 100 pour une simulation granulaire. Le temps sera mesuré en années, noté "T". Le nombre de simulations sera noté "m" et fixé à 100. Le cours initial de l'action, S0, est fixé à 100, et la volatilité, sigma, est fixée à 30. Importons les dépendances nécessaires : numpy as np et matplotlib .pyplot comme plt.

Simulons maintenant les trajectoires de mouvement browniennes géométriques. Pour calculer le pas de temps, on divise T par n. Ensuite, nous utiliserons des tableaux numpy pour effectuer la simulation en une seule étape au lieu d'itérer sur des chemins. Nous allons définir un tableau appelé "st" et utiliser la fonction exponentielle de numpy. À l'intérieur de la fonction, nous définirons les composants : mu moins sigma au carré divisé par 2, multiplié par dt. Ensuite, nous multiplierons sigma par la fonction random.normal de numpy, qui échantillonne à partir de la distribution normale, et le multiplierons par la racine carrée de dt. La taille de ce tableau sera m par n, représentant respectivement le nombre de simulations et de pas de temps. Puisque nous voulons la simulation pour chaque pas de temps, nous allons prendre la transposée de ce tableau.

Pour inclure le point initial de chaque simulation, nous utiliserons la fonction vstack de numpy pour empiler un tableau numpy de uns avec le premier tableau de simulation. Cela garantira que chaque simulation commence par la valeur initiale. Enfin, nous multiplierons le tableau empilé par la valeur initiale pour tenir compte des changements quotidiens en termes de dérive, de variance et de composante stochastique. Cela nous donnera les implémentations pas de temps. Pour accumuler ces valeurs au fil du temps, nous utiliserons la fonction de produit cumulé de numpy le long de chaque chemin de simulation, en spécifiant l'axe 1. Cela calculera le produit cumulé pour chaque chemin.

Maintenant que nous avons les chemins simulés, considérons les intervalles de temps en années. Nous utiliserons la fonction linspace de numpy pour générer des pas de temps régulièrement espacés de 0 à T, avec n+1 espaces. Cela nous donnera un tableau appelé "time". Ensuite, nous allons créer un tableau numpy appelé "fill" avec la même forme que st afin que nous puissions tracer la fonction. Nous utiliserons la fonction complète de numpy et définirons fill_value sur time. En prenant la transposée de ce vecteur, nous pouvons tracer le graphique avec les années en abscisse et le cours de l'action en ordonnée, en tenant compte de la dispersion résultant de la volatilité de 30 % et de l'augmentation de 10 % de la moyenne ou de la dérive sur ce mouvement brownien géométrique.

Le mouvement brownien géométrique est un modèle utile pour la théorie des prix des options et diverses applications des mathématiques financières. J'espère que vous avez trouvé de la valeur dans ce tutoriel. Dans la vidéo suivante, nous approfondirons les mathématiques financières, le calcul d'Ito, les intégrales d'Ito, et explorerons comment augmenter la complexité des équations différentielles stochastiques en ajoutant différents paramètres. Si vous souhaitez en savoir plus, assurez-vous de vous abonner à notre chaîne et d'activer la cloche de notification afin d'être averti lorsque cette vidéo sera publiée la semaine prochaine. Jusque-là, restez à l'écoute pour un contenu plus précieux. Merci d'avoir regardé, et à la prochaine vidéo.

Simulating Geometric Brownian Motion in Python | Stochastic Calculus for Quants
Simulating Geometric Brownian Motion in Python | Stochastic Calculus for Quants
  • 2021.09.15
  • www.youtube.com
In this tutorial we will learn how to simulate a well-known stochastic process called geometric Brownian motion. This code can be found on my website and is ...
 

Calcul stochastique pour les quants | Comprendre le mouvement brownien géométrique à l'aide du calcul Itô


Calcul stochastique pour les quants | Comprendre le mouvement brownien géométrique à l'aide du calcul Itô

Bonjour, YouTube, et bienvenue dans ASX Portfolio. Aujourd'hui, nous allons discuter des raisons pour lesquelles le mouvement brownien est un choix inapproprié pour modéliser les marchés financiers. Il est tout à fait évident que le mouvement brownien se traduirait par des cours boursiers négatifs, ce qui n'est pas réaliste. Au lieu de cela, nous avons besoin d'un moyen de préserver certaines des propriétés stochastiques du mouvement brownien et de les incorporer dans nos modèles. Ceci peut être réalisé en utilisant des processus Ito, qui nous permettent d'ajouter la source de risque du mouvement brownien.

Un processus Ito bien connu est le mouvement brownien géométrique (GBM), que beaucoup d'entre vous connaissent peut-être. Nous pouvons tirer parti des propriétés du mouvement brownien pour développer de nouveaux modèles qui correspondent mieux aux exemples réels. Pour ce faire, nous utilisons un type spécial de calcul connu sous le nom de calcul Ito, qui est couramment utilisé en mathématiques stochastiques financières.

Aujourd'hui, nous allons nous concentrer sur la compréhension de l'intégrale Ito et comment elle peut nous aider à résoudre des problèmes complexes. Nous discuterons du lemme d'Ito, qui sert d'identité dans le calcul d'Ito et aide à la dérivation des règles. De plus, nous explorerons la formule Ito-Dobelin et la dérivation de la dynamique du mouvement brownien géométrique.

Pour approfondir ces concepts, je recommande vivement le deuxième livre de Stephen Shreve, "Modèles en temps continu pour le calcul stochastique". Le chapitre 4 couvre le matériel dont nous allons discuter aujourd'hui.

Maintenant, commençons par comprendre ce qu'est une intégrale d'Ito. Il est essentiel de se rappeler que toutes les mathématiques dont nous allons discuter sont basées sur un espace de probabilité filtré. Cet espace englobe les résultats, les filtrages et les mesures de probabilité. La filtration fait référence à une sigma-algèbre qui contient toutes les informations jusqu'à l'instant t. Bien que la théorie des probabilités soit complexe, nous ne l'aborderons que brièvement aujourd'hui. Pour une compréhension plus approfondie, je recommande de se référer aux trois premiers chapitres du livre de Shreve.

L'intégrale d'Ito est représentée par le symbole ∫δdW, où δ est un processus stochastique et dW est le processus de Wiener. Pour saisir sa signification, imaginons de partitionner la période de temps de 0 à T en petits intervalles. On peut noter le processus stochastique δ à la puissance n, où n représente le nombre d'intervalles de temps. Ce processus est adapté, ce qui signifie que ses valeurs sont déterminées par les résultats des lancers de pièces à chaque intervalle de temps.

Considérons maintenant l'intégrale comme la limite d'une somme lorsque le nombre d'intervalles tend vers l'infini. Chaque somme consiste en le processus stochastique δ multiplié par la variation du processus de Wiener entre les intervalles. Au fur et à mesure que les intervalles deviennent plus petits, nous convergeons vers l'intégrale de Ito. Cependant, pour que cette limite existe, deux conditions doivent être satisfaites : le processus δ doit être adapté à la filtration, et il doit être de carré intégrable.

Maintenant que nous comprenons la notation, passons aux processus Ito généraux. Ces processus se produisent dans le même domaine temporel avec le même espace de résultats. Ils impliquent des intégrales basées sur le temps et des intégrales Ito par rapport au processus de Wiener. L'intégrale basée sur le temps est similaire à une intégrale de Riemann régulière, tandis que l'intégrale d'Ito capture la nature stochastique du processus. Ces processus peuvent être divisés en termes de dérive et de diffusion.

Un exemple de processus Ito est le mouvement brownien géométrique (GBM). Il comprend un terme de dérive et un terme de diffusion. La dérive est déterminée par une constante μ, tandis que la diffusion est contrôlée par un paramètre de volatilité σ. La dynamique de GBM peut être exprimée à l'aide d'intégrales, comme indiqué dans l'équation.

En développant cela, nous pouvons également considérer l'intégrale d'un processus Ito. Par exemple, l'intégrale du processus Ito peut représenter le profit et la perte commerciaux (P&L).

Dans la décomposition Itô-Doob, nous avons ce processus générique représenté par l'intégrale du terme de dérive, l'intégrale du terme de diffusion et le terme intégral d'Itô. Or, la formule d'Itô-Doob permet de calculer la différentielle d'une fonction du processus. Il indique que la différentielle de la fonction est égale à la dérivée partielle de la fonction par rapport au temps, plus les dérivées partielles de la fonction par rapport aux variables d'état multipliées par les termes de dérive, plus les dérivées partielles de la fonction par rapport aux variables d'état multipliées par les termes de diffusion, plus l'intégrale des dérivées partielles de la fonction par rapport aux variables d'état multipliées par le terme intégral Itô.

Cette formule nous permet de calculer la variation de la valeur d'une fonction au fur et à mesure que le processus évolue dans le temps. C'est un outil fondamental dans le calcul Itô et est largement utilisé dans l'analyse stochastique et la finance mathématique.

Passant au mouvement brownien géométrique (GBM), il s'agit d'un type spécifique de processus Itô couramment utilisé pour modéliser la dynamique des cours boursiers et d'autres actifs financiers. GBM intègre à la fois des composants de dérive et de diffusion. Le terme de dérive représente le taux de rendement attendu de l'actif, tandis que le terme de diffusion capture la volatilité ou le caractère aléatoire des mouvements de prix de l'actif.

La dynamique de GBM peut être dérivée à l'aide du calcul d'Itô. En appliquant la formule d'Itô au logarithme du prix de l'actif, on obtient une expression décrivant l'évolution du logarithme du prix dans le temps. Ce changement est égal au terme de dérive multiplié par l'incrément de temps, plus le terme de diffusion multiplié par l'intégrale Itô. En exponentiant les deux côtés de l'équation, on retrouve la dynamique du prix de l'actif lui-même.

Comprendre la dynamique de GBM est crucial dans la tarification des options et la gestion des risques. Il nous permet de modéliser le comportement stochastique des prix des actifs et d'estimer les probabilités de divers résultats. GBM a été largement utilisé en mathématiques financières et a servi de base à de nombreux modèles de tarification, tels que le modèle Black-Scholes pour la tarification des options.

En résumé, le calcul Itô fournit un cadre puissant pour modéliser et analyser les processus stochastiques en finance. En incorporant les intégrales d'Itô et en appliquant le lemme d'Itô et la formule d'Itô-Doob, nous pouvons dériver la dynamique de diverses variables financières et développer des modèles qui capturent les propriétés stochastiques des marchés du monde réel. Le calcul Itô a révolutionné le domaine de la finance mathématique et continue d'être un outil essentiel pour comprendre et gérer le risque financier.

Stochastic Calculus for Quants | Understanding Geometric Brownian Motion using Itô Calculus
Stochastic Calculus for Quants | Understanding Geometric Brownian Motion using Itô Calculus
  • 2021.09.22
  • www.youtube.com
In this tutorial we will learn the basics of Itô processes and attempt to understand how the dynamics of Geometric Brownian Motion (GBM) can be derived. Firs...
 

Calcul stochastique pour les quants | Tarification sans risque pour les produits dérivés | Tarification des options expliquée


Calcul stochastique pour les quants | Tarification sans risque pour les produits dérivés | Tarification des options expliquée

Dans cette vidéo, nous allons nous plonger dans les mathématiques financières derrière l'évaluation d'un dérivé financier à l'aide de la simulation de Monte Carlo et de la tarification neutre au risque. Nous répondrons à des questions telles que pourquoi la simulation de Monte Carlo est utilisée, ce qu'est une tarification neutre au risque et pourquoi le taux de croissance des actions n'entre pas dans le modèle dérivé.

La tarification neutre au risque est une méthodologie dans laquelle la valeur d'une option est l'attente actualisée de ses gains futurs. En d'autres termes, il s'agit de la valeur attendue de tous les gains possibles d'un dérivé, actualisée jusqu'à l'instant présent. Le taux de croissance des actions sous-jacentes n'a pas d'impact sur le prix de l'option dans le cadre de tarification neutre au risque. En effet, le dérivé et l'action sous-jacente ont une corrélation parfaite, permettant la réplication et la création d'un portefeuille sans risque.

L'utilisation de l'approche de tarification sans risque par rapport à d'autres méthodes d'évaluation présente plusieurs avantages. Premièrement, avec des formulations de dérivés complexes, les solutions de forme fermée peuvent ne pas être réalisables. Dans de tels cas, l'utilisation de méthodes de réplication et la résolution d'équations aux dérivées partielles (PDE) peuvent être coûteuses en calculs. La tarification neutre au risque, d'autre part, permet une approximation facile de la valeur de l'option à l'aide de la simulation de Monte Carlo, qui est moins coûteuse en calculs.

Pour expliquer la tarification neutre au risque, nous commençons par considérer le modèle binomial à une période. Dans ce modèle, l'action peut monter ou descendre, et la valeur de l'option dépend de ces deux résultats possibles. En construisant un portefeuille de l'action sous-jacente et d'un actif sans risque, nous pouvons reproduire le gain de l'option. En vertu du principe de non arbitrage, la valeur de l'option à l'instant zéro doit être égale à la valeur du portefeuille à l'instant zéro. En résolvant les équations linéaires, nous pouvons obtenir une formule qui représente l'espérance actualisée dans le modèle binomial.

Nous introduisons le concept d'une mesure de probabilité neutre au risque, notée q, qui nous permet de passer des probabilités physiques du cours de l'action aux probabilités neutres au risque. Ce décalage est accompli en repondérant les probabilités physiques par une variable aléatoire appelée dérivée aléatoire-nickdem. Ce dérivé nous permet de traduire la valeur de l'option du monde de la tarification neutre au risque au monde de la probabilité physique.

L'objectif de la tarification neutre au risque est d'identifier le processus dérivé de surnom aléatoire, noté Zt, qui garantit que tous les prix actualisés des actions sont des martingales sous la mesure de probabilité neutre au risque q. En effectuant un changement de mesure, nous pouvons convertir le mouvement brownien original sous la mesure de probabilité physique en un nouveau mouvement brownien sous la mesure de probabilité neutre au risque. Ce nouveau mouvement brownien est un processus de martingale, indiquant que son espérance reste constante dans le temps.

Pour appliquer ces concepts, nous considérons le modèle de mouvement brownien géométrique, qui représente la dynamique d'une action ne versant pas de dividendes. Le modèle se compose d'une composante déterministe et d'une composante stochastique, représentant la volatilité. Cependant, la dynamique originale du stock n'est pas une martingale sous les probabilités physiques en raison de la composante déterministe. Pour faire de la dynamique une martingale, nous introduisons la dérivée de Radon-Nikodym, qui supprime le terme de dérive et transforme la dynamique du stock en un processus de martingale sous la mesure de probabilité neutre au risque.

En résumé, la tarification neutre au risque et la simulation de Monte Carlo fournissent un cadre précieux pour évaluer les dérivés financiers. L'approche de tarification sans risque offre des avantages tels que la simplicité, l'efficacité des calculs et la capacité de gérer des structures dérivées complexes. En utilisant le dérivé aléatoire et en changeant la mesure des probabilités physiques en probabilités neutres au risque, nous pouvons évaluer avec précision les dérivés et reproduire leurs gains sans risque.

Stochastic Calculus for Quants | Risk-Neutral Pricing for Derivatives | Option Pricing Explained
Stochastic Calculus for Quants | Risk-Neutral Pricing for Derivatives | Option Pricing Explained
  • 2022.01.12
  • www.youtube.com
In this tutorial we will learn the basics of risk-neutral options pricing and attempt to further our understanding of Geometric Brownian Motion (GBM) dynamic...
 

Négocier la volatilité des actions avec le processus Ornstein-Uhlenbeck


Négocier la volatilité des actions avec le processus Ornstein-Uhlenbeck

Début 2020, le S&P 500 a connu une augmentation significative de la volatilité alors que les prix ont fortement baissé. En l'espace d'un mois, l'indice a chuté de près de mille points. Parallèlement, l'attente de volatilité future, basée sur les options sur indices négociées, a également augmenté au cours de cette période, atteignant un sommet de 66. Il est devenu évident que pendant les périodes de volatilité du marché lorsque la valeur de l'indice a diminué, le VIX (Volatility Index) a augmenté. Le VIX sert d'estimation future de la volatilité. Ce phénomène a conduit les teneurs de marché et les professionnels du trading à anticiper la persistance de la volatilité réalisée.

Dans cette vidéo, nous visons à expliquer les caractéristiques du marché de la volatilité et à discuter d'une méthodologie pour modéliser la volatilité en ajustant la formule d'Ornstein-Uhlenbeck à un indice de volatilité spécifique. Nous utiliserons la méthode d'estimation du maximum de vraisemblance pour calibrer les trois paramètres du modèle aux données du marché. Par la suite, nous simulerons ce processus en Python, ce qui nous permettra de comprendre et d'analyser la dynamique de la volatilité dans le temps.

Pour ce faire, nous allons importer diverses dépendances telles que time, math, numpy, pandas, datetime, scipy, matplotlib, pandas_datareader et la fonction plot_acf du module stats. Les données que nous utiliserons sont les données S&P 500 à partir de 2003. Pour étudier le clustering de volatilité et ses propriétés dans les séries temporelles financières, nous nous référerons au document de recherche "Volatility Clustering in Financial Markets" de Ramacant (2005), qui explore les propriétés statistiques des séries temporelles financières. Les trois propriétés importantes sur lesquelles nous nous concentrerons sont la volatilité excessive, les queues lourdes et le regroupement de la volatilité.

Le regroupement de la volatilité fait référence à l'observation selon laquelle les grands changements de prix ont tendance à être suivis d'autres grands changements, quelle que soit leur direction, tandis que les petits changements sont souvent suivis de petits changements. Cette manifestation quantitative suggère que bien que les rendements puissent être non corrélés, les rendements absolus ou leurs carrés affichent une petite corrélation positive qui diminue progressivement au fil du temps. Pour analyser cela, nous examinons les rendements logarithmiques, qui représentent le logarithme des variations de prix au fil du temps. En examinant visuellement les rendements logarithmiques du S&P 500, nous pouvons observer des clusters de grande ampleur pendant des périodes spécifiques, comme les clusters significatifs en 2008-2009 et 2020.

Ensuite, nous évaluons la corrélation entre les retours logarithmiques décalés. Notamment, nous ne trouvons aucune autocorrélation statistiquement significative dans les retours de journaux sur la plage de données spécifiée. Cependant, lorsque nous mettons au carré les retours logarithmiques pour nous concentrer sur la magnitude absolue, nous observons une forte corrélation positive qui s'étend même aux jours et aux semaines décalés. Cela implique que pendant les périodes de forte volatilité, il est susceptible de persister, et pendant les périodes de faible volatilité, la tendance est également susceptible de se poursuivre. Ce phénomène est connu sous le nom de clustering de volatilité.

Pour visualiser la volatilité glissante sur un nombre spécifique de jours, nous sélectionnons une fenêtre de trading et calculons l'écart type sur cette fenêtre. Pour annualiser la volatilité, nous prenons la racine carrée du nombre de jours de bourse dans une année, qui est généralement de 252. Cette approche nous permet d'observer des augmentations significatives de la volatilité réalisée au cours de certaines périodes.

Pour modéliser ce processus de volatilité réalisé, nous nous tournons vers la formule d'Ornstein-Uhlenbeck. Cette formule, également connue sous le nom de modèle de Vasicek en mathématiques financières, considère trois paramètres : kappa, qui représente le taux de réversion moyen ; thêta, la volatilité moyenne autour de laquelle les prix fluctuent ; et sigma, la volatilité elle-même. Notre objectif est de trouver des valeurs de paramètres qui maximisent la probabilité que les données observées adhèrent à cette distribution.

Pour ce faire, nous utilisons la méthode d'estimation du maximum de vraisemblance (MLE), qui s'applique aux échantillons aléatoires et aux fonctions de densité de probabilité. Dans le cas de la distribution normale, la fonction de vraisemblance est le produit des probabilités individuelles de l'échantillon compte tenu des paramètres. En prenant le logarithme de la fonction de vraisemblance, on peut convertir

Maintenant que nous avons dérivé l'espérance et la variance du processus d'Ornstein-Uhlenbeck, nous pouvons procéder à la modélisation de la volatilité à l'aide de ce cadre. Pour ce faire, nous calibrerons les paramètres du modèle aux données du marché en utilisant la méthode d'estimation du maximum de vraisemblance (MLE).

Tout d'abord, nous importons les dépendances nécessaires, y compris les bibliothèques telles que time, math, numpy, pandas, datetime, scipy, matplotlib, pandas_datareader et la fonction plot_acf du module stats. Nous importons également les données du S&P 500 depuis 2003, qui nous serviront de données de marché.

Ensuite, nous explorons le concept de regroupement de la volatilité dans les séries chronologiques financières. Le regroupement de la volatilité fait référence au phénomène où les grands changements de prix ont tendance à être suivis d'autres grands changements, et les petits changements ont tendance à être suivis de petits changements. Nous observons visuellement cet effet de regroupement lors du traçage des rendements logarithmiques du S&P 500. Nous pouvons voir que pendant les périodes de volatilité du marché, l'ampleur des rendements logarithmiques se regroupe, indiquant une corrélation entre les mouvements de prix importants. Par exemple, nous pouvons voir des clusters pendant la crise financière en 2008-2009 et le pic de volatilité en 2020.

Pour quantifier la corrélation entre les rendements logarithmiques, nous calculons la fonction d'autocorrélation (ACF). Alors que les retours logarithmiques eux-mêmes ne montrent aucune autocorrélation significative, les retours logarithmiques au carré (représentant l'amplitude absolue) affichent une petite corrélation positive qui diminue lentement avec le temps. Cette autocorrélation de magnitude absolue confirme la présence d'un regroupement de la volatilité, où les périodes de forte volatilité ont tendance à persister, tandis que les périodes de faible volatilité ont également tendance à persister.

Pour analyser plus en détail la volatilité, nous calculons la volatilité glissante sur un nombre de jours spécifié en calculant l'écart type et en l'annualisant à l'aide de la racine carrée du nombre de jours de négociation dans une année. En traçant la volatilité glissante, nous pouvons observer des périodes de volatilité accrue, indiquées par des hausses significatives de la volatilité réalisée.

Maintenant, nous introduisons la formule d'Ornstein-Uhlenbeck (OU), qui est utilisée pour modéliser la volatilité. Le modèle OU intègre la réversion moyenne, le niveau moyen et la volatilité autour du prix moyen. Les paramètres du modèle comprennent kappa (taux de réversion moyenne), thêta (niveau moyen) et sigma (volatilité). Pour estimer ces paramètres, nous appliquons la méthode d'estimation du maximum de vraisemblance (MLE), qui consiste à trouver les valeurs des paramètres qui maximisent la vraisemblance des données observées provenant de la distribution OU.

Nous commençons par discuter de la fonction de vraisemblance, qui est la fonction de densité de probabilité conjointe (pdf) des données observées compte tenu des paramètres. Dans le cas de la distribution normale, la fonction de vraisemblance est le produit des valeurs pdf individuelles. Prendre le logarithme de la fonction de vraisemblance simplifie les calculs, car il transforme le produit des probabilités en somme des logarithmes. En trouvant l'estimateur du maximum de vraisemblance (MLE) des paramètres, nous pouvons déterminer les valeurs qui maximisent la vraisemblance des données observées.

Dans le cas du processus OU, nous devons utiliser des méthodes numériques pour trouver les estimations du maximum de vraisemblance en raison de la non différenciabilité de la fonction log-vraisemblance. Nous utilisons la fonction scipy.optimize.minimize pour minimiser la log-vraisemblance négative, car elle fournit une solution numérique au problème de maximisation. En définissant la fonction log-vraisemblance, les paramètres initiaux et les contraintes, nous pouvons estimer les paramètres qui maximisent la vraisemblance des données observées.

Une fois que nous avons estimé les paramètres du processus OU, nous pouvons simuler le processus en utilisant Python. On peut simuler le processus soit en discrétisant les pas de temps et en obtenant un chemin dans le temps, soit en le simulant comme un processus Itô en temps continu. Cette dernière méthode fournit une représentation plus précise de la dynamique de la volatilité à des moments précis.

En conclusion, le texte traite des caractéristiques de volatilité observées dans le S&P 500 pendant les périodes de volatilité des marchés. Il introduit le concept de clustering de volatilité et démontre sa présence à l'aide de retours logarithmiques et de retours logarithmiques au carré. Le modèle Ornstein-Uhlenbeck (OU) est ensuite introduit comme cadre pour modéliser la volatilité, et la méthode d'estimation du maximum de vraisemblance (MLE) est utilisée pour estimer les paramètres du modèle. Enfin, la simulation du processus OU est expliquée, permettant l'analyse et la compréhension de la dynamique de la volatilité dans le temps.

Trading stock volatility with the Ornstein-Uhlenbeck process
Trading stock volatility with the Ornstein-Uhlenbeck process
  • 2022.03.07
  • www.youtube.com
Understanding and modelling volatility accurately is of utmost importance in financial mathematics. The emergence of volatility clustering in financial marke...
 

La formule magique pour négocier des options sans risque



La formule magique pour négocier des options sans risque

Dans cette vidéo, vous apprendrez à utiliser la formule de Breeden-Litzenberger pour dériver des fonctions de densité de probabilité neutres au risque à partir des prix des options. Cette technique est extrêmement utile lorsque le calcul des prix des options devient chronophage et intensif en termes de calcul, en particulier pour les dynamiques complexes et les scénarios de grande dimension. La formule de Breeden-Litzenberger nous permet de calculer des dérivées complexes une seule fois pour différentes valeurs d'exercice et de durée jusqu'à l'échéance, ce qui donne une fonction de distribution de probabilité neutre au risque qui simplifie le calcul de diverses dérivées complexes.

Pour commencer, comprenons le concept de probabilité neutre au risque. L'analyse de Feynman-Kac nous permet de définir la probabilité neutre au risque comme une mesure (Q) de la probabilité neutre au risque terminale au temps (t). La fonction de distribution de probabilité cumulée (F) représente la distribution de probabilité sans risque. La tarification d'une option d'achat européenne au temps (t) avec un prix d'exercice (k) et une durée jusqu'à l'échéance (tau) peut être effectuée en prenant l'attente actualisée neutre au risque du gain. Cela peut être exprimé comme l'intégrale de (S_t - k) multipliée par la fonction de densité neutre au risque (pdf) entre le prix d'exercice (k) et l'infini, actualisée par le taux sans risque.

Pour calculer la probabilité neutre au risque directement à partir de cette formule, nous pouvons utiliser la formule de Breeden-Litzenberger de 1978. Elle stipule que la première dérivée de l'intégrale par rapport au strike (k) est égale à moins le facteur d'actualisation exponentiel multiplié par (1 - F), où F est la fonction de densité cumulée. La dérivée seconde de l'intégrale centrée sur le prix d'exercice (k) extrait la pdf, qui est le facteur d'actualisation multiplié par la pdf neutre au risque.

Voyons maintenant comment appliquer cette formule en Python. Nous devons importer des bibliothèques telles que NumPy, SciPy, Pandas et Matplotlib. Pour l'exemple, nous considérerons une option d'achat européenne à volatilité stochastique sous le modèle Heston. Le modèle Heston fournit la dynamique de l'actif sous-jacent et sa volatilité. Nous initialisons les paramètres nécessaires, tels que le cours de l'action, l'exercice, la durée jusqu'à l'échéance, le taux sans risque et les paramètres du modèle Heston tels que le taux de réversion moyen, la variance à long terme, la volatilité initiale, la corrélation et la volatilité de la volatilité.

En utilisant la formule de Breeden-Litzenberger, nous pouvons déterminer la fonction de distribution de probabilité neutre au risque. En approximant la dérivée seconde à l'aide d'une approximation aux différences finies, nous calculons la distribution neutre au risque pour différentes valeurs d'exercice et de durée jusqu'à l'échéance. Nous construisons un pdf 2D pour un temps de maturité particulier.

Pour calculer les prix des options sous le modèle Heston, nous utilisons la fonction caractéristique et effectuons une intégration numérique à l'aide de l'intégration rectangulaire. Nous définissons la fonction caractéristique et calculons l'intégrale complexe sur un domaine spécifié en utilisant l'intégration rectangulaire. La taille de pas choisie pour l'intégration affecte la précision, en particulier pour les options hors du cours.

Nous comparons les résultats obtenus en utilisant l'intégration rectangulaire avec la bibliothèque QuantLib, qui est implémentée en C et fournit une intégration numérique plus précise. Bien qu'il existe certaines différences entre les deux approches, l'erreur quadratique moyenne (MSE) est faible. Les écarts sont principalement dus à des erreurs d'arrondi causées par la représentation binaire des valeurs décimales en Python.

Après avoir obtenu le pdf approximatif discret, nous le multiplions par le facteur direct. Nous utilisons l'interpolation pour lisser la courbe et créer une fonction de distribution continue neutre au risque. Enfin, nous pouvons utiliser cette distribution neutre au risque pour fixer facilement le prix de divers dérivés complexes.

En conclusion, la formule de Breeden-Litzenberger nous permet de dériver des fonctions de densité de probabilité neutres au risque à partir des prix des options. En approximant la dérivée seconde à l'aide d'une approximation aux différences finies et en effectuant une intégration numérique, nous pouvons calculer la distribution neutre au risque pour différentes valeurs d'exercice et de durée jusqu'à l'échéance. Cela nous permet d'évaluer efficacement les produits dérivés complexes.

The Magic Formula for Trading Options Risk Free
The Magic Formula for Trading Options Risk Free
  • 2022.06.05
  • www.youtube.com
In 1978, Breeden and Litzenberger showed how under risk-neutral pricing, that the discounted Risk-Neutral Density (RND) function could be estimated directly...