Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Martin Scholl (Université d'Oxford) : "Étude de l'écologie du marché à l'aide de modèles basés sur des agents"
Martin Scholl (Université d'Oxford) : "Étude de l'écologie du marché à l'aide de modèles basés sur des agents"
Martin Scholl, chercheur à l'Université d'Oxford, s'est plongé dans l'étude de l'écologie du marché à l'aide de modèles à base d'agents. Contrairement aux approches traditionnelles qui reposent sur des hypothèses telles que l'hypothèse d'un marché efficace, Scholl conteste la théorie de l'équilibre des anticipations rationnelles couramment utilisée dans la finance néoclassique. Il estime que cette théorie exige que tous les participants aient une parfaite compréhension du monde réel, ce qui est irréaliste étant donné les limites cognitives des investisseurs particuliers et des gestionnaires de fonds. Au lieu de cela, il préconise l'application d'outils de la biologie pour analyser les données financières du monde réel, offrant une nouvelle perspective sur la compréhension des marchés financiers.
Pour explorer l'écologie du marché, Scholl compare les stratégies d'investissement aux espèces en biologie, les investisseurs individuels représentant les individus d'une espèce donnée. La richesse globale investie à l'aide d'une stratégie particulière est comparable à l'abondance ou à la taille de la population totale de cette espèce. Dans un modèle de jouet d'un jeu d'investissement, Scholl introduit un scénario simplifié où les agents peuvent choisir de laisser leur richesse dans un compte du marché monétaire ou d'investir dans une action qui verse des dividendes. Ce modèle permet d'examiner diverses stratégies d'investissement et objections à l'hypothèse néoclassique de rationalité parfaite.
Scholl identifie différentes stratégies d'investissement employées dans des modèles basés sur des agents pour étudier l'écologie du marché. La première est une stratégie parfaitement rationnelle, où la valeur nette d'inventaire est répartie entre les actions et les liquidités. Un investisseur axé sur la valeur estime le taux de croissance du dividende pour faire des prévisions futures et comprendre le prix futur de l'action. La deuxième stratégie implique des suiveurs de tendance qui analysent les prix récents et extrapolent les tendances. La troisième stratégie englobe les commerçants bruyants qui entrent sur le marché pour répondre aux besoins de liquidité mais ne sont pas sensibles aux prix sur une courte échelle de temps. Cependant, leur processus de bruit d'inversion de la moyenne est lié à la valeur fondamentale sur une longue échelle de temps.
Pour simuler les mécanismes du marché et étudier l'écologie du marché, Scholl et son équipe utilisent des modèles basés sur des agents à l'aide de progiciels. Ils assurent la comparabilité entre les différentes exécutions du modèle en fixant les dotations et en divisant les dotations initiales entre les individus d'espèces différentes, en gardant une trace de la part relative. Les simulations s'étendent sur une période de 200 ans, ce qui permet d'observer le retour annuel moyen pour chaque espèce. Fait intéressant, ils constatent que chaque stratégie a au moins une région où elle est la plus rentable, quelle que soit son abondance.
Dans ses expériences, Scholl examine le comportement des suiveurs de tendance et l'impact du réinvestissement des bénéfices. Il observe que le marché passe la plupart de son temps dans une région instable et chaotique avec de grandes valeurs aberrantes, ce qui entraîne un bruit moucheté. Lorsque les investisseurs réinvestissent leurs profits, les trajectoires fluctuent autour d'un point central identifié mais ne convergent pas entièrement vers lui. L'augmentation de la concentration des suiveurs de tendance entraîne une plus grande volatilité des rendements. Scholl attribue le mouvement rapide d'abandon des suiveurs de tendance à la rationalité des investisseurs et à l'autocorrélation positive dans le processus de dividende.
Scholl explique que des modèles basés sur des agents peuvent être utilisés pour construire une matrice de communauté financière, similaire aux équations de Volterra prédateur-proie utilisées en biologie. Le rendement d'une stratégie particulière est assimilé à la taille de la population, et la sensibilité du rendement aux changements de la taille de la population représente la matrice communautaire. Sur le marché financier, la concurrence entre différentes stratégies survient lorsque les prix s'écartent des points d'équilibre. Scholl souligne que les marchés financiers présentent une dépendance à la densité, ce qui rend les interactions entre les espèces plus complexes que dans les systèmes biologiques. Cette dépendance à la densité conduit à des scénarios tels que des hausses de prix semblables à des bulles, mais reconnaît que de telles situations sont irréalistes.
Dans le contexte de l'écologie du marché, Scholl discute des implications pratiques de ses découvertes. Il présente un modèle linéaire qui utilise l'abondance des espèces pour décrire les relations entre différents types de prédateurs, impactant ainsi les résultats du marché. Cette approche met en évidence la nature multidimensionnelle des investissements et démontre l'importance de bien dimensionner les stratégies pour éviter les pertes ou devenir la proie des marchés financiers fortement dépendants de la densité. Il remet en question la vision traditionnelle selon laquelle les cours des actions reflètent toutes les informations fondamentales disponibles et présente les marchés financiers comme des systèmes complexes influencés par diverses conditions.
Scholl développe en outre son utilisation d'un modèle linéaire simple dans des modèles à base d'agents pour étudier l'écologie du marché. En analysant les avoirs et l'abondance relative des activités de marché, il a constaté que cette approche surpassait les modèles dérivés des départements qui supposent la rationalité et traduisent automatiquement les fondamentaux. Cependant, il reconnaît les limites de son modèle et souligne la nécessité de recherches supplémentaires pour améliorer son réalisme. Un aspect qu'il aborde est la sensibilité du modèle à différentes recettes et définitions, notamment en ce qui concerne le suivi des tendances. Bien que les dividendes jouent un rôle important dans son modèle, l'incorporation d'éléments plus réalistes pour les marchés financiers du monde réel nécessiterait des étapes supplémentaires.
En ce qui concerne l'adaptabilité des croyances des agents dans son modèle, Scholl souligne que les opérations de marché impliquent souvent que les gestionnaires de fonds suivent des stratégies décrites dans des prospectus pendant de longues périodes. Cela indique une tendance vers des processus d'allocation d'actifs mécaniques. En conséquence, Scholl penche vers la modélisation d'un comportement moins adaptatif et moins intelligent. Cependant, il souligne que d'autres chercheurs de son groupe à l'Université d'Oxford explorent activement l'application d'algorithmes évolutionnaires pour modifier les paramètres et même innover de nouvelles stratégies.
Les recherches de Martin Scholl portent sur l'étude de l'écologie du marché à l'aide de modèles à base d'agents. Il remet en question les théories et hypothèses financières traditionnelles en appliquant des concepts de la biologie pour mieux comprendre les marchés financiers. En comparant les stratégies d'investissement aux espèces en biologie, en analysant différentes stratégies et en simulant les mécanismes du marché, Scholl découvre la complexité des marchés financiers et l'interaction entre diverses stratégies. Ses conclusions suggèrent que les marchés financiers dépendent fortement de la densité et qu'un dimensionnement approprié des stratégies d'investissement est crucial pour éviter les pertes et devenir une proie dans cet écosystème dynamique. Les travaux de Scholl fournissent des informations précieuses sur la nature des marchés en tant que systèmes complexes, contrairement à la vision traditionnelle selon laquelle les cours des actions reflètent uniquement des informations fondamentales.
Kevin Webster : " Comment l'impact des prix déforme le compte de résultat comptable "
Kevin Webster : " Comment l'impact des prix déforme le compte de résultat comptable "
Dans une vidéo YouTube, Kevin Webster se penche sur la façon dont l'impact sur les prix peut fausser les états comptables des profits et pertes (P&L). Il souligne l'importance de modéliser avec précision l'impact sur les prix pour gérer efficacement le risque et souligne l'importance de gérer le risque de liquidité pour éviter de se retrouver avec une position illiquide. Webster reconnaît qu'il existe différents modèles d'impact sur les prix, mais ils s'accordent généralement sur la majorité des données.
L'exposé commence par aborder l'intersection entre l'impact sur les prix et le risque de liquidité, notant en particulier que la liquidité des principaux marchés était souvent tenue pour acquise avant la crise financière. Webster partage des citations puissantes qui illustrent comment l'impact sur les prix crée une illusion de profit, conduisant à des dislocations de prix loin des valeurs financières. L'objectif de la conférence est de formaliser mathématiquement ce concept, en fournissant un cadre quantitatif basé sur l'estimation de l'impact de la liquidation sur le marché pour éliminer l'illusion de profit.
Webster explique l'impact sur les prix comme un modèle causal pour le trading, où un trading plus agressif pousse les prix plus loin et vice versa. Les modèles d'impact sur les prix sont largement utilisés dans l'analyse des coûts de transaction et l'exécution optimale, servant d'outils de pré-négociation pour estimer les coûts de transaction attendus et optimiser les stratégies d'exécution. Il présente un faux rapport d'analyse des coûts de transaction qui permet aux traders d'évaluer les performances de leurs algorithmes sur une base trimestrielle, en mettant l'accent sur la minimisation du glissement des ordres et en tenant compte à la fois des mouvements mécaniques et du glissement alpha.
L'orateur évoque les lignes directrices publiées par l'Autorité européenne des marchés financiers (ESMA) concernant les stress tests de liquidité, qui consistent à simuler la liquidation d'actifs pendant les périodes de tension sur les marchés. La simulation des réactions du marché, telles que les dislocations de prix, et l'utilisation de stratégies de couverture sont essentielles pour réduire l'exposition au risque. Webster fait référence à diverses publications sur les tests de résistance à la liquidité et l'impact des prix sur le P&L comptable, y compris les travaux de Cascioli, Boucheron, Farmer et des comités réglementaires comme l'ESMA et le Baffled Committee. Il souligne la nécessité de tests de résistance à la liquidité pour atténuer les situations qui pourraient avoir un impact sur le P&L comptable et entraîner des coûts de liquidation élevés.
Le concept d'empreinte commerciale est introduit, qui mesure l'effet de distorsion de l'impact des prix sur le P&L comptable et relie différentes définitions du P&L. Webster présente un modèle simple de vente de feu pour illustrer les conclusions importantes sur le P&L comptable tirées par l'article de Casadio-Bouchard-Farmer. Il explique comment le nombre que les commerçants et les gestionnaires de plateforme observent quotidiennement surestime leur P&L final, entraînant une déflation lorsque la transaction est terminée. Cependant, cette propriété d'inflation peut être mesurée et affichée en temps réel, fournissant des informations exploitables aux traders. Webster note que les pertes d'inflation de position sont souvent temporaires et dépendent de la tolérance au risque.
Les enjeux liés à la valorisation d'une position en actions et son impact sur le P&L d'une entreprise sont abordés. Webster souligne l'ambiguïté dans la détermination des prix à utiliser pour marquer la position du stock et la différence entre le P&L comptable et le P&L fondamental utilisé par les algorithmes de trading. L'empreinte commerciale est définie comme la différence entre le P&L comptable et le P&L fondamental, l'ambiguïté étant résolue lorsque la position est fermée. L'orateur explore l'inflation de position, en faisant certaines hypothèses sous lesquelles cette propriété est valable. Le modèle d'impact et ses deux cas, la taupe OW originale et la taupe W étudiées par Fruehwirth et Bond, sont également abordés.
Webster explique que pour que le modèle ait un sens, une condition de non-arbitrage entre lambda et bêta doit être satisfaite, ainsi qu'une condition d'équation d'autofinancement. Il se penche sur le calcul du P&L attendu à la clôture et sur la manière dont l'empreinte commerciale introduit un biais dans le P&L comptable. La propriété d'inflation de position fait que la position se gonfle pendant la phase d'entrée de position, reste pendant la phase de maintien et finit par s'évaporer. Tous ces aspects peuvent être observés en temps réel sur un écran de trading, fournissant aux traders des informations précieuses.
Webster explique en outre les distorsions du P&L comptable causées par l'impact sur les prix. Il explique comment les traders peuvent réaliser des transactions rentables même sans alpha, mais prévient que ces bénéfices sont de courte durée en raison des coûts de transaction. La surveillance précoce des dislocations de prix est cruciale pour éviter les pertes. De plus, Webster note que les gestionnaires de portefeuille préfèrent voir leurs portefeuilles dans leur ensemble et introduit le concept de portefeuille stationnaire, qui contrôle la taille et la rotation d'un portefeuille dans le monde de la finance mathématique.
Le concept de portefeuille stationnaire est ensuite exploré en relation avec l'estimation des coûts de transaction courants. En comprenant l'échelle de temps du propagateur, les traders peuvent estimer dans quelle mesure leurs positions sont gonflées et l'illusion de profit qu'ils peuvent perdre lors de la liquidation de leurs positions. Webster démontre le cadre à l'aide de données empiriques, montrant son applicabilité à des scénarios du monde réel. Il applique le cadre à un modèle de vente de feu et explique les différences entre le P&L comptable et le P&L fondamental, soulignant comment ils informent différentes fonctions objectives en fonction de l'aversion au risque d'un trader.
L'orateur se penche sur l'impact des ventes de feu ou de l'activité de trading d'autres acteurs du marché sur le P&L et la position d'un trader. Une couverture agressive peut entraîner des effets d'encombrement et une inflation des positions, entraînant des pertes permanentes. La modélisation précise de l'impact sur les prix est cruciale pour une gestion efficace des risques, et la gestion du risque de liquidité est soulignée pour éviter de se retrouver avec des positions illiquides.
Webster reconnaît que bien qu'il existe de nombreux modèles d'impact sur les prix différents, ils s'accordent généralement sur la majorité des données. Cependant, des différences peuvent survenir dans l'ampleur et la durée de la persistance de l'impact. Les luxations temporaires peuvent durer de quelques jours à un mois. Du point de vue de la gestion des risques, il existe un plan d'action clair, tandis que du point de vue du trader et de la performance, une communication efficace devient essentielle. Comprendre si le P&L est mécanique ou non et supprimer la partie mécanique permet aux traders de se concentrer sur l'alpha ou l'avantage réel dans leurs transactions.
L'orateur explique le principe de "pas de manipulation de prix", soulignant que même si les commerçants réalisent des bénéfices, ils ne peuvent pas les maintenir car ils finiront par s'évaporer. L'inflation de position conduit à la déflation de la valeur commerciale au fil du temps ou à une liquidation immédiate, entraînant un P&L nul ou même négatif. Par conséquent, les commerçants doivent s'appuyer sur d'autres variables pour générer des bénéfices durables. Webster explore en outre la corrélation entre l'état d'impact initial, l'impact causé par le reste du marché et l'impact des couvertures du trader et du reste du marché.
En conclusion, Kevin Webster fournit une compréhension complète de la façon dont l'impact sur les prix peut fausser le P&L comptable. Il met en lumière les coûts supplémentaires liés aux régimes de liquidité à forte volatilité et leur corrélation avec le marché au sens large, en soulignant leur impact sur le biais. D'un point de vue réglementaire, les obligations d'entreprises et les compagnies d'assurance sont susceptibles d'être plus affectées par ce biais. Alors que Webster admet qu'il manque de réponses détaillées pour les marchés autres que les actions, il fournit une base mathématique solide pour comprendre l'impact sur les prix et sa distorsion potentielle du P&L.
Laura Leal (Princeton University) - "Apprentissage d'un contrôle fonctionnel pour la finance haute fréquence"
Laura Leal (Princeton University) - "Apprentissage d'un contrôle fonctionnel pour la finance haute fréquence"
Laura Leal, chercheuse à l'Université de Princeton, a fait une présentation informative sur l'application des réseaux de neurones profonds dans la finance à haute fréquence. Elle a souligné les limites des solutions conventionnelles et a exploré les avantages de l'utilisation des réseaux de neurones dans ce domaine. Leal a souligné leur capacité à s'adapter à des facteurs complexes tels que l'autocorrélation et la saisonnalité intrajournalière, avec lesquels les modèles traditionnels ont du mal. En tirant parti des réseaux de neurones, les traders peuvent obtenir une exécution optimale en minimisant l'impact sur le marché et en négociant en douceur.
Pour répondre aux préoccupations concernant la nature de la boîte noire des réseaux de neurones, Leal a introduit le concept d'explicabilité. Elle a discuté de la projection du contrôle du réseau neuronal sur une variété de dimension inférieure, permettant une meilleure compréhension des risques associés et de l'écart par rapport aux secteurs à risque familiers. L'équipe a évalué les performances du contrôle du réseau neuronal, en le comparant à la solution classique d'EDP (équation aux dérivées partielles) de forme fermée. Ils ont examiné la fonction de valeur, la richesse au prix du marché et les erreurs relatives dans les projections pour évaluer l'exactitude et l'efficacité de l'approche du réseau neuronal.
Leal s'est penché sur les subtilités de la formation du réseau de neurones, soulignant l'importance d'incorporer des données du monde réel et une dynamique précise. Elle a également proposé un contrôleur multi-préférences qui permet aux traders de saisir leurs préférences en matière de risque, permettant une adaptation plus rapide aux nouvelles conditions du marché. En considérant les paramètres d'aversion au risque et en incorporant les préférences d'un trader, le réseau de neurones peut générer une solution au problème d'optimisation stochastique dans la finance à haute fréquence.
Le présentateur a discuté de la structure du réseau de neurones utilisé pour le contrôle des risques, soulignant sa nature récurrente. Bien que le réseau ne soit pas excessivement profond, il utilise une structure récurrente à chaque pas de temps, mettant à jour les pondérations simultanément. Les entrées du réseau incluent le temps et l'inventaire, tandis que la sortie est le contrôle lui-même, qui détermine la quantité optimale de stocks à négocier à chaque pas de temps. Pour relever le défi de la disponibilité limitée des données financières, l'apprentissage par transfert est utilisé, simulant les données à l'aide des méthodes de Monte Carlo.
Leal a décrit le processus de projection du contrôle du réseau neuronal sur un espace de fonction linéaire en utilisant la régression linéaire. Cette technique de projection facilite une meilleure compréhension des fonctions non linéaires du réseau de neurones et de leur alignement avec des solutions de contrôle de forme fermée. Les résultats ont démontré l'impact de l'intégration des paramètres de saisonnalité et d'aversion au risque sur la réaction du modèle au marché. De plus, le présentateur a souligné l'importance du gamma, qui est généralement fixé à deux dans la littérature, mais a montré une solution non linéaire lorsqu'il est pris comme trois sur deux.
La performance et la précision du contrôle du réseau neuronal dans l'exécution des transactions pour la finance à haute fréquence ont été soigneusement évaluées. Leal a comparé la fonction de valeur, la richesse au prix du marché et les erreurs relatives dans les projections selon différents scénarios et valeurs gamma. Alors que le réseau neuronal présentait des performances supérieures, il exécutait les transactions de manière non linéaire, s'écartant de la solution de contrôle connue. Cela a soulevé des questions sur la décision de négocier en utilisant le réseau neuronal et sur la détermination des niveaux de marge appropriés en fonction de sa divergence par rapport à la solution établie.
Leal a exploré les avantages de l'approche du contrôleur multi-préférences, permettant aux traders de saisir leurs paramètres de conversion des risques et de commencer à trader immédiatement avec un modèle pré-formé. Alors que la solution de réseau neuronal prenait plus de temps à s'exécuter que la solution PDE, elle offrait une plus grande flexibilité et adaptabilité aux différentes préférences de risque. Pour améliorer l'explicabilité, Leal a proposé une idée de projection utilisant la régression linéaire, réduisant la charge de calcul tout en conservant la capacité multi-préférences. Elle a également souligné les applications plus larges du concept d'approximation des réseaux de neurones, suggérant sa pertinence dans d'autres problèmes financiers, tels que la couverture.
Le processus de formation pour le réseau de neurones dans la finance à haute fréquence a été discuté, mettant l'accent sur la formation hors ligne pour éviter les problèmes de latence associés à l'apprentissage par renforcement en ligne. Le réseau prend le temps, l'inventaire et potentiellement les paramètres d'aversion au risque comme entrées et produit un taux comme sortie. Leal a également décrit la procédure de réglage fin dans l'apprentissage par transfert, passant de données simulées à des incréments de données réelles obtenus de la Bourse de Toronto une fois que le réseau a convergé. Le présentateur a souligné l'importance d'utiliser des données du monde réel et une dynamique précise pendant le processus de formation, car cela améliore la capacité du réseau à saisir les complexités de la finance à haute fréquence.
Dans la section suivante, Laura Leal a donné un aperçu des entrées et de la fonction objective employées dans le réseau de neurones pour la finance à haute fréquence. Le réseau de neurones intègre l'inventaire en proportion du volume moyen d'un stock spécifique au cours d'une journée, permettant une représentation normalisée. La fonction objectif est formulée comme un problème de maximisation, la sortie servant de contrôle pour une exécution optimale. La structure du réseau neuronal est basée sur l'approximation de fonctions, utilisant deux nœuds d'entrée et quatre couches cachées pour capturer les relations sous-jacentes.
Répondant à une question sur l'écart entre deux solutions de contrôle, Leal a précisé que cela pouvait être interprété comme le reflet de l'évolution de l'utilité de l'investisseur. En ajustant le paramètre gamma, différentes fonctions d'utilité peuvent être utilisées, entraînant des variations dans les solutions de contrôle. Dans leurs recherches, l'équipe a choisi la valeur gamma de trois moitiés sur la base de tests empiriques avec de vrais commerçants, ce qui a abouti à des performances satisfaisantes.
Leal a en outre souligné que la sortie du réseau neuronal est observable et analysable. Ils peuvent surveiller les positions prises par le réseau et leur évolution tout au long de la journée de négociation, offrant ainsi une transparence et un aperçu du processus de prise de décision. Ce niveau d'interprétabilité et de compréhension permet aux traders de gagner en confiance dans les stratégies d'exécution du réseau neuronal.
Les défis associés au développement de contrôles fonctionnels pour la finance à haute fréquence ont également été discutés par Leal. Bien qu'un processus de contrôle moyen puisse fournir des informations globales sur l'exécution des transactions, il peut ne pas représenter avec précision le comportement des trajectoires individuelles. La dynamique du marché, telle que l'émergence de stocks de mèmes, nécessite l'adaptation des méthodes de contrôle pour saisir efficacement les conditions évolutives.
En conclusion, la présentation de Laura Leal a mis en lumière les complexités de la création de contrôles efficaces dans le domaine de la finance à haute fréquence. En tirant parti des réseaux de neurones profonds, les chercheurs et les commerçants peuvent surmonter les limites des modèles traditionnels et s'adapter à la dynamique complexe de ce domaine. L'incorporation de préférences de risque, de mesures d'explicabilité et de données du monde réel contribue au développement de solutions de contrôle robustes et adaptables. Grâce à leur travail, Leal et son équipe offrent des informations et des solutions précieuses qui ouvrent la voie à une prise de décision plus efficace et éclairée dans le domaine de la finance à haute fréquence.
Zihao Zhang (Oxford-Man Institute) - "Apprentissage en profondeur pour le marché par données de commande"
Zihao Zhang (Oxford-Man Institute) - "Apprentissage en profondeur pour le marché par données de commande"
Zihao Zhang, chercheur postdoctoral à l'Oxford-Man Institute et membre du groupe de recherche sur l'apprentissage automatique, présente les travaux récents de son équipe sur l'application de l'apprentissage en profondeur au marché des données de commande. Ils se concentrent sur les données de microstructure du marché, en particulier le carnet d'ordres à cours limité, qui fournit des informations précieuses sur la dynamique globale de la demande et de l'offre pour un instrument financier spécifique. En combinant les données du marché par ordre et du carnet d'ordres à cours limité, Zhang et son équipe ont découvert qu'ils pouvaient réduire la variance du signal et obtenir de meilleurs signaux prédictifs. Cette application de leur modèle offre un potentiel pour améliorer l'exécution des transactions et les stratégies de tenue de marché.
Zhang commence sa présentation en fournissant une brève introduction aux données de microstructure du marché, en insistant spécifiquement sur l'importance des données de marché par commande. Cette source de données offre des informations très granulaires, fournissant des mises à jour et des événements fréquents par rapport aux données du carnet d'ordres limités, qui ont reçu plus d'attention dans la littérature existante. Il présente leur modèle d'apprentissage en profondeur, expliquant les architectures de réseau qu'ils ont conçues pour analyser le marché par les données de commande. Zhang souligne que leur travail représente le premier modèle prédictif utilisant des données de marché par commande pour prévoir les mouvements à haute fréquence, offrant une source alternative d'informations qui élargit les possibilités de découverte alpha.
Ensuite, Zhang se penche sur le concept du carnet d'ordres à cours limité, qui sert de registre complet de tous les ordres à cours limité en cours pour un instrument financier à un moment donné. Il souligne que si les données graphiques offrent des informations à basse fréquence, le prix d'une action est en fait représenté par le carnet d'ordres à cours limité, qui est une série chronologique multivariée. Zhang explique comment le carnet d'ordres à cours limité est organisé en différents niveaux de prix en fonction des commandes soumises, chaque niveau de prix étant composé de nombreux petits ordres segmentés par différents commerçants. Il explique également comment le carnet de commandes est mis à jour lorsque de nouveaux messages arrivent, ce qui peut introduire de nouvelles positions, annuler des commandes existantes ou modifier des commandes en cours. Zhang souligne que les données dérivées du carnet d'ordres à cours limité révèlent la relation globale entre l'offre et la demande pour un instrument financier spécifique, et son objectif est de déterminer si l'utilisation des données du marché par ordre, contenant des informations sur le placement et l'annulation des ordres, peut fournir des informations supplémentaires. pour faire des pronostics.
À l'avenir, Zhang explore comment les données du marché par commande peuvent être utilisées dans l'apprentissage en profondeur pour prédire les mouvements du marché. Bien que les chaînes de messages dans les données d'ordre au marché possèdent des dimensions inférieures par rapport au carnet d'ordres à cours limité, elles offrent des informations supplémentaires qui peuvent être exploitées pour les prédictions. Zhang explique comment les événements passés peuvent être transformés en matrices 2D, formant des images qui peuvent être introduites dans un réseau de neurones pour la prédiction. Les caractéristiques résultantes de la couche convolutive peuvent ensuite être intégrées dans les couches neurales récurrentes pour apprendre la structure et capturer des dépendances supplémentaires. La couche finale produit des prédictions basées sur une configuration de classification utilisant des rendements de seuil.
Zhang poursuit en discutant de l'architecture de réseau utilisée pour faire des prédictions à l'aide des données du carnet d'ordres à cours limité. Dans ce cas, les deux premiers composants sont remplacés par des messages de commerçants individuels, et les couches convolutionnelles sont remplacées par une couche LSTM ou une couche d'attention. Zhang explique brièvement le mécanisme d'attention, qui facilite la prédiction en un seul point et implique une structure d'encodeur-décodeur. L'encodeur extrait les caractéristiques significatives des heures d'entrée et les résume dans un état caché, tandis que le décodeur génère la prédiction. La normalisation est utilisée pour déterminer si un ordre est un achat ou une vente sur la base du prix moyen.
Dans la section suivante, Zhang présente les résultats de leur modèle formé avec un groupe d'actifs, normalisé à une échelle similaire et testé à l'aide de différents modèles tels que le modèle linéaire simple, le perceptron multicouche, le LSTM et le modèle d'attention, incorporant à la fois l'ordre limite les données du livre et les données ambiantes pures. Les résultats indiquent que les signaux prédictifs des données ambiantes présentent moins de corrélation avec les signaux du carnet d'ordres limités, ce qui suggère qu'une combinaison de ces deux sources peut réduire la variance du signal, bénéficier de la diversification et produire des signaux prédictifs supérieurs. Par conséquent, un modèle d'ensemble qui fait la moyenne des signaux prédictifs des deux types de données présente les meilleures performances.
Zhang poursuit en discutant des avantages potentiels de l'intégration des données de marché par commande (MBO) dans les prévisions et met en évidence la possibilité d'effectuer une ingénierie des fonctionnalités avec ces données. Il présente les résultats pour des horizons de prédiction allant de deux à 20 ticks à venir, notant des comportements similaires observés pour 50 et 100 ticks à venir. Zhang répond également aux questions du public, notamment la possibilité de former un modèle unique en utilisant tous les instruments pour une meilleure généralisation et la source des données MBO de la Bourse de Londres. En réponse à la question d'un membre du public sur le fait de se concentrer sur NF1 au lieu de PNL, Zhang est d'accord et reconnaît que PNL est une mesure plus pertinente du succès.
Zhang discute en outre de l'utilisation des signaux prédictifs et des différentes façons de les définir, comme l'utilisation d'un signal brut ou la définition d'un seuil basé sur des probabilités softmax. Il résume les points clés de l'article, qui propose de modéliser les données du marché par ordre (MBO) au lieu des données du carnet d'ordres limités et de tester des modèles d'apprentissage en profondeur, y compris le mécanisme de rétention LSTM. Les résultats indiquent qu'une combinaison de MBO et de données du carnet d'ordres à cours limité donne les meilleurs résultats. Zhang répond aux questions du public concernant l'autocorrélation entre les mouvements du marché, le filtrage des échanges de bruit et la motivation pour l'utilisation des couches CNN dans la modélisation des images d'ordre limite.
Dans la section suivante, Zhang explique comment le carnet de commandes peut être traité comme une structure spatiale qui peut être explorée efficacement à l'aide de réseaux de neurones convolutifs (CNN). L'utilisation d'un CNN pour extraire des informations de chaque niveau de prix s'est avérée utile pour les prévisions. La couche de mémoire longue à court terme (LSTM) est choisie parmi les perceptrons multicouches car elle maintient le flux temporel de données et résume les événements passés pour faire des prédictions. Zhang note que les avantages de l'utilisation d'un mécanisme d'attention sont limités en raison de la nature des séries chronologiques financières. L'article comprend une description détaillée des hyperparamètres utilisés dans leur modèle.
Zhang répond à la préoccupation concernant le grand nombre de paramètres utilisés dans les méthodes de réseau neuronal et leur efficacité dans la prédiction du marché boursier. Il reconnaît que l'abondance de paramètres peut faire l'objet de critiques, mais souligne que son équipe n'a affiné que quelques paramètres spécifiques à leur modèle. Ils n'ont pas encore envisagé d'utiliser l'écart acheteur-vendeur comme critère de succès, mais reconnaissent son potentiel pour une exploration plus approfondie. Zhang pense que leur modèle a une valeur pratique pour l'exécution des transactions et les stratégies de création de marché. Cependant, il mentionne que si l'on a l'intention de franchir le spread, un sous-échantillonnage des données peut être nécessaire, car les mises à jour fréquentes des données du carnet d'ordres peuvent compliquer l'exécution des transactions. Enfin, lors de la modélisation du carnet d'ordres à cours limité Elo, ils agrègent la taille totale à chaque niveau de prix plutôt que d'inclure des informations sur les tailles d'ordre individuelles.
Dans la dernière section, Zhang explique les différences entre le marché par commande et le marché par prix. Les données de marché par commande permettent de suivre les commandes individuelles, ce qui n'est pas possible avec les données de marché par prix. Avec une ingénierie de fonctionnalités appropriée, les données de marché par commande peuvent fournir des informations supplémentaires et générer de l'alpha. Zhang explique également comment son modèle traite les modifications du prix d'un ordre à cours limité spécifique tout en gardant la taille inchangée. Chaque nouveau message avec des prix mis à jour est traité comme une nouvelle mise à jour, enrichissant le jeu de données.
Dans l'ensemble, la présentation de Zihao Zhang présente l'application de l'apprentissage en profondeur au marché par les données de commande, soulignant son potentiel pour extraire des informations précieuses à partir des données de microstructure du marché. En combinant les données du marché par ordre et du carnet d'ordres à cours limité, l'équipe de Zhang a démontré la réduction de la variance du signal et la génération de signaux prédictifs améliorés. Leur travail est prometteur pour améliorer l'exécution des transactions et les stratégies de tenue de marché, offrant une contribution précieuse au domaine de l'analyse des marchés financiers.
Vineel Yellapantula (Cornell MFE '20): "Quantifier le texte dans les dépôts auprès de la SEC"
Vineel Yellapantula présente son projet d'été, qui implique l'application de techniques de traitement du langage naturel (NLP) pour négocier des actions sur la base d'informations textuelles trouvées dans les documents déposés auprès de la SEC, en se concentrant particulièrement sur la section MD&A. L'objectif du projet est d'attribuer un score à chaque rapport des 430 actions présentes sur le marché américain et d'analyser leur performance en les regroupant en cinq quantiles en fonction du score. Yellapantula utilise des méthodes traditionnelles telles que le cosinus et la similarité Jaccard pour déterminer le score de similarité entre les textes, la similarité Jaccard s'avérant plus cohérente dans le temps. Il explore également la création d'un modèle d'analyse des sentiments utilisant des réseaux de neurones récurrents (RNN) avec Keras sur un ensemble de données textuelles, atteignant une précision impressionnante de 87,5 % avec son modèle.
Au cours de la présentation, Yellapantula a souligné l'importance de sélectionner la méthode appropriée pour chaque problème spécifique et d'incorporer des données supplémentaires pour améliorer les résultats. Il souligne l'abondance d'informations disponibles grâce aux données textuelles, en particulier dans les dépôts 10-K, et mentionne que les facteurs développés à l'aide de documents antérieurs peuvent être plus efficaces que ceux qui s'appuient uniquement sur le présent document. Yellapantula indique diverses alternatives pour utiliser des techniques d'apprentissage en profondeur avec des données textuelles, notamment les gants, word2vec, BERT et RNN. Il suggère en outre d'incorporer davantage de sources de données, telles que les dépôts 8-K et les cycles d'actualités, pour améliorer le pouvoir prédictif des modèles. Cependant, il reconnaît la présence d'un biais de sélection dans son étude, car elle se concentre sur les actions performantes présentes dans l'indice de 2007 à 2020.
Dans la section dédiée à l'analyse des sentiments, Yellapantula explique le processus de création d'un modèle utilisant les RNN avec Keras. Les étapes consistent à symboliser le texte pour comprendre sa signification, à réduire la dimensionnalité par des intégrations et à utiliser une couche LSTM et une couche dense avec une fonction sigmoïde pour la classification des sentiments. Il démontre l'application de cette approche en utilisant des revues IMDB, en limitant la longueur de la revue à 500 mots et en complétant les revues plus courtes avec des zéros pour maintenir la cohérence. Grâce à une évaluation rigoureuse, Yellapantula atteint un taux de précision de 87,5 % avec son modèle d'analyse des sentiments.
De plus, Yellapantula souligne l'importance de la corrélation des informations pour déterminer l'efficacité des facteurs et leur cohérence dans le temps. Il fait référence à une étude qui suggère que les entreprises avec des rapports stables ont tendance à bien performer, indiquant qu'il s'agit d'un facteur prometteur à explorer. En conclusion, Yellapantula exprime sa gratitude au public pour son intérêt et attend avec impatience de nouveaux engagements à l'avenir.
Le projet de Vineel Yellapantula démontre l'application des techniques NLP pour extraire des informations précieuses à partir d'informations textuelles dans les dépôts auprès de la SEC. En attribuant des notes aux rapports et en analysant leurs performances, son travail contribue à comprendre comment la langue peut influencer les transactions boursières. De plus, son exploration de l'analyse des sentiments à l'aide de RNN met en évidence le potentiel de l'apprentissage en profondeur dans la capture de sentiments à partir de données textuelles. Grâce à une sélection rigoureuse de la méthodologie et à l'incorporation de sources de données supplémentaires, Yellapantula met l'accent sur la possibilité d'améliorer la précision et l'efficacité de ces modèles.
Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (Université de Parme)
Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (Université de Parme)
Peter Carr présente un produit financier appelé "stoptions" qui combine les caractéristiques des contrats à terme et des options de vente. Les arrêts permettent au propriétaire d'éviter des changements de prix défavorables en incorporant un élément d'option de vente bermudien. Carr explique le concept d'options et donne un exemple d'une option de trois jours avec différents étages associés. Il passe ensuite à la discussion de l'évaluation des arrêts d'un jour et de deux jours, ces derniers ayant deux étages et la flexibilité d'exercer le premier ou le deuxième jour.
Carr explore en outre l'évaluation de l'arrêt sur de plus longues périodes en se plongeant dans la récursivité arrière, l'évaluation d'un put marié et l'utilisation de pseudo-sommes. Il suggère d'utiliser la distribution logistique pour représenter les variations de prix des options de vente mariées. La valeur des arrêts peut être obtenue à l'aide de formules simples pour les options "à parité", et l'évaluation et la couverture peuvent être effectuées de manière analytique.
Carr conclut l'article en discutant des défis associés à l'adoption de telles options par le marché. Il souligne l'importance de trouver un acheteur et un vendeur pour ces produits et partage ses conversations avec des acheteurs et des vendeurs potentiels. De plus, Carr reconnaît que le modèle d'arrêt est une alternative aux modèles existants comme Black-Scholes et Bachelier, mais il peut ne pas s'adapter de manière optimale à toutes les situations. Néanmoins, il souligne que leur modèle vise à capturer la multitude d'opérations binaires ayant une signification particulière en finance.
Dans une section ultérieure, Carr et Lorenzo Torricelli proposent un modèle « d'arrêt » utilisant un paradigme conjugué et une distribution logistique. Ce modèle offre une flexibilité dans la structure des termes avec un seul paramètre, permettant l'adaptation de diverses structures de termes en une seule grève. Cependant, il peut ne pas correspondre parfaitement au marché en raison de son graphique de volatilité implicite en pente descendante. Les auteurs reconnaissent les limites de leur modèle et reconnaissent les innombrables opérations binaires en finance que leur modèle vise à capturer. Ils discutent de l'optionnalité entre une grève et une seule option, ainsi que de l'optionnalité répétée par pseudo sommation. La section se termine par une appréciation mutuelle et l'anticipation d'assister aux séminaires de l'autre.
Lorenzo Torricelli (Université de Parme) - "Processus logistiques additifs dans la tarification des options"
Lorenzo Torricelli (Université de Parme) - "Processus logistiques additifs dans la tarification des options"
Lorenzo Torricelli, professeur distingué à l'Université de Parme, plonge dans les subtilités de la tarification des options en explorant le modèle logistique additif et la spécification auto-similaire. Dans sa présentation éclairante, il élucide la formule de tarification des options vanille à l'aide de ces modèles innovants et illustre leur application en présentant une comparaison de densité entre le modèle de tarification logistique et les modèles normaux traditionnels.
En outre, Torricelli effectue une analyse de référence de la structure des termes cumulés pour le modèle logistique par rapport à une révolution linéaire de la structure des termes pour les modèles homogènes. Ses observations perspicaces révèlent que le modèle logistique offre beaucoup plus de flexibilité dans l'élaboration de la structure des termes, offrant ainsi un avantage notable par rapport aux approches conventionnelles.
Pour fournir une compréhension globale, Torricelli examine également les surfaces de volatilité associées à ces modèles. Il note la présence d'un biais positif dans le modèle résultant de la distribution asymétrique des retours logarithmiques et de l'aplatissement de la distribution logistique. Cependant, il met en évidence l'absence de biais dans la distribution logistique elle-même, car elle présente une symétrie. Torricelli discute en outre de l'impact des paramètres modaux sur la structure des termes de volatilité, reconnaissant le potentiel d'amélioration de la paramétrisation choisie.
En conclusion, Torricelli souligne que les formules d'options dérivées de ces modèles sont explicites et bien connues, facilitant leur mise en œuvre pratique. Il salue notamment la vitesse impressionnante démontrée lors du test de performance. En témoignage de la transparence et de la collaboration universitaire, Torricelli prévoit de rendre le code associé à ces modèles accessible au public, au profit des chercheurs et des praticiens.
Yumeng Ding (Cornell MFE '20) - "Interprétation des modèles d'apprentissage automatique"
Yumeng Ding (Cornell MFE '20) - "Interprétation des modèles d'apprentissage automatique"
Yumeng Ding, un chercheur compétent, plonge dans le domaine de l'interprétation des modèles d'apprentissage automatique pour les prévisions de cours des actions. Dans son analyse complète, elle explore une gamme de méthodes d'interprétabilité, y compris les diagrammes de dépendance partielle, l'importance des caractéristiques de permutation, les statistiques de bord et LIME, pour faire la lumière sur le fonctionnement interne de ces modèles. En employant ces méthodes, Ding vise à démêler la contribution de facteurs individuels et leurs effets interactifs dans la prévision des cours boursiers.
L'étude de Ding s'articule autour de trois types de facteurs : technique, qualité et valeur, qui sont utilisés comme entrées pour divers modèles d'apprentissage automatique tels que les classificateurs et les régressions. En s'appuyant sur les méthodes d'interprétabilité mentionnées précédemment, elle démêle les relations complexes entre ces facteurs et les prévisions de cours des actions. Grâce à des backtests rigoureux, Ding découvre que les modèles non linéaires surpassent les modèles linéaires en termes de performances. De plus, elle observe que les effets de différents facteurs présentent des variations temporelles, soulignant la nature dynamique de la prévision du cours des actions. En fin de compte, Ding identifie AdaBoost comme le modèle le plus adapté à son scénario spécifique.
Surtout, Ding souligne l'importance des méthodes d'interprétabilité dans la compréhension des modèles d'apprentissage automatique. Elle souligne que si l'approche vectorielle fournit des informations rapides sur les interactions les plus prédictives, elle ne parvient pas à révéler la qualité de ces interactions. Ding souligne la valeur de l'utilisation de diagrammes de dépendance partielle bidimensionnels pour visualiser efficacement des interactions plus simples. De plus, elle recommande la méthode du tracé linéaire pour approfondir les subtilités des interactions individuelles et visualiser les effets locaux, tant que les données sont suffisamment claires du bruit.
Résumant ses conclusions, Ding met l'accent sur deux points clés de son projet. Premièrement, elle confirme que les modèles d'apprentissage automatique surpassent les régressions naïves linéaires dans la majorité des scénarios en raison de leur capacité à capturer des effets d'interaction complexes. Deuxièmement, elle met en évidence la faisabilité de l'interprétation des modèles d'apprentissage automatique en tirant parti d'une variété de méthodes d'interprétabilité. Ces techniques permettent aux chercheurs d'élucider les contributions individuelles des facteurs et de comprendre leurs influences interactives sur les prévisions.
Silvia Ruiz (Cornell MFE '20): "Comment prédire les mouvements de stock à l'aide des techniques NLP"
Silvia Ruiz (Cornell MFE '20): "Comment prédire les mouvements de stock à l'aide des techniques NLP"
Silvia Ruiz, récemment diplômée du programme Cornell MFE, partage les idées de son projet axé sur la prévision des cours des actions à l'aide de techniques NLP (Natural Language Processing). L'objectif de la recherche de son équipe était d'explorer la relation entre les documents déposés par les entreprises, tels que les rapports 10-K et 10-Q, et l'impact ultérieur sur les cours des actions. Pour ce faire, ils ont collecté un ensemble de données substantiel composé de 1 095 rapports sur le site Web EDGAR, englobant 50 entreprises dans cinq secteurs du S&P 500.
Au départ, Ruiz et son équipe ont expérimenté des modèles basés sur des dictionnaires, mais leur efficacité a été limitée. Pour résoudre ce problème, ils ont incorporé des méthodes avancées telles que le modèle word to back et Finberg, qui se sont avérées cruciales pour comprendre les nuances contextuelles intégrées dans les documents déposés par les entreprises. De plus, ils ont utilisé diverses mesures de sentiment, y compris la polarité et la complexité des mots, ainsi qu'un modèle de boost xg, pour prédire les mouvements des cours des actions.
La précision de leurs prédictions a été évaluée sur deux périodes différentes. À court terme, leur modèle a atteint une précision remarquable de 61 %, tandis qu'à long terme, il a démontré une précision respectable de 53 %. Tirant parti de ces prédictions comme signaux pour les décisions d'investissement, ils ont surperformé un portefeuille également pondéré. Cependant, Ruiz souligne la nécessité de poursuivre les recherches dans divers secteurs pour améliorer la précision et la généralisabilité de leurs résultats.
Silvia Ruiz conclut sa discussion en offrant généreusement ses coordonnées et en fournissant un lien vers le référentiel de son projet sur Github. Ce geste encourage les enquêtes de suivi et favorise la collaboration pour faire progresser la compréhension et l'application des techniques de la PNL dans le domaine de la prévision du cours des actions.
Charles-Albert Lehalle : "Une tentative de compréhension du traitement automatique du langage naturel"
Charles-Albert Lehalle : "Une tentative de compréhension du traitement automatique du langage naturel"
Dans cette présentation vidéo, Charles-Albert Lehalle et son équipe se penchent sur les applications du traitement automatique du langage naturel (TAL) dans le domaine financier. Leur discussion s'articule autour de trois domaines clés : l'analyse des sentiments, la prévision du cours des actions et la modélisation des coûts de transaction. Ils reconnaissent les défis associés à la PNL, tels que le risque de surajustement et de biais dans les incorporations, et proposent des solutions potentielles, notamment l'apprentissage multitâche et l'expansion des lexiques. L'équipe explore à la fois le potentiel et les limites de la PNL dans le secteur financier, en soulignant l'importance de comprendre le contexte et les modèles linguistiques dans différents secteurs.
Lehalle et son équipe présentent leurs propres expériences utilisant des techniques de PNL, fournissant des informations précieuses sur la façon dont la PNL peut compresser les informations et offrir des indicateurs informatifs aux analystes financiers. Ils mettent en évidence les défis de l'utilisation de la PNL dans la finance, y compris l'exigence de connaissances spécifiques au domaine et la difficulté d'extraire des informations significatives à partir de données textuelles non structurées. Les préoccupations éthiques entourant l'utilisation de la PNL dans la finance, telles que l'exploitation des données des médias sociaux à des fins commerciales, sont également abordées.
Tout au long de la présentation, Charles-Albert Lehalle partage son expertise et ses connaissances sur divers sujets en PNL. Il explique l'utilisation des méthodes de PNL basées sur le lexique et l'intégration dans la finance, proposant une combinaison des deux approches pour capturer les caractéristiques lexicales et probabilistes dans les données textuelles. Les défis de la distinction entre les synonymes et les antonymes dans les incorporations sont abordés, et l'équipe de Lehalle explore des modèles génératifs pour contrôler la structure et le sentiment du texte. L'importance de comprendre les plongements et les modèles de référence, tels que les matrices représentant les distributions de mots conjoints, est soulignée.
Lehalle explore plus avant l'importance du contexte dans la PNL, discutant de la façon dont les intégrations peuvent être biaisées pour les mots positifs et négatifs en fonction du contexte. Il explique l'utilisation des chaînes de Markov pour structurer les modèles matriciels de référence et présente des expériences sur l'identification des synonymes dans les plongements. Les limites de la PNL dans la capture des noms d'entreprises et leurs polarités associées sont reconnues, ainsi que la suggestion d'un apprentissage multitâche pour les intégrations supervisées. Les conférenciers abordent également le déséquilibre des mots positifs et négatifs du lexique Loughran-McDonald et les défis du traitement de l'ironie dans les textes financiers.
La présentation se termine par un aperçu d'un projet de Sylvia Ruiz, récemment diplômée en ingénierie financière de Cornell. Le projet se concentre sur la prévision des cours des actions à l'aide de techniques NLP, en particulier en grattant les sections de discussion de la direction des dépôts 10-K et 10-Q de 50 sociétés du S&P 500 et en analysant le sentiment pour évaluer son impact sur les cours des actions. Lehalle discute des limites des modèles basés sur un dictionnaire et explique comment leur équipe a élargi le dictionnaire, utilisé FinBERT pour comprendre le contexte et utilisé diverses fonctionnalités pour mesurer le sentiment. Ils ont réalisé de meilleures performances qu'un portefeuille équipondéré à la fois à court et à long terme.
En résumé, Charles-Albert Lehalle et son équipe ont mis en lumière le potentiel et les enjeux du TAL en finance. Ils offrent des idées, des expériences et des stratégies pour appliquer efficacement les techniques de PNL, tout en soulignant l'importance d'une utilisation responsable et d'une compréhension approfondie à la fois de la technologie et du domaine financier.