Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Stratégies de trading haute fréquence
Stratégies de trading haute fréquence
Merci de m'avoir invité aujourd'hui à présenter mon article sur les stratégies de trading à haute fréquence. Je m'appelle Amy Kwan et je viens de l'Université de Sydney. Cet article est co-écrit avec Michael Goldstein du Babson College et Richard Phillip, également de l'Université de Sydney.
Le but de cet article est de contribuer au débat en cours entre les régulateurs, les acteurs du marché et les universitaires concernant l'impact du trading à haute fréquence (HFT) sur les marchés financiers. Nous avons entendu différents points de vue sur cette question, y compris l'exposé de Sean et la discussion d'hier soir.
Bien qu'il existe des opinions divergentes sur le HFT, certaines personnes, comme Michael Lewis, l'auteur du livre "Flash Boys", soutiennent que le marché boursier américain est devenu un système de classe basé sur la vitesse, où quelques privilégiés paient pour des nanosecondes d'avantage tout en d'autres ignorent la valeur de ces minuscules intervalles de temps. D'autre part, les partisans du HFT, comme Ray Katsuyama, affirment que les HFT peuvent capter les signaux de trading et profiter des investisseurs réguliers.
Les premières preuves académiques soutenaient généralement le HFT et le trading algorithmique, car on pensait qu'il augmentait la liquidité et améliorait les mesures traditionnelles de la qualité du marché telles que la diminution des spreads, l'augmentation de la profondeur et la réduction de la volatilité à court terme. Cependant, des études plus récentes ont trouvé certains aspects négatifs du HFT. Par exemple, les HFT peuvent anticiper les flux d'ordres d'autres investisseurs et extraire des rentes des forces du marché.
De plus, des études récentes, telles que celles de Banker, Blending, Courageous et Canorkey, indiquent que les HFT se négocient initialement contre le vent, puis se négocient avec le vent au fur et à mesure qu'un commerce important progresse. Pour illustrer cela, considérons un scénario où un grand fonds de pension veut acheter des actions Apple. Les HFT, en détectant ce commerce, peuvent concurrencer l'institution pour négocier dans la même direction, car ils anticipent la future augmentation des prix due à la pression d'achat.
Bien qu'il y ait une certaine compréhension des effets du HFT, la littérature reste peu claire sur la façon dont les HFT négocient et influencent réellement les marchés financiers. La plupart des preuves existantes sont basées sur des exécutions commerciales, et on sait peu de choses sur le comportement de soumission des ordres en Australie.
Pour combler cette lacune, notre étude examine directement les stratégies de trading HFT en analysant les données complètes du carnet d'ordres à cours limité. Nous avons accès à des informations détaillées sur les soumissions de commandes, les modifications, les annulations et les transactions pour les 100 principales actions de l'ASX. En classant les commerçants en entreprises HFT, commerçants institutionnels et courtiers de détail, nous visons à comprendre leur comportement et l'impact sur la dynamique du marché.
Nos principales conclusions révèlent que les HFT excellent dans la surveillance du carnet d'ordres et la négociation des déséquilibres. Lorsque la demande d'achat ou de vente d'actions est plus élevée, les HFT réussissent mieux à capitaliser sur ces informations par rapport aux autres catégories de commerçants. De plus, nous observons que les HFT fournissent des liquidités sur le côté fixe du carnet d'ordres, même lorsqu'elles ne sont pas nécessaires, tandis que les non-HFT souffrent d'un accès limité au carnet d'ordres en raison du comportement stratégique des HFT.
Nous examinons également l'introduction d'un flux de données plus rapide appelé "it" et constatons que les HFT deviennent encore plus efficaces dans leur négociation stratégique après sa mise en œuvre. Cependant, les ordres non HFT sont évincés du carnet d'ordres à cours limité, ce qui réduit les chances d'exécution réussie pour ces traders.
En conclusion, notre étude contribue à la compréhension des stratégies de trading HFT en analysant les données complètes du carnet d'ordres à cours limité. Nous constatons que les HFT surpassent les autres catégories de traders en matière de suivi du carnet d'ordres et de négociation des déséquilibres. L'introduction d'un flux de données plus rapide renforce encore leur avantage commercial. Ces résultats mettent en lumière la manière dont les HFT influencent la dynamique du marché et fournissent des informations précieuses aux régulateurs, aux acteurs du marché et aux universitaires.
Merci encore de m'avoir donné l'occasion de présenter nos recherches.
Ciamac Moallemi : Trading à haute fréquence et microstructure du marché
Ciamac Moallemi : Trading à haute fréquence et microstructure du marché
Une partie du but de ma présentation est de familiariser les gens avec les recherches menées par les membres du corps professoral. Avant d'aborder le sujet principal, je voudrais donner quelques informations sur mon propre travail en tant que mathématicien appliqué. Environ la moitié de mon temps est consacrée à l'exploration de problèmes de contrôle stochastique, qui impliquent de prendre des décisions dans le temps en présence d'incertitude. Ces problèmes mathématiques abstraits posent des défis importants mais sont fondamentaux, car de nombreux problèmes d'ingénierie et commerciaux partagent des caractéristiques similaires. L'autre moitié de mes recherches porte sur l'aspect plus appliqué des problèmes de contrôle stochastique dans le domaine de l'ingénierie financière.
Fort de mon expérience antérieure en tant que gestionnaire de fonds spéculatifs, j'ai un intérêt particulier pour le trading optimal, la microstructure du marché et le trading à haute fréquence sur les marchés financiers. Aujourd'hui, j'aborderai ces sujets pour donner un aperçu de la complexité des marchés électroniques modernes. Pour apprécier les enjeux, il est crucial de comprendre les principales caractéristiques des marchés boursiers américains, qui ont considérablement évolué au cours des cinq à dix dernières années.
D'abord et avant tout, le commerce électronique domine le marché, rendant l'image traditionnelle des commerçants sur le parquet de la Bourse de New York largement hors de propos. Le commerce se déroule désormais principalement sur des ordinateurs, le commerce électronique étant le principal mécanisme d'échange. Un autre changement notable est la décentralisation ou la fragmentation du commerce. Dans le passé, une action particulière se négociait principalement au Nasdaq ou à la Bourse de New York. Cependant, il existe maintenant plusieurs bourses, chacune représentant un pourcentage substantiel des échanges d'actions.
Ces bourses sont organisées sous forme de carnets d'ordres à cours limité électroniques, où les acteurs du marché peuvent soumettre des ordres d'achat et de vente avec des prix spécifiés. Lorsque les prix se croisent, les transactions sont exécutées. Cela contraste avec le marché historique des concessionnaires ou la structure du marché spécialisé de la Bourse de New York. En outre, environ 30 % des transactions ont lieu sur des sites alternatifs tels que les réseaux de croisement électroniques, les dark pools et l'internalisation, ce qui contribue davantage à la nature décentralisée des transactions.
L'une des caractéristiques les plus frappantes des marchés modernes est l'automatisation croissante des participants. Auparavant, un trader humain gérait de grosses commandes, mais maintenant les algorithmes et le trading à haute fréquence ont pris le dessus. Le trading algorithmique permet aux investisseurs de trancher et de découper des ordres importants au fil du temps et sur les bourses, tandis que les traders à haute fréquence, souvent classés comme teneurs de marché, fournissent des liquidités. Ces tendances récentes ont rendu le marché plus complexe et ont conduit à des interactions imprévisibles entre les traders algorithmiques et les traders à haute fréquence.
Ces développements ont soulevé des questions importantes tant au niveau politique que pour les participants individuels. Les décideurs politiques et les régulateurs doivent évaluer les avantages et les inconvénients de la structure complexe actuelle du marché. Ils doivent également faire face à des problèmes tels que la survenance d'événements comme le fameux flash crash du 6 mai 2010, où les prix du marché ont chuté de manière significative en quelques minutes en raison d'une interaction pathologique entre un trader algorithmique et des traders à haute fréquence.
Au niveau des participants individuels, les problèmes de prise de décision doivent être résolus. Compte tenu de la complexité et de l'imprévisibilité du marché, les participants doivent déterminer l'approche la plus efficace pour leurs stratégies de négociation. C'est dans ce contexte que j'ai mené des recherches sur deux problématiques spécifiques liées au trading haute fréquence et à la microstructure des marchés : comprendre l'importance de la latence et examiner le rôle des dark pools sur les marchés.
La latence fait référence au délai entre la prise d'une décision de trading et son exécution. La capacité à négocier rapidement avec une faible latence est devenue de plus en plus importante. Pour évaluer la valeur et le coût associés à la latence, il est nécessaire d'évaluer son importance dans les décisions commerciales. Au fil des ans, la latence sur les marchés boursiers américains a considérablement diminué, les transactions se déroulant désormais en quelques microsecondes. Cette avancée technologique a été motivée par la demande des traders à haute fréquence et d'autres personnes cherchant une exécution plus rapide.
Comprendre l'importance de la latence soulève d'autres questions. Une faible latence est-elle bénéfique pour prendre des décisions avec les dernières informations ? Le fait d'être plus rapide que les concurrents offre-t-il un avantage pour capter les bénéfices ? De plus, les règles et l'organisation des échanges donnent souvent la priorité à l'entrée précoce, créant des avantages pour les commerçants avec des connexions à faible latence. Cela soulève des inquiétudes quant à l'équité et à l'égalité d'accès aux opportunités du marché.
Pour répondre à ces questions, mes recherches consistent à développer des modèles mathématiques qui capturent la dynamique du trading à haute fréquence et l'impact de la latence sur les stratégies de trading. En simulant différents scénarios et en analysant les résultats, mon objectif est de fournir des informations sur l'équilibre optimal entre rapidité et précision dans les décisions de trading. Cette recherche peut aider les acteurs du marché, tels que les fonds spéculatifs ou les investisseurs institutionnels, à concevoir leurs algorithmes de négociation et leur infrastructure afin de maximiser leurs performances dans un environnement hautement concurrentiel.
Un autre domaine de mes recherches porte sur le rôle des dark pools dans les marchés modernes. Les dark pools sont des lieux de négociation privés qui permettent aux participants d'exécuter des transactions importantes de manière anonyme, loin du marché public. Ces plateformes alternatives ont gagné en popularité en raison de leur potentiel à minimiser l'impact sur le marché et à améliorer la qualité d'exécution pour les investisseurs institutionnels avec des volumes de transactions importants.
Cependant, la montée des dark pools a soulevé des inquiétudes quant à la transparence et à l'équité du marché. Les critiques soutiennent que le manque de transparence dans ces lieux peut créer une asymétrie de l'information et avoir un impact négatif sur la découverte des prix. De plus, il y a eu des cas où les traders à haute fréquence exploitent le manque de transparence pré-négociation dans les dark pools pour leur propre avantage.
Dans mes recherches, j'étudie l'impact des dark pools sur la liquidité du marché, la formation des prix et le comportement des acteurs du marché. En développant des modèles mathématiques et en menant des analyses empiriques, je vise à comprendre les avantages et les inconvénients associés au dark pool trading. Cette recherche peut contribuer au débat en cours sur la réglementation et la surveillance des dark pools et aider les acteurs du marché à prendre des décisions éclairées concernant leurs stratégies de trading.
En conclusion, ma présentation d'aujourd'hui donne un aperçu de mes recherches dans le domaine de l'ingénierie financière, en se concentrant spécifiquement sur le trading à haute fréquence, la microstructure du marché, la latence et les dark pools. En approfondissant ces sujets, je vise à faire la lumière sur les complexités des marchés électroniques modernes et les défis qu'ils présentent pour les acteurs du marché et les régulateurs. Grâce à la modélisation mathématique, aux simulations et à l'analyse empirique, mes recherches visent à fournir des informations précieuses et à contribuer aux discussions et développements en cours dans le domaine des marchés financiers.
Par ailleurs, un autre aspect de ma recherche tourne autour de l'impact des politiques réglementaires sur les marchés financiers. Les organismes de réglementation jouent un rôle crucial pour assurer l'intégrité, la stabilité et la protection des investisseurs. Cependant, la conception et la mise en œuvre des réglementations peuvent avoir des conséquences imprévues et affecter la dynamique du marché.
L'un des domaines d'intérêt de mes recherches est l'examen des réactions du marché aux annonces réglementaires. En analysant des données historiques et en menant des études d'événements, j'étudie comment les acteurs du marché, tels que les commerçants et les investisseurs, ajustent leurs stratégies et leurs positions en réponse aux changements réglementaires. Cette recherche aide à comprendre les effets immédiats et à long terme des réglementations sur la liquidité, la volatilité et l'efficacité globale du marché.
De plus, j'explore l'efficacité de différentes mesures réglementaires dans la réalisation des objectifs visés. Par exemple, j'étudie l'impact des disjoncteurs, qui sont des mécanismes conçus pour interrompre temporairement les transactions lors de mouvements extrêmes du marché, sur la stabilité du marché. En analysant les données historiques du marché et en effectuant des simulations, j'évalue si les disjoncteurs préviennent ou aggravent efficacement les krachs boursiers.
Un autre domaine d'intérêt est l'examen des réglementations visant à réduire le risque systémique sur les marchés financiers. Cela implique d'analyser l'impact de mesures telles que les exigences de fonds propres, les tests de résistance et les restrictions sur les transactions pour compte propre par les banques. En étudiant les effets de ces réglementations sur la stabilité du système financier, je vise à donner un aperçu de leur efficacité et des conséquences potentielles imprévues.
De plus, j'explore également l'intersection de la technologie et de la réglementation, en particulier dans le contexte des technologies émergentes telles que la blockchain et les crypto-monnaies. Ces technologies présentent des défis et des opportunités uniques pour les régulateurs, car elles peuvent perturber les systèmes financiers traditionnels et introduire de nouveaux risques. Mes recherches dans ce domaine visent à comprendre les implications réglementaires de ces technologies et à explorer les cadres potentiels qui peuvent favoriser l'innovation tout en garantissant l'intégrité du marché et la protection des investisseurs.
Mes recherches en ingénierie financière englobent un large éventail de sujets, notamment l'impact des politiques réglementaires, les réactions du marché aux changements réglementaires et l'intersection de la technologie et de la réglementation. Grâce à des analyses rigoureuses, des modélisations mathématiques et des études empiriques, je m'efforce de fournir des informations précieuses sur le fonctionnement des marchés financiers et de contribuer au développement de cadres réglementaires efficaces et bien informés.
Kent Daniel : Momentum des prix
Kent Daniel : Momentum des prix
Je suis heureux d'être ici et je remercie tout le monde d'être venu. C'est formidable de voir tout le monde si enthousiaste à propos de ce sujet. Aujourd'hui, je vais discuter d'une stratégie quantitative spécifique couramment utilisée par les hedge funds. Cette stratégie est souvent mise en œuvre avec un effet de levier important et complète les sujets abordés par le professeur Sunnah Reyes et le professeur Wong. Mon objectif est d'introduire le concept d'investissement quantitatif et de donner un aperçu de cette stratégie particulière.
De plus, je mène des recherches sur la compréhension des facteurs à l'origine de la dynamique des prix et de l'occurrence de ce phénomène sur les marchés. Je soutiens que le marché n'est pas entièrement efficace, principalement en raison du traitement imparfait de l'information par les investisseurs. Ainsi, je vais approfondir la caractérisation de l'élan et proposer quelques réflexions sur ses causes sous-jacentes.
Récemment, je suis tombé sur un article du magazine Bloomberg mettant en vedette Cliff Asness, une figure notable de l'industrie. Son entreprise a fait face à des défis dans le passé, principalement en raison de sa dynamique. Je trouve cela particulièrement pertinent pour notre discussion d'aujourd'hui. En fait, Asness et sa société n'ont pas perdu leur élan. Ils ont même lancé un fonds commun de placement appelé AQR Momentum Fund, en plus de leurs efforts en matière de fonds spéculatifs.
AQR, à la fois avec ses fonds communs de placement et ses fonds spéculatifs, utilise des règles mathématiques pour construire des portefeuilles diversifiés avec un biais spécifique. Dans le cas du momentum, ils se concentrent sur l'investissement dans les gagnants et la vente des perdants. Aujourd'hui, je vais explorer cette stratégie plus en détail. Cependant, avant de plonger dans les détails, je souhaite partager quelques idées tirées d'un document de recherche d'Asness, Moskowitz et Patterson. L'article étudie la présence d'un momentum dans différentes classes d'actifs.
Selon leurs conclusions, le momentum a historiquement bien performé dans diverses régions, dont les États-Unis, le Royaume-Uni et l'Europe continentale. Cependant, il n'a pas donné les mêmes résultats positifs au Japon. En outre, la recherche explore l'élan dans la sélection des pays d'actions, la sélection des pays obligataires, les devises étrangères et les matières premières, avec des degrés de succès variables dans chaque domaine.
Alors, qu'est-ce qui motive l'élan? Sur la base de mes travaux préliminaires et de mes théories, l'explication la plus convaincante tourne autour du traitement de l'information par les investisseurs. Lorsque les investisseurs reçoivent de nouvelles informations, ils ont tendance à afficher un biais de statu quo, en supposant que les choses resteront relativement inchangées. Bien qu'ils anticipent un certain mouvement des prix en réponse à l'information, ils ne comprennent pas pleinement son impact. Par conséquent, le prix évolue légèrement, mais il faut du temps, souvent environ un an, pour que l'information se reflète pleinement dans les prix.
Dans le contexte des marchés financiers, si vous observez un mouvement de prix lié à l'information, il est probable que la dynamique se poursuive. Cette persistance dans le mouvement des prix s'aligne sur le concept d'élan en physique, où un objet se déplaçant à une certaine vitesse dans une direction particulière a tendance à continuer à se déplacer à moins qu'une force externe n'agisse sur lui.
Maintenant, explorons comment construire une stratégie de momentum. Supposons que vous souhaitiez mettre en œuvre une stratégie de momentum simple similaire à l'approche d'AQR. Voici un guide étape par étape : en commençant au début d'un mois spécifique, calculez les rendements mensuels de toutes les actions cotées sur NYSE, Amex et NASDAQ au cours des 12 derniers mois jusqu'à il y a un mois. Classez les actions en fonction de leurs rendements et identifiez les 10 % supérieurs comme gagnants et les 10 % inférieurs comme perdants. Construisez un portefeuille composé des gagnants, pondéré par leur capitalisation boursière. De même, établissez un portefeuille long-short en vendant à découvert pour 1 $ des actions perdantes. Rééquilibrez le portefeuille au début de chaque mois en mettant à jour les rendements et les classements de la période de formation.
Cette stratégie se traduit par un portefeuille à rotation relativement faible puisque les rendements récents sont susceptibles d'être similaires. Cependant, à mesure que vous étendez le délai à 12 mois, les rendements commencent à diverger considérablement.
Maintenant, évaluons la performance de cette stratégie de 1949 à 2007. Investir dans les bons du Trésor a un rendement excédentaire moyen de 16,5 % par an, ce qui est assez substantiel. Cela indique que la stratégie dynamique d'achat des gagnants et de vente des perdants a été très rentable sur le long terme.
Maintenant, vous vous demandez peut-être si ce rendement excédentaire est constant sur différentes périodes. Pour examiner cela, décomposons les données en différentes décennies et voyons comment l'élan se comporte. Voici les rendements excédentaires pour chaque décennie :
Comme vous pouvez le constater, le momentum a produit des rendements excédentaires positifs au cours de chaque décennie, bien que l'ampleur varie. Il convient de noter que les années 1990 ont eu un rendement excédentaire relativement plus faible par rapport aux autres décennies, mais qu'il était toujours positif.
Alors, pourquoi le momentum persiste-t-il en tant que stratégie rentable ? Une explication est que les investisseurs ont tendance à sous-réagir aux nouvelles informations, ce qui entraîne un ajustement lent des prix. Par conséquent, les actions qui ont enregistré des rendements positifs continuent de surperformer car leurs prix ne reflètent pas entièrement toutes les informations disponibles. Cet ajustement différé offre aux investisseurs la possibilité de capter des bénéfices en surfant sur l'élan.
Il est important de mentionner que même si l'élan a montré une rentabilité constante, cela ne signifie pas qu'il est sans risque. Comme toute stratégie d'investissement, elle comporte son propre ensemble de risques et de défis. Les conditions du marché peuvent changer et les performances passées ne sont pas une garantie des résultats futurs. Par conséquent, une analyse approfondie, une gestion des risques et une surveillance continue sont essentielles lors de la mise en œuvre d'une approche d'investissement basée sur le momentum.
En conclusion, la stratégie momentum, qui consiste à acheter des gagnants et à vendre des perdants, a historiquement généré des rendements excédentaires significatifs sur les marchés financiers. Malgré les variations des rendements au fil des décennies, le momentum est resté une stratégie globalement rentable. Cependant, les investisseurs doivent faire preuve de prudence et tenir compte de divers facteurs avant d'intégrer cette stratégie dans leur approche d'investissement.
Trading algorithmique et apprentissage automatique
Trading algorithmique et apprentissage automatique
D'accord, merci, Costas, de m'avoir invité. Je voudrais également exprimer ma gratitude à Eric pour son discours perspicace, qui fournit un contexte précieux pour la discussion que je vais présenter. Aujourd'hui, je vais me concentrer sur les expériences d'exploitation de l'autre côté de ces bourses et de traiter avec des traders à haute fréquence (HFT) et d'autres contreparties. Je tiens à préciser que mon exposé ne couvrira pas explicitement la théorie des jeux, car Costas m'a assuré que c'était acceptable. Cependant, je vais approfondir les aspects pratiques, en m'appuyant sur mon expérience de travail avec un groupe de trading quantitatif à Wall Street au cours des 12 dernières années.
Tout d'abord, je tiens à remercier tout particulièrement mon partenaire commercial, By Vaca, qui est co-auteur de tous les travaux dont je vais parler. Nos recherches et nos idées ont émergé de contextes commerciaux exclusifs au sein de notre groupe commercial. Les aspects que je soulignerai sont les éléments non propriétaires que nous trouvons scientifiquement intéressants au fil du temps.
Wall Street est sans aucun doute un endroit intrigant, à la fois technologiquement et socialement. Il a connu des changements importants dus à l'automatisation et à l'abondance de données. Ces transformations ont donné lieu à de nombreux enjeux commerciaux, qui nécessitent une approche basée sur l'apprentissage, en particulier l'apprentissage automatique. Avec de grandes quantités de données disponibles à une échelle temporelle et spatiale au-delà de la compréhension humaine, les algorithmes sont devenus indispensables dans le trading. Ces algorithmes doivent être adaptatifs et formés sur des données historiques, y compris des données récentes, pour prendre des décisions de trading judicieuses.
Dans ma présentation, je décrirai trois problèmes spécifiques qui se posent dans le trading algorithmique sur les marchés électroniques modernes. Ces vignettes ou études de cas mettent en lumière les défis algorithmiques et offrent des conseils pour les relever à l'aide de nouvelles techniques.
Les deux premiers problèmes tournent autour de l'optimisation de l'exécution. Lors de l'exécution d'une transaction, qu'il s'agisse d'acheter ou de vendre un volume spécifique d'actions, il existe un compromis entre l'immédiateté et le prix. On peut choisir d'exécuter la transaction rapidement, ce qui a un impact sur les prix mais peut-être en capitalisant sur des avantages informationnels éphémères. En revanche, une approche plus tranquille peut être adoptée, permettant au marché de converger vers le prix souhaité sur une durée plus longue. Je vais approfondir ces compromis et présenter des exemples spécifiques qui illustrent les défis auxquels sont confrontés les marchés électroniques.
Le troisième problème concerne les versions algorithmiques de l'optimisation de portefeuille classique, telles que l'optimisation moyenne-variance. Cela implique de détenir un portefeuille diversifié qui maximise les rendements tout en tenant compte du risque ou de la volatilité. Bien que de nature algorithmique, ce problème rejoint les approches traditionnelles d'optimisation de portefeuille.
Il convient de noter que l'enchère continue à double limite, telle que décrite par Eric plus tôt, sert de toile de fond à ces défis. L'image du flash crash et le livre de Michael Lewis sur le trading à haute fréquence soulignent les temps intéressants et dynamiques que nous vivons actuellement à Wall Street. Bien que je n'aie pas l'intention de porter un jugement moral sur une activité de trading, y compris le trading à haute fréquence, mon objectif est d'élucider les défis algorithmiques rencontrés sur les marchés électroniques modernes du point de vue d'un groupe de trading quantitatif opérant dans un cadre statistique traditionnel de trading d'actions.
Notre groupe de négociation est spécialisé dans la négociation d'actions, à la fois longues et courtes, englobant une large gamme d'instruments liquides sur les marchés nationaux et internationaux. Pour couvrir nos positions, nous utilisons exclusivement des contrats à terme, en évitant les dérivés complexes. Malgré le trading sur des marchés et des instruments relativement simples, l'automatisation et la disponibilité croissantes des données à Wall Street ont introduit une multitude de problèmes de trading qui nécessitent une approche d'apprentissage, utilisant souvent l'apprentissage automatique.
Soit dit en passant, je veux dire par exemple qu'il est souvent observé que lorsqu'un analyste améliore son point de vue sur un titre, les autres analystes ont tendance à mettre à jour leur point de vue sur le même titre en succession rapide. Il faut donc déterminer s'il s'agit en fait de nouvelles fraîches ou simplement du résultat d'autres nouvelles de base entrant sur le marché. Dans de tels cas, il peut être déconseillé de négocier sur la base de ces informations.
Maintenant, en ce qui concerne votre question sur la raison pour laquelle nous ne donnons pas de temps pour les questions à la fin et voulons plutôt acheter le volume restant, il y a deux réponses à cela. Premièrement, si nous sommes une maison de courtage comme Bank of America avec un pupitre de négociation algorithmique, nous exécutons des transactions en fonction de la directive du client. Ils nous fournissent des instructions sur le nombre d'actions à acheter dans un délai précis. Nous ne demandons pas de confirmation pendant le processus. Deuxièmement, nous avons optimisé nos stratégies pour déterminer le bon volume à acheter en fonction des informations disponibles. Ce volume est généralement le maximum que nous pouvons négocier sans impact significatif sur le cours de l'action. Bien qu'il soit possible de mettre en œuvre l'approche que vous avez suggérée, nous préférons minimiser le nombre de paramètres impliqués pour simplifier la prise de décision dans le monde complexe du trading.
En ce qui concerne le processus de test, nous effectuons des tests en direct sur les six mois suivant l'étude. Cela nous permet d'évaluer les performances du modèle dans des conditions réelles de marché. Cependant, le modèle lui-même utilise des données historiques pendant la phase de test.
Lorsqu'il s'agit d'expliquer nos politiques aux gens, nous nous appuyons principalement sur une approche empirique plutôt que sur des regards indiscrets. Dans ce problème particulier, ce qui constitue un comportement sensé est clair. Le défi se pose lorsqu'il s'agit de stratégies qui fonctionnent bien sans une compréhension claire de la raison pour laquelle elles fonctionnent. Dans de tels cas, on aborde parfois le problème d'un point de vue anthropologique, en essayant de comprendre les raisons de la rentabilité constante de certains métiers.
Nous reconnaissons que la complexité de ce que nous apprenons pose des défis en termes d'interprétation. Bien que nous puissions identifier un pouvoir prédictif constant dans certaines variables d'état, il est extrêmement difficile de comprendre les raisons sous-jacentes à un niveau granulaire. La nature microstructurale des marchés financiers, en particulier dans le trading à haute fréquence, implique des volumes et des vitesses de données qui dépassent la compréhension humaine normale. Par conséquent, nous nous concentrons sur des méthodologies de formation et de test minutieuses pour garantir des performances constantes.
Dans nos expérimentations, nous avons exploré différentes caractéristiques du carnet de commandes et leur impact sur la performance. Par exemple, l'intégration de l'écart acheteur-vendeur dans l'espace d'état s'est avérée utile pour optimiser l'exécution des transactions. Cependant, toutes les fonctionnalités n'offrent pas le même avantage, et certaines variables peuvent même avoir des effets négatifs sur les performances en raison d'un surajustement. En sélectionnant les fonctionnalités les plus informatives, nous avons obtenu une amélioration supplémentaire de 13 % en plus de l'amélioration de 35 % obtenue grâce aux approches théoriques de contrôle.
Nous avons évalué une solution de manière expérimentale, même si je n'ai pas le temps d'approfondir les détails pour le moment. Cependant, je peux fournir une explication simplifiée de la liquidité en utilisant un modèle de dessin animé. Différents dark pools, qui sont des plates-formes de négociation alternatives, présentent des propriétés de liquidité variables à différents moments et pour différentes actions.
Lorsqu'une nouvelle bourse, qu'il s'agisse d'un carnet d'ordres à cours limité ou d'un dark pool, émerge, elle essaie souvent de s'établir sur le marché en offrant un traitement préférentiel, des rabais ou des frais pour une catégorie particulière d'actions. Ils se présentent comme le dark pool préféré pour la négociation de types d'actions spécifiques. En conséquence, les traders intéressés par ces actions sont attirés par ce dark pool spécifique, créant des liquidités. En revanche, d'autres dark pools peuvent avoir des profils de liquidité différents et peuvent ne pas attirer autant d'activités de trading.
Pour visualiser ce concept, imaginez que chaque dark pool ait un profil de liquidité unique pour un titre donné, représenté par une distribution de probabilité stationnaire. L'axe des x représente le nombre de partages, tandis que l'axe des y représente la probabilité de trouver des partages disponibles pour l'exécution à chaque pas de temps discret. Lorsque nous soumettons notre ordre commercial à un dark pool, un ou plusieurs nombres sont tirés de cette distribution, indiquant le volume de contreparties disposées à négocier à ce pas de temps spécifique. Le volume exécuté est déterminé par le minimum du ou des volume(s) tiré(s) et du volume demandé (vns), assurant une exécution partielle si nécessaire.
Maintenant, vous vous demandez peut-être comment la courbe de liquidité peut ne pas décroître lors d'une exécution partielle. La courbe de liquidité représente simplement la probabilité de trouver un volume disponible dans une certaine fourchette. Il montre que les volumes plus petits sont plus susceptibles d'être disponibles pour l'exécution, tandis que les volumes plus importants sont moins susceptibles. L'exécution partielle signifie simplement que le volume exécuté est inférieur au volume demandé, mais cela n'affecte pas la forme globale de la courbe de liquidité.
La prolifération des mares sombres est un phénomène intéressant. Elle soulève des questions sur l'équilibre du marché et la concurrence entre ces sites. Il reste incertain si le marché finira par se consolider, conduisant à la domination de quelques dark pools. Une dynamique similaire a été observée dans les doubles enchères continues depuis que la déréglementation des marchés financiers a permis à plusieurs bourses de fonctionner simultanément. Le paysage réglementaire et la capacité des startups à proposer de nouveaux mécanismes contribuent à la complexité de la structure du marché.
Compte tenu du lien entre cette recherche et l'article d'Eric, nous pouvons explorer l'interaction entre les différentes structures de marché, les algorithmes et leur impact sur la stabilité et la fragmentation du marché. En simulant des scénarios impliquant plusieurs acteurs utilisant des algorithmes similaires, nous pouvons étudier les résultats de calcul et étudier comment la structure du marché et la diversité des algorithmes influencent les prix et d'autres préoccupations réglementaires. Cette combinaison d'efforts de recherche pourrait fournir des informations précieuses sur la relation complexe entre la structure du marché, le trading algorithmique et la stabilité du marché.
En outre, nous pouvons nous plonger dans des questions plus sophistiquées, telles que l'interaction entre différents algorithmes et structures de marché, et comment ils façonnent la dynamique du marché. En examinant divers scénarios de marché, nous pouvons analyser la pertinence de différentes structures et algorithmes de marché pour atteindre la stabilité et résoudre les problèmes de fragmentation.
L'évolution des marchés financiers a conduit à l'automatisation de certains aspects, remplaçant souvent des éléments humains utiles. Cependant, de nouveaux mécanismes électroniques ont été introduits pour reproduire et améliorer la fonctionnalité. Comprendre ces dynamiques et adapter nos stratégies en conséquence nous permet de naviguer dans les complexités des marchés financiers modernes.
Mon exposé mettra en lumière les défis algorithmiques inhérents au trading sur les marchés financiers électroniques modernes. Les trois études de cas que je présenterai mettent en évidence les complexités et les compromis rencontrés dans l'exécution optimisée et l'optimisation algorithmique du portefeuille. Bien que les contraintes de temps puissent m'empêcher de couvrir entièrement tous les sujets, j'espère fournir des informations précieuses dans ces domaines.
Alors que les simulations et les analyses informatiques offrent des moyens de comprendre les résultats potentiels du trading algorithmique, il est essentiel de trouver un équilibre entre la modélisation abstraite et la pertinence dans le monde réel. Le défi consiste à identifier les détails cruciaux et ceux qui peuvent être ignorés en toute sécurité sans sacrifier la pertinence pratique, en particulier dans le paysage complexe et en constante évolution des marchés financiers.
La conception des échanges financiers : quelques questions ouvertes à l'intersection d'Econ et de CS
La conception des échanges financiers : quelques questions ouvertes à l'intersection d'Econ et de CS
Merci beaucoup Kostas. Cette conférence va être un peu non conventionnelle pour moi, mais j'espère qu'elle s'aligne avec l'esprit de cette conférence et le sujet des directions ouvertes. Il est lié à la conception des échanges financiers, en particulier la conception dominante connue sous le nom de carnet d'ordres à cours limité continu. Je commencerai par discuter d'un article sur lequel j'ai récemment travaillé avec Peter Crampton et John Shimm, qui met en évidence une faille économique dans la conception actuelle des échanges financiers. Ce défaut, selon nous, contribue aux aspects négatifs du trading à haute fréquence.
La première partie de l'exposé couvrira ce document, qui peut être familier à certains d'entre vous mais probablement pas à la plupart. Il présente un cas économique pour une approche alternative appelée négociation en temps discret ou enchères par lots fréquentes. Notre article suggère que le carnet d'ordres à cours limité continu, bien que largement utilisé dans le monde, souffre d'un défaut structurel qui entraîne divers problèmes associés au trading à haute fréquence. Je vais présenter une version condensée et accessible de cette partie, telle qu'elle a été présentée plusieurs fois auparavant.
Les deuxième et troisième parties de l'exposé approfondiront les questions ouvertes et les directions de recherche concernant la conception des échanges financiers. Ces domaines de recherche se situent à l'intersection de l'économie et de l'informatique. Dans les sections suivantes, je discuterai d'une partie de deux pages à la fin de l'article du Quarterly Journal of Economics qui présente un argument qualitatif, dépourvu de théorèmes ou de données, pour les avantages informatiques du trading en temps discret par rapport à la conception actuelle du marché. . Cette discussion soulèvera de nombreuses questions et visera à stimuler une exploration plus approfondie.
Bien que les dernières parties de l'exposé soient moins formelles que ce à quoi je suis habitué, je crois qu'elles sont cruciales pour soulever des questions ouvertes et établir un programme de recherche future. Cela correspond à l'objectif de cette conférence, qui encourage l'exploration des intersections de l'économie et de l'informatique et suggère des orientations fructueuses pour les recherches futures.
Examinons maintenant le cas économique du trading en temps discret et ses avantages par rapport au carnet d'ordres à cours limité continu, que je vais expliquer plus en détail. Le carnet d'ordres à cours limité continu est une conception de marché qui traite chaque jour des billions de dollars d'activité économique. Il fonctionne sur la base d'ordres limités, qui spécifient le prix, la quantité et la direction (achat ou vente) d'un titre. Les participants au marché peuvent soumettre, annuler ou modifier des ordres à cours limité tout au long de la journée, et ces messages sont envoyés à la bourse.
L'échange a lieu lorsqu'une nouvelle demande correspond à des ordres existants dans le carnet d'ordres à cours limité. Par exemple, une demande d'achat avec un prix égal ou supérieur à une offre de vente exceptionnelle entraînerait une transaction. C'est le fonctionnement de base du carnet d'ordres à cours limité continu.
Cependant, nos recherches suggèrent que cette conception du marché a des défauts inhérents. Un problème majeur est ce que nous appelons le "sniping". Lorsqu'il y a un changement dans les informations ou les signaux publics, les sociétés de négoce engagées dans la fourniture de liquidités ajustent leurs cotations en conséquence. Ils annulent leurs offres ou demandes précédentes et les remplacent par de nouvelles reflétant les informations mises à jour. Maintenant, supposons que je sois l'une de ces sociétés de négoce ajustant mes cotations. Dans le même temps, d'autres, comme Thomas, envoient également des messages à la bourse pour échanger sur les anciennes cotations avant qu'elles ne soient remplacées.
Étant donné que le marché traite ces messages en temps continu et dans un ordre séquentiel, il devient aléatoire quel message atteint l'échange en premier. Si plusieurs sociétés de négoce réagissent simultanément aux nouvelles informations, il est possible qu'une demande de Thomas ou de tout autre participant soit traitée avant la mienne, leur permettant de négocier à l'ancien prix. Ce phénomène de sniping est problématique et crée plusieurs implications.
Premièrement, cela permet des opportunités d'arbitrage mécanique basées sur des informations publiques symétriques, ce qui n'est pas censé se produire dans un marché efficace. Deuxièmement, les bénéfices de ces opportunités d'arbitrage se font au détriment de l'apport de liquidités. Alors que les tireurs d'élite exécutent avec succès des transactions aux anciens prix, les sociétés de négoce d'approvisionnement en liquidités hésitent à ajuster rapidement leurs cotations. Cette hésitation découle de la peur d'être snipé et de perdre des profits potentiels. Par conséquent, le marché devient moins efficace car les fournisseurs de liquidité deviennent moins disposés à mettre à jour leurs cotations en réponse à de nouvelles informations.
Un autre problème avec le carnet d'ordres à cours limité continu est le potentiel d'anticipation des commandes. Dans ce scénario, les traders observent l'arrivée de nouveaux ordres à cours limité et ajustent de manière préventive leurs cotations en prévision des transactions futures. Ce comportement peut conduire à un effet en cascade, où les traders ajustent constamment leurs cotations en réponse les unes aux autres, créant une volatilité et une instabilité inutiles sur le marché.
Pour remédier à ces défauts, notre article propose une conception de marché alternative connue sous le nom de négociation en temps discret ou d'enchères par lots fréquentes. Dans cette conception, plutôt que de traiter les commandes en temps continu, le marché fonctionne par intervalles de temps discrets ou par lots. Au cours de chaque lot, les participants au marché peuvent soumettre leurs ordres à cours limité, et à la fin du lot, le marché s'équilibre et les transactions sont exécutées à un prix uniforme unique.
En introduisant le trading en temps discret, nous éliminons les problèmes de sniping et d'anticipation des commandes. Étant donné que toutes les commandes soumises dans un lot sont traitées simultanément, il n'y a pas de hasard dans l'exécution de la commande. Les commerçants peuvent être sûrs que leurs ordres seront exécutés au même prix que les autres participants au sein du même lot, garantissant l'équité et réduisant l'incitation au sniping.
De plus, les enchères par lots fréquentes favorisent la stabilité et réduisent la volatilité inutile du marché. Les commerçants n'ont plus besoin d'ajuster constamment leurs cotations en réponse à chaque commande entrante. Ils peuvent plutôt se concentrer sur l'analyse des informations et prendre des décisions commerciales éclairées, sachant que leurs ordres seront exécutés à la fin du lot à un prix équitable.
Investir sur les marchés financiers nécessite souvent un certain temps d'attente pour que les transactions aient lieu. Différentes personnes peuvent avoir des opinions différentes quant à savoir si ce temps d'attente représente un coût important ou non. Par exemple, si vous êtes légèrement plus rapide que moi dans l'exécution des transactions, comme être un millionième de seconde plus rapide, cela pourrait vous donner un avantage pour agir sur les événements d'actualité dans ce laps de temps. D'un autre côté, je pourrais rater l'occasion d'agir en raison de ma vitesse légèrement plus lente. Cet avantage de vitesse est souvent mesuré par le rapport entre le différentiel de vitesse (Delta) et l'intervalle de lot (tau) dans un marché continu.
Dans un marché discret, si vous êtes légèrement plus rapide que moi, vous pouvez toujours me "sniper" à un intervalle de temps spécifique (delta sur tau) en raison de la concurrence basée sur les enchères. Cependant, si vous et plusieurs autres commerçants êtes tous légèrement plus rapides que moi, nous devrions participer à une enchère pour échanger avec moi au lieu de rivaliser uniquement en fonction de la vitesse. Cela soulève la question de savoir si différents marchés adoptent uniformément cette approche d'horloge synchronisée ou s'il y a des défis pratiques impliqués.
Il est important de noter que dans le marché continu actuel, la loi du prix unique est constamment violée car les changements de prix ne se produisent pas simultanément sur différentes bourses. Cette violation n'est pas facilement détectable par l'observation humaine ou les données de recherche disponibles. Cependant, si plusieurs bourses devaient adopter simultanément des enchères par lots fréquentes, il serait possible de détecter plus facilement les violations de la loi du prix unique. Cela ne signifie pas nécessairement qu'une approche est meilleure ou pire, mais plutôt que les données fourniraient des informations plus claires.
Si un seul échange devait passer à un marché discret tandis que d'autres restaient continus, cet échange éliminerait l'arbitrage de latence et supprimerait une taxe sur la fourniture de liquidités. D'un point de vue économique, cela pourrait donner un avantage à l'échange de marché discret au fil du temps. Cependant, le lancement d'un nouveau marché présente des défis, des ambiguïtés réglementaires et des intérêts acquis des bourses existantes qui bénéficient de la conception actuelle du marché.
En ce qui concerne la proposition d'IEX d'introduire une latence dans chaque commande tout en maintenant un échange continu, cela fonctionne en retardant les commandes entrantes et sortantes d'un intervalle de temps spécifique. IEX surveille les changements sur le marché en une fraction de seconde et ajuste les prix en conséquence. Cependant, une faiblesse potentielle de leur conception est qu'elle repose sur l'accès à des informations sur les prix à partir de sources externes. Cela soulève des questions quant à savoir si l'approche d'IEX contribue à la découverte des prix ou s'appuie simplement sur des informations provenant d'ailleurs.
D'un autre côté, l'introduction de retards aléatoires dans toutes les commandes peut ne pas traiter efficacement le sniping et peut entraîner un trafic de messages infini. Bien que plusieurs idées aient été proposées pour résoudre le problème, nombre d'entre elles se sont révélées inefficaces lorsqu'elles ont été analysées. En revanche, notre article propose de rendre le temps discret et le traitement par lots comme solution au défaut de conception du marché, qui crée des rentes à partir de l'information publique et encourage une course à la vitesse.
Un aspect dont nous discutons dans le document est les avantages informatiques du trading en temps discret. Les marchés financiers modernes ont été confrontés à divers problèmes de calcul, tels que des crashs instantanés et des problèmes de change. Le temps discret offre une simplicité de calcul par rapport au temps continu et offre des avantages spécifiques aux bourses, aux traders algorithmiques et aux régulateurs.
Pour les échanges, le traitement en temps continu peut entraîner des problèmes d'arriérés, où les algorithmes sont incertains de l'état des commandes et du marché pendant les périodes de forte activité. En revanche, les enchères par lots en temps discret peuvent être traitées plus efficacement et offrent un coussin de temps par rapport au temps de traitement dans le pire des cas. Cela réduit l'incertitude et les problèmes d'arriéré auxquels sont confrontés les échanges.
Le temps discret simplifie également le traitement des messages pour les échanges, en éliminant la nécessité de prioriser la diffusion de différents types de messages. Cela réduit la possibilité d'exploiter l'asymétrie de l'information. De plus, le temps discret simplifie l'environnement de programmation pour les échanges, réduisant potentiellement l'apparition de problèmes et améliorant la stabilité globale du système.
Un autre avantage informatique du trading en temps discret est qu'il simplifie l'analyse et la modélisation des stratégies algorithmiques. Sur les marchés en temps continu, les traders algorithmiques sont confrontés au défi d'optimiser leur réponse aux données entrantes en temps réel. Ils doivent prendre des décisions rapidement tout en tenant compte des conditions changeantes du marché. Ce compromis entre vitesse et intelligence est un problème complexe à résoudre.
Cependant, dans le trading en temps discret, le traitement par lots des données permet aux traders algorithmiques d'avoir un intervalle fixe pour analyser et prendre des décisions. Par exemple, si l'intervalle de lot est défini sur 100 millisecondes, les traders ont le luxe de consacrer les 100 premières millisecondes à une analyse approfondie sans la pression d'une exécution immédiate. Cela peut conduire à des processus décisionnels plus sophistiqués et plus précis.
Des questions de recherche découlent de cet avantage informatique. Comment les traders algorithmiques peuvent-ils trouver le juste équilibre entre rapidité et intelligence dans leur prise de décision ? Existe-t-il des externalités négatives associées au fait de privilégier la rapidité par rapport à l'intelligence sur le marché ? Le cadre en temps discret améliore-t-il la précision de la formation des prix par rapport au trading en temps continu ?
Pour les régulateurs, le trading en temps discret offre l'avantage d'une trace écrite plus propre. Sur les marchés en temps continu, la synchronisation des horloges et l'ajustement des horodatages peuvent introduire des complexités lors de la reconstruction de la séquence des événements. Il devient difficile de déterminer l'ordre chronologique des actions sur différents marchés. En revanche, le trading en temps discret simplifie ce processus, facilitant l'établissement d'un enregistrement clair et précis de l'activité du marché.
Les avantages potentiels d'une trace écrite propre dans le trading en temps discret sont une question ouverte. Intuitivement, une activité de marché bien documentée et facilement traçable peut améliorer la transparence et la responsabilité. Cela peut améliorer la surveillance du marché et aider les régulateurs à identifier et à lutter plus efficacement contre les pratiques commerciales manipulatrices ou illégales.
Notre recherche met en évidence les défauts économiques de la conception actuelle du carnet d'ordres à cours limité et présente une approche alternative appelée négociation en temps discret ou enchères par lots fréquentes. Cette conception alternative résout des problèmes tels que le sniping et l'anticipation des commandes, favorisant l'équité, la stabilité et l'efficacité des échanges financiers. En explorant ces questions ouvertes et ces directions de recherche, nous visons à stimuler une enquête plus approfondie sur la conception des échanges financiers, en reliant les domaines de l'économie et de l'informatique pour améliorer la fonctionnalité et la performance du marché.
Le trading en temps discret offre plusieurs avantages informatiques par rapport au trading en temps continu. Il simplifie le traitement des messages pour les échanges, réduit les goulots d'étranglement de calcul et permet des stratégies algorithmiques plus sophistiquées. Il fournit également une trace écrite plus claire pour les régulateurs, améliorant la surveillance et la transparence du marché. Cependant, des recherches supplémentaires sont nécessaires pour explorer les implications et les inconvénients potentiels du trading en temps discret dans la pratique.
ChatGPT et Machine Learning dans le trading
ChatGPT et Machine Learning dans le trading
Le présentateur se penche sur le sujet de l'utilisation de modèles de traitement du langage naturel (NLP) comme ChatGPT dans l'industrie du commerce, en mettant l'accent sur leur capacité à analyser et à comprendre les sources de texte telles que les articles de presse, les publications sur les réseaux sociaux et les états financiers. Plus précisément, ChatGPT, un modèle de langage puissant, est bien adapté pour analyser de grandes quantités de données financières et générer des réponses naturelles, permettant aux traders d'engager des conversations sur les opportunités de trading.
La communauté financière attend beaucoup de ChatGPT, anticipant sa contribution au développement et à l'optimisation des stratégies de trading. Le présentateur explique en outre les distinctions entre l'intelligence artificielle (IA), l'apprentissage automatique (ML) et l'apprentissage en profondeur, soulignant que l'apprentissage automatique est un sous-ensemble de l'IA qui utilise des techniques pour apprendre aux machines à simuler le comportement humain et à prendre des décisions intelligentes.
Ensuite, le présentateur discute du flux de travail typique du ML dans le trading. Ils expliquent que le ML permet aux machines d'apprendre à partir des données et de faire des prédictions, en suivant une série d'étapes. Dans un premier temps, les données sont collectées et prétraitées pour garantir leur qualité et leur pertinence. Ensuite, les fonctionnalités sont conçues pour convertir les données brutes en attributs significatifs que les machines peuvent comprendre. Les données sont ensuite divisées en ensembles d'apprentissage et de test, et un modèle est construit à l'aide d'algorithmes ML. Enfin, le modèle est testé sur de nouvelles données, et s'il fonctionne de manière satisfaisante, il peut être utilisé pour faire des prédictions, facilitant le processus de trading.
Pour illustrer l'application du ML, le présentateur donne un exemple de prédiction des prix élevés et bas d'un actif, tel que l'or, pour le jour de bourse suivant. Cette prédiction peut grandement aider les traders à prendre des décisions éclairées et à améliorer leurs stratégies de trading.
De plus, le présentateur explore comment ChatGPT peut servir d'outil précieux pour résoudre les problèmes de trading, comme la création d'un modèle de régression linéaire pour prédire les prix de l'or. Ils comparent l'approche de ChatGPT à une approche quantitative plus complète, qui implique la collecte de données, le nettoyage, la création de modèles, le développement de pipelines, le trading en direct et l'amélioration continue. Un exemple de bloc-notes de code de régression d'apprentissage automatique est partagé, décrivant les quatre étapes clés impliquées dans la résolution du problème : préparation des données, prétraitement, prévision des prix et analyse de la stratégie et des performances. Bien que ChatGPT puisse aider à la génération d'idées, le présentateur insiste sur la nécessité d'une compréhension nuancée de chaque concept et d'une attention particulière pour éviter les erreurs.
Les limites et les risques associés à l'utilisation de ChatGPT dans le trading algorithmique basé sur ML sont également abordés. Le présentateur met en évidence les défis potentiels, notamment le manque d'expertise dans le domaine, les données de formation limitées et les problèmes d'interprétabilité. Ils mettent en garde contre le fait de se fier uniquement à ChatGPT pour les décisions de trading et soulignent l'importance d'effectuer des contrôles d'exactitude sur différentes périodes financières.
De plus, le présentateur discute des résultats d'un sondage mené sur la capacité de ChatGPT à générer du code avec précision. La majorité de l'audience (74 %) identifie correctement que ChatGPT peut fournir une précision raisonnable, mais n'est pas adapté aux tâches de programmation complexes nécessitant une expertise du domaine. Pour illustrer le processus, le présentateur montre comment diviser les données en ensembles d'apprentissage et de test à l'aide du code Python généré par ChatGPT. Ils mettent l'accent sur le bon séquençage des données, en particulier dans le contexte des données de séries chronologiques dans le commerce.
L'évaluation des algorithmes de trading basés sur ML par le biais de backtesting et d'analyses stratégiques est considérée comme une étape cruciale dans l'évaluation de leurs performances. Le présentateur souligne la nécessité d'une analyse approfondie à l'aide de diverses mesures telles que le ratio de Sharpe, les rendements annualisés et la volatilité des rendements pour mieux comprendre les transactions et la performance globale. Une comparaison entre les rendements d'un algorithme de trading et d'une stratégie d'achat et de conservation est présentée comme une première étape dans l'évaluation de l'efficacité de l'algorithme.
De plus, le présentateur partage un exemple de stratégie de trading rentable et souligne l'importance de la visualisation et de l'analyse des données dans le processus de trading. Les analyses de stratégie, y compris les rendements annuels et les rendements cumulés, sont essentielles pour évaluer le succès d'une stratégie.
En changeant de vitesse, le présentateur aborde les limites de l'utilisation de GPT pour l'analyse financière dans le trading. Le public a déjà participé à un sondage, la majorité exprimant l'opinion qu'une précision raisonnable nécessite une vérification des faits et que GPT peut ne pas convenir à une analyse financière. Pour illustrer cette limitation, le présentateur demande à GPT de comparer les états financiers annuels d'Apple et de Microsoft pour 2020. Cependant, GPT fournit une réponse inexacte, soulignant ses limites en tant que modèle générateur qui manque d'expertise dans le domaine. Le présentateur souligne l'importance d'acquérir des connaissances liées à la finance, de lire des livres et de vérifier les faits avant d'appliquer des algorithmes ML, tels que GPT, au trading.
Reconnaissant l'importance des connaissances liées au domaine en finance, le présentateur suggère de suivre des cours pour acquérir une expertise. Cette expertise permet aux commerçants de mieux utiliser les outils d'apprentissage automatique comme ChatGPT. À l'appui de cela, le présentateur offre un accès gratuit à quatre blocs-notes d'un cours de formation sur le commerce avec l'apprentissage automatique, permettant aux téléspectateurs d'acquérir une compréhension plus approfondie du code et de son application.
Au cours de la session de questions-réponses, une question commune se pose concernant la capacité de ChatGPT à suivre les changements quotidiens des marchés financiers. Le présentateur précise qu'en tant que modèle de langage, l'efficacité de ChatGPT est limitée par les données sur lesquelles il a été formé et n'est pas mis à jour quotidiennement. Rester à jour avec les dernières données du marché est essentiel pour utiliser efficacement ChatGPT ou tout autre modèle d'apprentissage automatique en finance.
Les conférenciers répondent à diverses autres questions du public, fournissant des informations utiles. Ils informent le public que la session enregistrée sera partagée par e-mail et sur leur chaîne YouTube pour référence future. Ils discutent également de la disponibilité d'un notebook pour les prochaines 24 heures et expliquent le concept de pipeline dans l'apprentissage automatique.
Une question spécifique est soulevée concernant la conversion du code Python vectorisé en un format déployable dans une bibliothèque de trading en direct. Les conférenciers expliquent que bien que ChatGPT puisse aider à la conversion de code, la définition de déclencheurs d'événements est toujours nécessaire. De plus, ils mentionnent que Chargeability 3.5 ne fournit pas d'informations pour l'année 2022.
Pour conclure, les conférenciers discutent d'une stratégie de trading qui utilise des prédictions hautes et basses pour le lendemain, qui a été optimisée à l'aide de techniques d'apprentissage automatique. Ils mettent l'accent sur les applications de l'apprentissage en profondeur dans le trading, telles que la prévision de séries chronologiques, l'optimisation de portefeuille et la gestion des risques. L'apprentissage en profondeur, associé à l'apprentissage par renforcement, peut améliorer les performances des stratégies de trading en permettant aux agents d'apprendre de leurs erreurs grâce à des récompenses et des punitions.
Le présentateur souligne que l'expertise et l'intuition du domaine restent essentielles pour une utilisation fiable de l'apprentissage automatique dans le trading. Bien que des outils comme ChatGPT puissent aider à analyser les données historiques et à évaluer la probabilité de succès dans les transactions futures, il ne faut pas s'y fier uniquement. L'importance d'acquérir des connaissances liées au domaine, de vérifier les faits et de se tenir constamment au courant des dernières données du marché est soulignée pour garantir une prise de décision précise et éclairée dans le secteur du trading.
Comprendre le comportement des marchés financiers : le rôle de plusieurs catégories de données
Comprendre le comportement des marchés financiers : le rôle de plusieurs catégories de données
L'hôte commence le webinaire en introduisant le sujet de la compréhension du comportement des marchés financiers et du rôle de plusieurs catégories de données. Les panélistes, dont le professeur Gotham Mitra, le Dr Ernest Chan et le Dr Mateo Campoloni, sont présentés comme des experts possédant une vaste expérience dans les carrières commerciales et universitaires. Le webinaire vise à explorer comment les données de diverses catégories jouent un rôle crucial dans la compréhension et la prévision du comportement des marchés financiers, un sujet qui a pris une importance croissante ces derniers temps. Il est mentionné que la session fait partie du certificat Sentimentalysis and Alternative Data for Finance offert par Opticks Systems et QuantInsti.
Le premier orateur insiste sur l'importance des données pour comprendre le comportement des marchés financiers. Alors qu'au début, seules des données limitées telles que les prix du marché, les ordres d'achat et de vente et la profondeur du livre étaient disponibles, il existe désormais un large éventail de catégories de données à prendre en compte. Il s'agit notamment des données d'actualité, des données sur le sentiment des médias et des données alternatives. Malgré l'hypothèse du marché efficient, qui suggère que les marchés finissent par intégrer toutes les informations, il existe encore des inefficacités à court terme sur le marché. Par conséquent, les données jouent un rôle crucial dans la découverte de nouveaux alpha et la résolution de deux problèmes majeurs du marché : la planification de portefeuille et le contrôle des risques. Le conférencier souligne également l'importance croissante de l'intelligence artificielle (IA) et de l'apprentissage automatique dans le traitement des données.
L'orateur suivant présente le concept d'investissement causal, qui consiste à examiner les relations causales entre différents prédicteurs et variables cibles, plutôt que d'analyser uniquement les corrélations statistiques. En utilisant des données alternatives telles que l'activité des options, les investisseurs peuvent mieux comprendre les causes sous-jacentes des mouvements de prix et améliorer la précision de leurs stratégies de trading. Un exemple de la stratégie de retour à la moyenne est cité, soulignant l'importance de comprendre pourquoi elle échoue parfois. Grâce à l'utilisation de données alternatives pour découvrir les causes des mouvements de prix, les investisseurs peuvent prendre des décisions plus éclairées sur le moment d'appliquer leurs stratégies.
L'importance des données pour les opérateurs du marché, en particulier les données alternatives, est discutée par l'orateur suivant. Les données alternatives font référence à toutes les données qui ne sont pas déjà une norme de l'industrie et forment un écosystème en constante expansion avec de nouveaux acteurs et fournisseurs de données qui émergent continuellement. Ces données peuvent provenir de divers canaux tels que les transactions par carte de crédit, les images satellites, les données des appareils mobiles, les données météorologiques, etc. Le conférencier mentionne également l'utilisation d'outils de traitement du langage naturel pour analyser des documents textuels et générer des indicateurs de sentiment, qui peuvent être précieux pour les investisseurs en complément de leurs stratégies d'investissement.
Le processus d'utilisation des données alternatives dans les stratégies d'investissement est décrit par l'orateur suivant. Il s'agit d'identifier de nouvelles sources d'information, d'incorporer et de transformer les données non structurées en ensembles de données structurées. Après avoir élaboré une stratégie d'investissement, la validation devient une étape cruciale qui nécessite de comprendre la fiabilité des données et la signification statistique des résultats. L'orateur souligne l'importance de ne pas se fier uniquement à des données alternatives et de prendre également en compte les données du marché lors de la création de modèles.
Les conférenciers se penchent sur l'importance des données alternatives pour saisir les tendances du marché et les défis liés au backtesting de ces données. Alors que les traders techniques s'appuyaient auparavant sur des mesures simples comme la moyenne mobile sur 120 jours, il y a maintenant une poussée pour incorporer un plus large éventail de catégories de données pour comprendre les causes de retour. Cependant, étant donné que les données alternatives sont relativement nouvelles, il y a des inquiétudes quant à la façon de les tester et à quel point elles restent cohérentes dans le temps. Comprendre l'impact des stratégies d'investissement nécessite d'évaluer la stabilité du système vis-à-vis des fluctuations aléatoires.
L'utilisation de plates-formes de données alternatives comme Bloomberg Icon et Reuters Quantum par les traders pour développer des stratégies d'investissement robustes est discutée par les intervenants. Bien que ces plateformes aient leurs propres modèles pour quantifier diverses formes de données telles que le sentiment et les actualités, les intervenants recommandent aux traders de créer leurs propres modèles. L'importance d'utiliser des API pour recevoir des entrées de données alternatives est soulignée, et la valeur des sites Web organisés comme le Credit Suisse dans l'analyse des annonces des entreprises est mentionnée. Enfin, les conférenciers notent que des approches étroites et spécialisées peuvent être très efficaces pour analyser le comportement du marché.
Les conférenciers discutent ensuite des divers outils et sites Web qui peuvent être utilisés pour comprendre le comportement des différentes classes d'actifs sur le marché financier et comment suivre le marché en fonction du style d'investissement et de l'horizon temporel. Tout en reconnaissant qu'il n'existe pas de solution unique, ils suggèrent que des informations qualitatives provenant de sites Web comme Bloomberg peuvent être utiles à cet égard. Ils soulignent également l'importance de comprendre le sentiment et les sources de données alternatives telles que les microblogs et les forums de discussion. Cependant, ils notent qu'il n'est pas nécessairement garanti que devenir un expert dans ces domaines conduirait à une meilleure carrière sur le marché financier.
Le conférencier explique ensuite la différence entre le développement de stratégies de trading avancées pour les grands fonds et les stratégies simples pour les traders indépendants. Il est mentionné que les techniques complexes peuvent être plus adaptées aux demandeurs d'emploi dans les grands fonds, tandis que les commerçants indépendants sont invités à commencer par une stratégie de niche qui peut ne pas intéresser les institutions. Cette approche les aide à éviter les coûts élevés associés aux flux de données complexes. L'orateur souligne en outre l'intérêt croissant pour les nouvelles sources de données pour le trading, ce qui en fait un domaine pertinent à apprendre et à poursuivre. Ils mentionnent également qu'ils utilisent personnellement des données alternatives dans une certaine mesure dans leur gestion de fonds et aident les clients à mettre en œuvre des modules basés sur l'apprentissage automatique et le traitement du langage naturel ou à valider leurs propres stratégies à l'aide d'ensembles de données.
Au cours de la session de questions-réponses, une question est soulevée sur Twitter vendant des ticks bleus et si les comptes vérifiés auraient plus de poids dans le traitement du langage naturel (TAL). Au départ, les panélistes ont du mal à comprendre la question, mais admettent plus tard qu'ils ne sont pas qualifiés pour y répondre. La discussion passe ensuite aux sources de données financières traditionnelles adaptées aux débutants et aux étudiants, Bloomberg et Definitive étant mentionnés comme des options potentielles. Il est suggéré que les fournisseurs de données puissent offrir des ensembles de données gratuits avec un certain niveau d'interaction.
L'orateur aborde ensuite l'utilisation de sources de données alternatives pour l'analyse des marchés financiers, en mentionnant spécifiquement la société DGLT, qui collecte des données à partir de sources d'information mondiales et locales. Tout en reconnaissant l'effort requis pour filtrer les informations pertinentes, il est à noter que les données collectées peuvent fournir une perspective historique sur le comportement du marché remontant aux années 1800. Lorsqu'on lui demande si les données alternatives doivent être utilisées comme source unique ou pour la validation aux côtés des données traditionnelles, l'orateur déclare qu'il n'y a pas de règle générale et que cela dépend de la stratégie spécifique utilisée. Cependant, ils soulignent que les données du marché restent le principal moteur et que les données alternatives ne doivent pas être exclusivement utilisées.
L'orateur conclut le webinaire en discutant de l'utilisation de données alternatives sur les marchés financiers et de la manière dont l'apprentissage automatique peut être utilisé pour analyser ces données. Ils soulignent la nécessité de saisir plusieurs types de données, y compris les prix et les données fondamentales, dans les algorithmes prédictifs d'apprentissage automatique. Cependant, ils soulignent également que les données alternatives ne peuvent à elles seules servir de moteur unique et doivent être combinées avec des données sur les prix du marché. Le public est invité à nous contacter pour toute autre question qu'il pourrait avoir.
Introduction à l'investissement factoriel quantitatif
Introduction à l'investissement factoriel quantitatif
Cette vidéo présente le concept d'investissement factoriel quantitatif et sa classification en différents facteurs, notamment la valeur, le momentum, la qualité et la taille. Le conférencier explique que l'investissement factoriel consiste à sélectionner des titres en fonction de facteurs spécifiques censés générer des rendements et ce, pendant de longues périodes. La vidéo couvre différentes méthodes quantitatives qui peuvent être utilisées pour appliquer l'investissement factoriel quantitatif, y compris l'analyse statistique, la modélisation factorielle, l'apprentissage automatique, les modèles d'optimisation, l'analyse de séries chronologiques, les modèles de risque et la simulation montagriale. L'orateur discute également des avantages de l'utilisation de l'investissement factoriel quantitatif et du processus de sélection et de combinaison des facteurs, ainsi que des réponses aux questions liées au sujet, notamment sur les sources de données et l'adéquation au trading à moyenne/haute fréquence.
Dans le webinaire, Varun Kumar, analyste quantitatif chez QuantInsti, fournit une introduction complète à l'investissement factoriel quantitatif. Il commence par expliquer le concept de facteurs, qui sont des sources larges et persistantes de risque et de rendement qui guident les investisseurs vers des rendements quantifiables. Certains facteurs communs incluent la valeur, le momentum, la qualité, la taille et la volatilité. Kumar se concentre sur le facteur qualité à titre d'exemple, ce qui implique d'investir dans des sociétés présentant des caractéristiques de haute qualité. Les ratios financiers tels que le rendement des fonds propres et le taux de croissance de la rentabilité sont utilisés pour quantifier la qualité d'une entreprise. Les actions avec des ratios élevés et des marges élevées sont considérées comme de haute qualité, tandis que celles avec des ratios et des marges plus faibles sont considérées comme de faible qualité. Les données historiques montrent que les portefeuilles composés d'actions de haute qualité ont généré des rendements excédentaires sur de longues périodes.
Kumar se penche ensuite sur la classification des facteurs dans l'investissement factoriel quantitatif. Les facteurs sont classés en sept types, y compris les facteurs macro, les facteurs basés sur le style, les facteurs sectoriels, les facteurs basés sur l'ESG, les facteurs basés sur le sentiment, les facteurs basés sur la liquidité et les facteurs techniques. Il donne un aperçu du fonctionnement de chacun de ces facteurs et de la manière dont ils peuvent être utilisés pour construire des portefeuilles factoriels. Pour illustrer cela, il présente des exemples de stratégies construites à partir de facteurs macroéconomiques et de style. Ces stratégies impliquent l'utilisation de variables telles que la croissance du PIB, le taux d'inflation, le taux d'intérêt et le rendement des capitaux propres pour sélectionner des actions et constituer un portefeuille. Kumar souligne également l'importance de prendre en compte des facteurs tels qu'un rendement plus élevé des capitaux propres et un faible ratio d'endettement lors de la sélection d'actions pour un portefeuille.
Le webinaire explore en outre divers facteurs pouvant être intégrés aux stratégies d'investissement factoriel quantitatif, notamment les facteurs de style, la matrice sectorielle, les critères ESG, le sentiment, la liquidité et les indicateurs techniques. Kumar explique comment ces facteurs peuvent être utilisés pour développer un cadre logique pour la construction de portefeuilles et fournit des exemples concrets de stratégies qui peuvent être mises en œuvre à l'aide de ces facteurs. Il évoque brièvement les critères ESG, c'est-à-dire les critères environnementaux, sociaux et de gouvernance, et leur rôle dans la notation des entreprises en fonction de leur impact sur la société et l'environnement.
L'utilisation de modèles mathématiques et d'analyses statistiques dans l'investissement factoriel quantitatif est également abordée. Kumar souligne que ces méthodes aident à éliminer les biais émotionnels des décisions d'investissement et permettent l'exploration de facteurs moins intuitifs. Il décrit les sept méthodes quantitatives les plus couramment utilisées dans ce domaine, notamment l'analyse statistique, la modélisation factorielle, l'apprentissage automatique, les modèles d'optimisation, l'analyse des séries chronologiques, les modèles de risque et les simulations de Monte Carlo. La vidéo montre comment l'analyse statistique peut être utilisée pour identifier les modèles et les corrélations entre les titres et les facteurs.
Les avantages de l'investissement factoriel quantitatif dans la construction et la gestion de portefeuilles d'investissement sont explorés dans le webinaire. L'un des principaux avantages est la possibilité de simuler des conditions de marché extrêmes, ce qui aide les investisseurs à mieux comprendre les limites de leurs portefeuilles. Le conférencier souligne les différences d'approche entre l'investissement factoriel traditionnel et quantitatif, en utilisant une étude de cas d'un portefeuille d'actions à grande capitalisation avec de faibles ratios cours/bénéfice. Alors que l'investissement traditionnel implique l'identification de facteurs, la détermination de l'univers des actions à grande capitalisation et le calcul des facteurs pour chaque action avant de les trier en fonction des ratios P/E, l'investissement factoriel quantitatif utilise la collecte de données, le prétraitement et la sélection des caractéristiques. Un modèle est construit pour prédire les prix des actions en fonction des caractéristiques sélectionnées.
Le processus d'investissement factoriel quantitatif est expliqué, en soulignant l'importance de construire des modèles précis pour prédire les cours des actions en fonction de caractéristiques spécifiques. L'orateur souligne que cette approche est axée sur les données et plus objective par rapport à l'investissement factoriel traditionnel, permettant une analyse plus précise et fiable. Pour sélectionner les meilleurs facteurs d'investissement, les facteurs doivent être persistants, fonctionner sur différents marchés et secteurs, être robustes à diverses conditions de marché, ne pas être trop sensibles aux changements d'éthique du marché et posséder suffisamment de liquidité et de capacité.
Le webinaire couvre également la combinaison de facteurs dans l'investissement factoriel quantitatif. Cinq méthodes couramment utilisées sont discutées, y compris la pondération égale et la notation factorielle, où chaque facteur est noté en fonction de sa performance historique et une moyenne pondérée est prise pour obtenir une note globale. L'importance de combiner les facteurs est soulignée, car cela réduit le risque du portefeuille, augmente la diversification et minimise la volatilité des performances. L'orateur décrit cinq caractéristiques clés d'un meilleur facteur, notamment être étayé par des preuves empiriques, avoir une base économique ou financière, offrir des opportunités d'investissement à long terme, être investissable et être intuitif et largement accepté.
L'orateur aborde ensuite plusieurs méthodes de combinaison de facteurs dans l'investissement factoriel quantitatif. L'une de ces méthodes est l'analyse en composantes principales (ACP), qui combine plusieurs facteurs en un ensemble plus restreint de composantes non corrélées. Cette approche réduit le nombre de facteurs et résout le problème des facteurs corrélés, également appelé multicolinéarité. Une autre méthode est l'inclinaison factorielle, qui consiste à ajuster les pondérations ou les allocations dans un portefeuille pour mettre l'accent sur un facteur particulier. Cette technique offre de la flexibilité et permet aux investisseurs de cibler des facteurs spécifiques. De plus, l'apprentissage automatique peut être exploité pour sélectionner ou combiner des facteurs en fonction de leurs performances historiques, en capturant efficacement les relations non linéaires. L'orateur souligne l'importance de faire preuve de prudence lors de l'utilisation d'algorithmes d'apprentissage en profondeur, car ils nécessitent des quantités importantes de données et peuvent être sujets à un surajustement. Il est recommandé de les combiner avec des méthodes statistiques traditionnelles pour des résultats optimaux.
En outre, le conférencier répond aux questions de l'auditoire liées à l'investissement factoriel quantitatif. Les questions couvrent divers sujets, tels que l'utilisation de l'évolution des prix et des graphiques à long terme comme facteurs d'investissement, où l'orateur suggère qu'il peut être utilisé comme facteur technique en le définissant de manière appropriée et en étudiant ses performances historiques. La distinction entre les facteurs négociés et non négociés est expliquée, avec un exemple de l'immobilier en tant que facteur non négocié en raison de la difficulté à déterminer la liquidité. L'investissement factoriel quantitatif se concentre principalement sur les facteurs négociés, car leurs données sont facilement accessibles et permettent un backtesting. Le conférencier fournit également des informations pour déterminer si une entreprise est davantage axée sur la valeur ou la croissance, suggérant des techniques telles que l'utilisation du ratio cours / bénéfice pour définir les actions de valeur.
La discussion se poursuit avec l'exploration de différents algorithmes utilisés dans l'investissement factoriel quantitatif. Des algorithmes tels que les réseaux de neurones récurrents (RNN) et la mémoire longue à court terme (LSTM) sont mentionnés, leur pertinence dépendant du type de données analysées. Des techniques d'apprentissage en profondeur peuvent être utilisées pour combiner des facteurs et déterminer les pondérations optimales pour chaque facteur, ce qui améliore la performance du portefeuille. Le conférencier offre des conseils sur les stratégies de facteurs de backtesting et souligne l'importance de tester leur signification statistique sur plusieurs ensembles de données et marchés. L'utilisation des bandes de Bollinger comme indicateur technique pour identifier les marchés latéraux est également mentionnée.
Enfin, le webinaire se termine par une dernière session de questions-réponses, au cours de laquelle le conférencier répond aux questions supplémentaires du public. Les questions incluent le rôle des algorithmes d'apprentissage en profondeur dans la sélection des secteurs industriels, mettant en évidence diverses options telles que les arbres de décision, les réseaux de neurones et les forêts aléatoires. Il est souligné que la sélection de l'algorithme dépend de la tâche spécifique et de l'ensemble de données à portée de main. L'orateur réitère l'importance d'utiliser les algorithmes d'apprentissage en profondeur avec prudence en raison de leurs besoins en données et de leur potentiel de surajustement. Le public est remercié pour sa participation et encouragé à donner son avis sur la séance.
Apprentissage automatique pour le trading d'options
Apprentissage automatique pour le trading d'options
Dans le webinaire sur l'apprentissage automatique pour le trading d'options, le conférencier, Varun Kumar Patula, commence par fournir une introduction à l'apprentissage automatique et à son objectif fondamental. Il explique que les algorithmes d'apprentissage automatique sont utilisés pour analyser les données et découvrir des modèles qui peuvent passer inaperçus pour les humains. Varun fait la distinction entre l'intelligence artificielle, l'apprentissage automatique et l'apprentissage en profondeur, soulignant que l'apprentissage automatique est un sous-ensemble de l'IA axé sur la formation de modèles pour faire des prédictions ou des décisions basées sur des données. Il classe en outre l'apprentissage automatique en trois types : l'apprentissage supervisé, l'apprentissage non supervisé et l'apprentissage par renforcement, chacun ayant ses propres caractéristiques et applications.
Le conférencier se penche ensuite sur l'application de l'apprentissage automatique dans le trading d'options, un élément clé du webinaire. La négociation d'options implique l'achat ou la vente de contrats d'options, qui accordent au détenteur le droit d'acheter ou de vendre un actif à un prix spécifié dans un délai précis. Varun souligne le risque élevé lié au trading d'options et explique comment l'apprentissage automatique peut améliorer la précision de l'analyse, réduisant ainsi les risques. Il élabore sur les diverses applications de l'apprentissage automatique dans le trading d'options, y compris la tarification des options, la conception de stratégies de trading, le calcul de la volatilité et la prévision de la volatilité implicite. Ces applications visent à améliorer la prise de décision et à augmenter la rentabilité du trading d'options.
Pour comprendre le besoin d'apprentissage automatique dans le trading d'options, les limites des modèles traditionnels comme le modèle Black-Scholes sont discutées. Le modèle Black-Scholes suppose un taux sans risque et une volatilité constants, ce qui peut ne pas être vrai dans des scénarios réels. Varun mentionne des modèles alternatifs comme le modèle allemand Candy et le modèle Heston, qui ont leurs propres limites et exigences en matière de paramètres d'entrée. La solution proposée consiste à utiliser l'apprentissage automatique en remplacement ou en combinaison de ces modèles, car il permet un ensemble étendu de fonctionnalités et de paramètres d'entrée. Les modèles d'apprentissage automatique peuvent prendre en compte des facteurs tels que la volatilité implicite ou réalisée, les taux d'intérêt et d'autres caractéristiques pertinentes pour déterminer le juste prix des options. Cela permet une tarification plus précise, une sélection des prix d'exercice et des stratégies de couverture. Varun souligne que la recherche empirique indique que les modèles d'apprentissage en profondeur avec plusieurs couches cachées, tels que le modèle perceptron multicouche, surpassent le modèle Black-Scholes, en particulier pour les options qui sont loin de l'argent ou à l'argent.
Le webinaire explore ensuite l'optimisation des décisions de trading à l'aide de modèles d'apprentissage automatique pour les stratégies d'options. Le processus général consiste à analyser le sentiment haussier ou baissier de l'actif sous-jacent et à sélectionner une stratégie appropriée en conséquence. Cependant, de nombreuses stratégies d'options ont faussé les distributions risque-récompense, nécessitant une analyse plus fine. L'apprentissage automatique peut améliorer cette analyse en tenant compte de caractéristiques telles que les rendements passés, le momentum et la volatilité pour fournir des informations sur l'actif sous-jacent. Ces caractéristiques sont ensuite entrées dans un modèle d'apprentissage automatique pour classer la prochaine période de négociation comme haussière ou baissière. La vidéo aborde également les caractéristiques utilisées dans les données de l'indice SP500 et souligne l'importance de l'analyse des caractéristiques dans les décisions de stratégie d'option.
Ensuite, le conférencier se concentre sur la construction de modèles d'apprentissage automatique pour les décisions de négociation sur les spreads d'options verticaux. Ils expliquent que les paramètres d'entrée restent les mêmes que dans l'exemple précédent, où un classificateur d'arbre de décision est utilisé pour classer le jour de bourse suivant comme haussier ou baissier. Pour profiter des options, des spreads comme des spreads d'achat haussiers ou des spreads baissiers de vente sont introduits, car ils limitent le risque. Les modèles d'apprentissage automatique sont combinés pour prévoir la fourchette de négociation et la volatilité du contrat. En tirant parti de ces modèles combinés, les traders peuvent déterminer les paramètres optimaux pour les spreads verticaux dans leurs stratégies de trading tout en prévoyant la volatilité implicite, qui est cruciale dans le trading d'options.
Une autre application de l'apprentissage automatique dans le trading d'options consiste à prévoir la volatilité implicite et à prendre des décisions calculées sur les stratégies d'options. En saisissant la volatilité implicite historique et d'autres caractéristiques pertinentes dans les modèles d'apprentissage automatique, les traders peuvent prévoir la volatilité et sélectionner des stratégies appropriées telles que les chevauchements courts ou les étranglements courts. L'orateur partage une étude de cas où un modèle d'apprentissage automatique a été construit pour prédire la stratégie d'option la plus appropriée sur la base d'une liste de stratégies et de caractéristiques d'entrée, y compris les données sous-jacentes et les données d'options. En concevant un univers de stratégie et en élargissant l'étude pour inclure différents contrats, les traders peuvent utiliser l'apprentissage automatique pour créer et sélectionner la meilleure stratégie qui correspond à leurs objectifs de trading.
Dans le webinaire, l'orateur décrit comment ils ont créé 27 stratégies différentes pour le trading d'options en explorant diverses combinaisons de positions et de contrats. Pour affiner les stratégies, ils les ont filtrées jusqu'à 20 en éliminant les combinaisons qui n'avaient pas de position dans un appelant ou reposaient sur des combinaisons peu pratiques comme les chevauchements courts. Pour déterminer laquelle de ces 20 stratégies offrirait un rendement maximal, l'orateur a utilisé un modèle d'apprentissage automatique, en particulier un modèle de mémoire longue à court terme (LSTM). Ce modèle incorporait des caractéristiques d'entrée des actifs sous-jacents, des options et de la volatilité, et utilisait un système de classification multi-classes pour identifier la stratégie optimale de déploiement.
La vidéo met également en lumière les caractéristiques liées aux grades d'option et à la structure du réseau neuronal utilisé pour le modèle LSTM. En formant le modèle sur environ 10 ans de données, il a généré des étiquettes de stratégie basées sur les caractéristiques d'entrée. Les résultats ont démontré que le modèle d'apprentissage automatique surpassait l'actif sous-jacent au fil du temps. Pour améliorer la précision des prédictions des modèles d'apprentissage automatique pour les options, le conférencier recommande plusieurs bonnes pratiques. Celles-ci incluent l'utilisation de niveaux de probabilité pour un réglage fin, l'utilisation de plusieurs modèles de vision, la mise en œuvre de la technique du classificateur de vote et l'exploitation de la sortie de plusieurs classificateurs pour former un autre modèle d'apprentissage automatique afin d'améliorer la précision et la rentabilité.
En outre, le conférencier explore des méthodes pour améliorer les performances des modèles de classification dans le trading d'options. Ces méthodes impliquent l'utilisation de niveaux de probabilité, l'utilisation de techniques d'ensemble en combinant plusieurs classificateurs et l'utilisation de modèles d'apprentissage automatique pour agréger les sorties de différents modèles. L'importance du réglage des hyperparamètres et des techniques de validation croisée est soulignée pour obtenir une plus grande précision dans les modèles. Le conférencier insiste également sur l'importance du trading sur papier avant de déployer une stratégie avec de l'argent réel. Cette pratique permet aux traders d'identifier et de résoudre tous les problèmes ou défis pratiques avant de risquer le capital réel.
Au cours de la session de questions-réponses qui suit, le conférencier répond aux questions des participants. Les questions couvrent divers sujets, notamment les performances de la stratégie d'apprentissage automatique pour le trading d'options, la méthodologie utilisée pour sélectionner les fonctionnalités du modèle, les avantages de l'apprentissage automatique par rapport aux indicateurs techniques existants, le calcul de l'importance des fonctionnalités et la période de détention appropriée pour le SPY (indice Standard & Poor's 500). L'orateur précise que la performance de la stratégie n'est pas uniquement due à la direction du marché en 2020, car les données utilisées pour le modèle remontent à 2010 et englobent des périodes au-delà de 2020. Ils expliquent que le trading d'options nécessite une analyse plus complexe, en tenant compte de facteurs tels que l'option Grecs et la volatilité implicite, faisant de l'apprentissage automatique un outil précieux. La sélection des fonctionnalités du modèle est basée sur une combinaison d'expérience de trading et de prise de décision éclairée.
Vers la fin du webinaire, le conférencier discute des prérequis pour le cours d'accompagnement, recommandant une connaissance préalable de l'apprentissage automatique et des cours connexes pour maximiser ses avantages. Bien que le cours se concentre principalement sur la création de modèles d'apprentissage automatique pour le trading d'options S&P 500, les concepts peuvent être adaptés et appliqués à d'autres contrats avec une formation et une personnalisation supplémentaires. Le cours ne fournit pas de modèle d'apprentissage automatique prédéfini, mais il fournit aux participants les connaissances et les compétences nécessaires pour construire leurs propres modèles.
Le webinaire donne un aperçu complet de l'application de l'apprentissage automatique dans le trading d'options. Il couvre les bases de l'apprentissage automatique, ses distinctions par rapport à d'autres domaines connexes et les trois types d'algorithmes d'apprentissage automatique. Le webinaire met l'accent sur la nécessité de l'apprentissage automatique dans le trading d'options en raison de sa capacité à améliorer la précision de l'analyse et à atténuer les risques. Diverses applications de l'apprentissage automatique dans le trading d'options, y compris la tarification des options, la conception de stratégies de trading et la prévision de la volatilité implicite, sont discutées. Le webinaire explore également la construction de modèles d'apprentissage automatique pour les spreads d'options verticaux et l'optimisation des décisions de trading.
Répartition des actifs du portefeuille avec ML et optimisation des actions à dividendes | Projet Algo Trading
Répartition des actifs du portefeuille avec ML et optimisation des actions à dividendes | Projet Algo Trading
La première présentation de l'événement est donnée par Raimondo Mourinho, un ingénieur indépendant en IA et Big Data connu pour son travail avec les petites et moyennes entreprises en Italie, fournissant des solutions d'IA pour diverses fonctions d'entreprise. Mourinho croit en la combinaison de techniques d'apprentissage automatique, de statistiques et de probabilités pour créer des systèmes de trading avancés. Dans sa présentation, il partage son cadre pratique et évolutif pour développer des modèles d'apprentissage automatique dans l'allocation d'actifs de portefeuille.
Mourinho commence par présenter les composants clés nécessaires à la conception d'un tel système. Il souligne l'importance d'adopter un état d'esprit de portefeuille, d'utiliser des modèles d'apprentissage automatique pour convertir les idées en stratégies exploitables et de tirer parti de la puissance des capacités multi-processeurs, multi-cœurs et GPU. Ces ingrédients forment la base de son cadre. Bien qu'il mentionne brièvement le besoin d'une infrastructure lors de la mise en service, il se concentre sur les blocs élémentaires du cadre pour le trading à basse et moyenne fréquence, reconnaissant que la dernière partie du cadre dépasse le cadre de la présentation.
L'orateur se penche ensuite sur les compétences nécessaires à la construction d'un cadre robuste pour l'allocation d'actifs de portefeuille à l'aide de l'apprentissage automatique et de l'optimisation des actions à dividendes en Python. Il insiste sur la nécessité d'une solide compréhension des techniques de portefeuille, de la programmation orientée objet, des techniques de traitement multiple et de la programmation asynchrone. De plus, une expertise dans les outils d'optimisation des hyperparamètres, le langage SQL et la technologie Docker est jugée précieuse. Mourinho explique ensuite la première étape du cadre, qui consiste à optimiser une base de données pour les séries chronologiques, le prétraitement des données, la gestion des données manquantes et des valeurs aberrantes, la normalisation des données et la sélection des actifs dans l'univers d'actifs désigné.
La présentation aborde ensuite la phase de génération alpha, qui correspond à la terminologie de l'apprentissage automatique pour générer des signaux de trading. Mourinho souligne qu'au cours de cette phase, les commerçants intègrent leurs idées à l'aide de divers indicateurs, d'analyses de sentiment et de modèles économétriques. L'étape suivante implique la sélection des caractéristiques, où les caractéristiques redondantes, telles que les caractéristiques constantes et quasi constantes, les caractéristiques non stationnaires et les caractéristiques corrélées linéairement, sont supprimées à l'aide d'une méthode basée sur le rang. De plus, il mentionne l'utilisation de la différenciation fractionnaire, une technique qui maintient la stationnarité souhaitée tout en préservant les informations cruciales dans les caractéristiques. Ces améliorations font partie intégrante du cadre de Mourinho pour la répartition des actifs du portefeuille en utilisant l'apprentissage automatique et l'optimisation des actions à dividendes.
Le rééquilibrage, qui comprend la sélection des actifs et la répartition des pondérations, est expliqué en détail dans le pipeline d'apprentissage. Mourinho utilise une dynamique transversale, basée sur la force relative entre les actifs, pour la sélection des actifs. Pour l'allocation de poids, il combine des techniques traditionnelles telles que l'algorithme de ligne critique, le portefeuille à volatilité inverse et le portefeuille équipondéré avec des modèles d'apprentissage automatique tels que la parité hiérarchique des risques et la contribution hiérarchique égale des risques. Le conférencier présente des résultats de simulation et évalue les performances à l'aide de données historiques. Il mentionne également son intention d'améliorer encore le portefeuille en incorporant des techniques telles que la stratégie Drunken Monkey et la validation croisée combinatoire purgée. De plus, Mourinho souligne l'importance d'une gestion efficace de l'argent lors de l'application de ces techniques à des scénarios de trading en direct.
Pour aborder l'estimation de la variabilité des paramètres, Mourinho recommande d'utiliser des techniques telles que la simulation de Monte Carlo et le bootstrap. Il présente les résultats de son analyse, en se concentrant sur la richesse terminale et les centiles de prélèvement maximum. L'orateur souligne l'importance de rester axé sur les données et de ne pas trop s'attacher à des idées de trading spécifiques. Il conseille également d'atténuer le risque idiosyncratique en employant différentes techniques et d'éviter le surajustement en sélectionnant des systèmes plus simples aux performances comparables. Enfin, il souligne la nécessité de surveiller et d'ajuster en permanence les systèmes de trading en direct en raison de la nature non stationnaire des données de séries chronologiques.
Au cours de la session de questions-réponses, Mourinho répond à plusieurs questions du public. Un participant s'interroge sur l'étape la plus critique du pipeline, à laquelle Mourinho souligne que le prétraitement des données est essentiel et prend du temps. Une autre question tourne autour de la normalisation des données, et Mourinho suggère la pratique courante de soustraire la moyenne et de diviser par l'écart type dans la plupart des cas. En ce qui concerne la suppression de la corrélation linéaire à l'aide de l'analyse en composantes principales (ACP), il reconnaît sa possibilité mais met en garde contre la perte potentielle de sens dans les caractéristiques et suggère d'envisager des modèles comme le ratio de Sharpe pour interpréter efficacement les résultats.
L'orateur discute ensuite de l'utilisation de l'ACP pour la sélection des caractéristiques et de son impact potentiel sur l'interprétabilité des caractéristiques. Il est conseillé aux futurs traders quantitatifs et algorithmiques de considérer EPAT (Executive Program in Algorithmic Trading) comme un point de départ précieux. Ils soulignent que le programme propose des objectifs d'apprentissage complets alignés sur les exigences de l'industrie. Les participants au webinaire se voient offrir une admission anticipée prolongée au programme et peuvent réserver un appel de conseil pour comprendre comment cela peut les aider à atteindre leurs objectifs de carrière, qu'il s'agisse d'établir un bureau de négociation algorithmique ou d'incorporer des technologies et des outils avancés dans leur négociation. stratégies.
Kurt Celestog, chef de projet chez Hong Kong Exchange and Clearing Limited, monte sur scène pour partager son projet sur la gestion de portefeuille, qui prolonge la conférence de Jay Palmer sur la gestion de portefeuille quantitative. Le projet de Celestog se concentre sur l'optimisation du rendement du dividende grâce à la gestion de portefeuille. Son objectif est de générer un flux régulier de revenus de dividendes tout en assurant la stabilité et la croissance des versements de dividendes, tout en maintenant la valeur du portefeuille. Il vise à surpasser l'indice de référence ou l'ETF en termes de rendement des dividendes et de rendement des prix grâce à des techniques de gestion de portefeuille optimales. Celestog a relevé le défi d'acquérir des données sur les dividendes et a développé des fonctions de web scraping pour les télécharger. Il a divisé l'ensemble de données en deux parties, chacune couvrant dix ans et englobant les récessions et les expansions économiques.
Le conférencier discute des défis rencontrés lors du processus de nettoyage des données pour l'optimisation du portefeuille d'actions à dividendes. Les données obtenues à partir du site Web n'étaient pas propres et nécessitaient des modifications et une normalisation pour exprimer les dividendes en dollars, en particulier avec les premiers dividendes initialement présentés sous forme de pourcentages. Les données sur les prix proviennent de Yahoo Finance et des mesures telles que le rendement annuel du dividende, la croissance du dividende et la croissance moyenne ont été calculées. Un ratio composite a été dérivé pour toutes les actions sélectionnées afin de créer deux portefeuilles : un portefeuille à pondération égale et un portefeuille à pondération optimisée. L'orateur visait à analyser si une seule optimisation, suivie d'une période de détention de dix ans, surperformerait l'indice de référence et l'ETF.
L'orateur partage ensuite les résultats du projet d'optimisation de portefeuille utilisant des techniques d'apprentissage automatique. Les graphiques présentés représentent des bulles vertes dans le quadrant supérieur gauche, représentant les cinq actions avec la métrique combinée la plus élevée. Les portefeuilles à pondération égale et à pondération optimale ont affiché des rendements moyens et des rendements en dividendes supérieurs à ceux de l'indice de référence. Cependant, au cours des dix années suivantes, les valeurs bancaires et technologiques ont gagné en popularité, entraînant une baisse de la performance du portefeuille optimisé par rapport à l'indice de référence. Pour améliorer les performances, le conférencier a expérimenté le rééquilibrage régulier des portefeuilles et la sélection des cinq meilleures actions en fonction de la métrique choisie. Les portefeuilles rééquilibrés ont surperformé l'indice de référence et ont affiché un rendement en dividendes plus élevé.
L'orateur souligne comment l'optimisation du portefeuille et le rééquilibrage régulier peuvent conduire à des rendements de dividendes plus élevés et surperformer les indices de référence, en particulier avec des actions à dividendes comme les fiducies de placement immobilier (REIT). En rééquilibrant les portefeuilles tous les six mois et en explorant différentes périodes rétrospectives, l'orateur a réussi à surperformer l'indice en termes de rendement moyen du dividende, de croissance du dividende, de rendement et de diminution des prélèvements. Cependant, ils reconnaissent les défis liés à l'obtention et au nettoyage des données et notent que la fonction de rééquilibrage peut être complexe, suggérant l'utilisation de la programmation orientée objet pour résoudre cette complexité. Dans l'ensemble, le conférencier souligne que l'optimisation de portefeuille et le rééquilibrage régulier sont des outils précieux pour les investisseurs.
L'orateur souligne qu'un rééquilibrage fréquent du portefeuille est crucial pour obtenir une surperformance. Cependant, en raison de la rareté de la disponibilité des données sur les dividendes pour les actions à dividendes, il est difficile de rééquilibrer plus fréquemment qu'une ou deux fois par an. L'orateur souligne également la nécessité de poursuivre les travaux sur le projet, y compris l'exploration de différents critères d'optimisation, l'incorporation de plus d'actions dans le portefeuille pour une diversification accrue et la réalisation de backtesting approfondis. Ils suggèrent d'élargir l'univers des lectures et de discuter de l'impact des coûts de transaction sur la performance du portefeuille.
Lors de la séance de questions-réponses, Celestog répond aux questions du public. Un participant s'interroge sur la performance du portefeuille équipondéré par rapport au portefeuille optimisé. Celestog explique que le portefeuille équipondéré a généralement bien performé, mais que le portefeuille optimisé a produit des rendements plus élevés, démontrant l'efficacité des techniques d'optimisation de portefeuille. Un autre participant s'interroge sur l'impact des coûts de transaction sur la performance du portefeuille. Celestog reconnaît que les coûts de transaction peuvent avoir un impact significatif et suggère de les intégrer dans le processus d'optimisation pour obtenir une représentation plus précise des performances réelles. Il mentionne également l'importance de prendre en compte le glissement dans les scénarios de trading en direct et conseille aux participants de tester minutieusement leurs stratégies à l'aide de données historiques avant de les mettre en œuvre dans le trading en direct.
Dans l'ensemble, les présentations du webinaire ont mis en lumière les aspects pratiques de l'allocation d'actifs de portefeuille à l'aide de techniques d'apprentissage automatique et d'optimisation pour les actions à dividendes. Les conférenciers ont souligné l'importance du prétraitement des données, de la sélection des fonctionnalités, du rééquilibrage et de la surveillance régulière pour obtenir de bons résultats. Ils ont également souligné la nécessité d'un apprentissage continu, de l'adaptabilité et de l'exploration de différentes stratégies pour naviguer dans la nature dynamique des marchés financiers. Le public a acquis des informations précieuses sur les défis, les techniques et les avantages potentiels de l'utilisation de l'apprentissage automatique dans la gestion de portefeuille.