Trading Quantitatif - page 8

 

Rama Cont et Francesco Capponi : « Impact croisé sur les marchés boursiers »



Rama Cont et Francesco Capponi : « Impact croisé sur les marchés boursiers »

Rama Cont et Francesco Capponi se penchent sur le concept d'impact croisé sur les marchés boursiers à travers leur analyse des flux d'ordres et des données sur les prix. Ils affirment que l'impact croisé signifie que le prix d'un actif est influencé non seulement par son propre flux d'ordres, mais également par le flux d'ordres d'autres actifs. Alors que des études théoriques antérieures ont tenté de déduire les conséquences des effets d'impact croisé et d'étendre les modèles d'exécution optimale des transactions à un seul actif à plusieurs actifs, Cont et Capponi proposent une approche plus simplifiée pour expliquer les corrélations entre les rendements des actifs et le flux d'ordres.

Ils soutiennent qu'une matrice complète des coefficients d'impact sur les prix n'est pas nécessaire pour tenir compte de ces corrélations. Au lieu de cela, ils soutiennent que les corrélations observées peuvent être attribuées au fait que les acteurs du marché s'engagent souvent dans la négociation de plusieurs actifs, générant ainsi des déséquilibres corrélés des flux d'ordres entre les actifs. Pour identifier l'importance des coefficients d'impact croisé et les principaux moteurs des coûts d'exécution, les présentateurs suggèrent d'utiliser une analyse en composantes principales (ACP) sur les matrices de corrélation des rendements et des déséquilibres des flux d'ordres.

Cont et Capponi proposent un modèle parcimonieux d'impact croisé sur les marchés boursiers, en se concentrant sur le solde des flux d'ordres d'une action et la corrélation des déséquilibres des flux d'ordres. Ils constatent qu'un modèle à un facteur pour le déséquilibre des flux d'ordres est suffisant pour expliquer les corrélations croisées des rendements. Ce modèle peut être utilisé pour l'exécution du portefeuille et l'analyse des coûts de transaction, les présentateurs recommandant l'utilisation d'un modèle fiable pour l'impact sur un seul actif couplé à un bon modèle pour les facteurs communs dans le flux d'ordres entre les actifs.

Les conférenciers soulignent l'importance d'établir un modèle causal et une interprétation de l'équation. Ils expriment leur volonté de partager du matériel supplémentaire et des mises à jour, soulignant leur engagement à faire progresser la compréhension dans ce domaine de recherche.

  • 00:00:00 Dans cette section de la vidéo, Rama Cont et Francesco Capponi discutent du concept d'impact croisé sur les marchés boursiers. Ils étudient ce concept en analysant les flux d'ordres et les données de prix des marchés boursiers, et expliquent que l'impact sur le marché, ou l'exécution de transactions modifiant le prix d'un actif, contribue au coût d'exécution. Ils montrent également que les mouvements de prix sont entraînés par le déséquilibre agrégé entre l'offre et la demande, et définissent la notion de déséquilibre des flux d'ordres comme un outil utile pour construire des modèles d'impact.

  • 00:05:00 Dans cette section, Rama Cont et Francesco Capponi discutent de l'impact linéaire du déséquilibre des flux d'ordres sur les marchés des carnets d'ordres centralisés. C'est ce déséquilibre agrégé entre l'offre et la demande qui détermine le prix, qui peut être vu comme un modèle de régression dont le coefficient d'impact reflète la notion opposée de liquidité. Le coefficient a une relation inverse hautement corrélée avec la profondeur du carnet de commandes, et l'extraction du coefficient d'impact peut être effectuée par un calcul de covariance. Bien que l'étude ait été précédemment réalisée pour des actions individuelles, les acteurs du marché s'intéressent également aux corrélations entre plusieurs actifs, et des corrélations positives ont été trouvées entre le déséquilibre du flux d'ordres et les rendements de différents titres.

  • 00:10:00 Dans cette section, Rama Cont et Francesco Capponi discutent du concept d'impact croisé et de ses études théoriques et empiriques. Ils expliquent que l'impact croisé fait référence au fait que le prix d'un actif n'est pas influencé uniquement par son propre flux d'ordres mais également par le flux d'ordres d'autres actifs. Des études empiriques ont documenté une corrélation positive entre le flux d'ordres d'un actif et les mouvements de prix d'un autre actif, du moins dans la classe d'actifs homogène. Des études théoriques ont tenté de déduire les conséquences de tels effets d'impact croisé et ont étendu le modèle d'exécution optimale des transactions sur un seul actif à plusieurs actifs où le modèle inclut des effets d'impact croisé. Cependant, cela conduit à un grand nombre de coefficients d'impact croisé qui doivent être estimés.

  • 00:15:00 Dans cette section, les présentateurs discutent du concept d'impact croisé et de sa pertinence pour expliquer les phénomènes de marché observables. Ils se demandent si une matrice complète des coefficients d'impact sur les prix est nécessaire pour expliquer les corrélations entre les rendements des actifs et le flux d'ordres sur un marché et si une approche plus parcimonieuse est possible. Ils établissent également des analogies avec l'action à distance en physique et discutent de la nécessité d'un mécanisme sous-jacent qui relie les actifs entre eux afin d'établir un impact causal. L'objectif est de concevoir un modèle d'impact multi-actifs qui n'inclut que les coefficients nécessaires et évite toute complexité inutile.

  • 00:20:00 Dans cette section, les conférenciers soutiennent que le concept d'impact croisé n'est pas nécessaire pour expliquer les co-variations des mouvements de prix et le déséquilibre des flux d'ordres observés sur les marchés boursiers. Les corrélations observées peuvent s'expliquer par le fait que les acteurs du marché négocient souvent plusieurs actifs, générant des déséquilibres de flux d'ordres corrélés entre les actifs, qui à leur tour entraînent des corrélations dans les rendements des différents actifs. Les conférenciers présentent un diagramme de modèle causal qui montre que le prix d'un actif est déterminé par le déséquilibre du flux d'ordres, qui est la somme algébrique de tous les ordres d'achat et de vente générés par les entités et les stratégies de négociation multi-actifs. Ils soutiennent que le modèle d'impact sur les actifs unique est suffisant pour expliquer ces corrélations et qu'aucun modèle d'impact croisé supplémentaire n'est nécessaire.

  • 00: 25: 00 Dans cette section, la vision traditionnelle de l'offre et de la demande déterminant le prix de chaque actif, créant des corrélations dans le solde du flux d'ordres, est comparée au modèle d'impact croisé qui postule un mécanisme qui influence le rendement d'un stock de loin. Ces hypothèses peuvent être testées avec les données disponibles sur le flux d'ordres et les retours en conditionnant sur les variables du diagramme et en effectuant des régressions conditionnelles. La construction des modèles d'impact pour plusieurs actifs et le problème inhérent d'identification qu'elle pose est discuté. Un modèle linéaire à deux variables, rendements et OFI, est utilisé pour créer des matrices de coefficients thêta et bêta. Le flux net d'ordres pour un titre est défini comme le flux entrant dans la file d'attente des offres moins le flux sortant de la file d'attente des demandes.

  • 00:30:00 Dans cette section, Rama Cont et Francesco Capponi discutent de la covariance des rendements avec le déséquilibre du flux d'ordres et de son lien avec la matrice bêta et l'impact croisé. Ils soulignent qu'il n'est pas nécessaire d'avoir des éléments hors diagonale en bêta pour obtenir des éléments hors diagonale dans la matrice de covariance, car la covariance peut provenir soit de la corrélation des flux d'ordres, soit de la matrice d'impact croisé. L'exemple de deux actions sans corrélation dans les flux d'ordres mais avec des coefficients d'impact croisé souligne l'importance de connaître la corrélation des flux d'ordres pour identifier le coefficient d'impact croisé. La matrice de covariance est affectée par les coefficients de corrélation et d'impact croisé dans le modèle, qui peuvent être observés avec des nombres dans différents scénarios.

  • 00: 35: 00 Dans cette section, Rama Cont et Francesco Capponi discutent de la différence entre modéliser la corrélation et le flux d'ordres entre les actions et comprendre l'impact croisé et modéliser cela. Ils expliquent que le simple fait d'observer une corrélation non nulle entre le flux d'ordres d'un actif et le rendement d'un autre actif n'implique pas que vous ayez besoin d'un coefficient d'impact croisé non nul dans le modèle. Ils présentent également des exemples de faible corrélation et de flux d'ordres, d'impact croisé élevé et vice versa pour montrer qu'il est impossible de déduire l'impact croisé uniquement à partir de ces covariances. Enfin, ils discutent des données qu'ils ont analysées, qui incluent le flux net d'ordres, les déséquilibres des flux d'ordres et les rendements de 67 actions du NASDAQ 100 sur deux ans et demi, et expliquent comment ils ont redéfini et normalisé les rendements et les déséquilibres des flux d'ordres.

  • 00:40:00 Dans cette section de la vidéo, les conférenciers examinent la relation entre la corrélation des rendements boursiers et les déséquilibres des flux d'ordres des différentes actions. En traçant la corrélation entre les rendements des actions et les déséquilibres des flux d'ordres des autres actions, les conférenciers démontrent que la grande majorité des paires d'actions ont une corrélation très proche de l'égalité, suggérant que la corrélation entre les rendements et les déséquilibres des flux d'ordres pourrait simplement être due à la corrélation entre les différents soldes. Pour tester si un modèle multivarié d'impact sur le marché est nécessaire, les intervenants utilisent une analyse de régression et constatent que les coefficients d'impact croisé sont très proches de zéro, indiquant que même s'ils étaient identifiables, ils n'ont qu'un impact minime sur l'impact total.

  • 00:45:00 Dans cette section, Rama Cont et Francesco Capponi proposent une approche différente pour identifier l'importance des coefficients d'impact croisé et les principaux moteurs des coûts d'exécution. Ils suggèrent d'utiliser une analyse en composantes principales (ACP) sur les matrices de corrélation des rendements et de l'équilibre des flux d'ordres et d'utiliser un modèle factoriel pour le déséquilibre des flux d'ordres. La première composante principale du modèle factoriel est utilisée pour tester la signification restante de tout coefficient d'impact de croisement et le résidu de la régression est interprété comme le flux d'ordre idiosyncrasique dû uniquement à l'action dans ce stock. L'approche vise à démêler la contribution de la composante idiosyncratique du flux d'ordres propre d'une action de la composante commune due au cross trading.

  • 00: 50: 00 Dans cette section de la vidéo, Rama Cont et Francesco Capponi discutent de la corrélation entre les premières composantes principales des rendements et les soldes des flux d'ordres des ETF qui suivent le Nasdaq 100 et le S&P 500. Ils constatent que la première composante principale de les rendements ont une corrélation de 91 % avec le rendement global de l'ETF qui suit le Nasdaq 100. De même, la première composante principale du solde du flux d'ordres a une corrélation de 82 % avec le solde du flux d'ordres sur l'ETF QQQ qui suit le même indice . Ils observent également que les premières composantes principales des rendements et du déséquilibre des flux d'ordres sont liées au mouvement global du marché. Cela les amène à expliquer leur approche en deux étapes pour éliminer les points communs dans le flux d'ordres et améliorer les rendements.

  • 00: 55: 00 Dans cette section, Rama Cont et Francesco Capponi discutent de l'impact croisé sur les marchés boursiers, qui fait référence à la façon dont le déséquilibre du flux d'ordres d'une action et la similitude du flux d'ordres entre les actions ont un impact sur le rendement d'une action. Ils montrent que le coefficient d'auto-impact est un déterminant majeur du rendement d'une action, tandis que le coefficient d'impact croisé est très faible et presque tous deviennent négatifs une fois que l'on tient compte de la composante principale. Ils testent ensuite dans quelle mesure les termes d'impact croisé contribuent à expliquer le coût d'exécution des rendements et évaluent s'ils sont statistiquement et économiquement significatifs, tout en s'interrogeant sur leur stabilité dans le temps.

  • 01:00:00 Dans cette section, Rama Cont et Francesco Capponi discutent de l'impact de l'impact croisé et de son importance sur les marchés boursiers. Ils concluent que même si les statistiques peuvent être significatives, économiquement, l'ampleur est faible et il n'y a pratiquement aucune différence notable dans le pouvoir explicatif lorsqu'on inclut tous les autres déséquilibres de flux d'ordres dans la régression. Ils plaident en faveur d'une manière plus parcimonieuse de modéliser l'impact et suggèrent de n'utiliser que le solde du flux d'ordres d'un stock et la corrélation des déséquilibres des flux d'ordres avec l'impact du modèle. Ils soulignent également l'importance de la stabilité dans le temps et analysent les sous-échantillons pour s'assurer que les coefficients d'impact croisé sont stables.

  • 01:05:00 Dans cette section, Rama Cont et Francesco Capponi résument leurs conclusions sur les modèles d'impact croisé sur les marchés boursiers. Ils soutiennent que le phénomène de covariation positive entre les rendements et l'équilibre des flux d'ordres entre différents stocks peut être expliqué sans introduire de modèles de grande dimension avec de nombreux coefficients. Un modèle simple à un facteur pour le flux d'ordres en déséquilibre suffit à expliquer ces schémas de corrélations croisées des rendements. Ils suggèrent qu'une meilleure approche pour construire des modèles d'impact multi-actifs consiste à se concentrer sur la construction de modèles de facteurs communs dans le flux d'ordres, tels qu'un modèle à facteurs linéaires ou une analyse en composantes principales du flux d'ordres. Le déploiement d'un modèle d'impact à un seul actif reliant le flux d'ordres à son propre rendement est suffisant pour expliquer l'amplitude du coût d'exécution dans l'exécution du portefeuille.

  • 01:10:00 Dans cette section, Rama Cont et Francesco Capponi discutent des applications pratiques de leur modèle, en particulier dans le contexte de l'exécution de portefeuille et de l'analyse des coûts de transaction (TCA). Le modèle permet de quantifier les coûts d'exécution, en tenant compte de la similitude des flux d'ordres entre les actifs. La différence de coûts d'exécution entre un seul actif et un portefeuille est liée au facteur de communité. Le modèle peut être utilisé pour mesurer les coûts d'exécution au niveau du portefeuille et aide à mieux comprendre l'impact des portefeuilles de négociation. Ils suggèrent d'utiliser un bon modèle pour l'impact sur un seul actif couplé à un bon modèle pour les facteurs communs dans le flux d'ordres entre les actifs.

  • 01:15:00 Dans cette section, les conférenciers discutent de l'utilisation de la première composante principale des rendements dans l'équation 12. Ils notent qu'il existe une forte corrélation entre l'utilisation de la composante principale de l'OFI et l'utilisation des rendements, mais ils soutiennent qu'ils voulaient suivre leur analyse causale et modéliser les points communs afin que les déséquilibres expliquent les rendements. Ils soulignent l'importance d'avoir un modèle causal et une interprétation de l'équation. Les conférenciers remercient le public pour leur attention et expriment leur volonté de partager d'autres documents et mises à jour.
Rama Cont and Francesco Capponi: "Cross-Impact in Equity Markets"
Rama Cont and Francesco Capponi: "Cross-Impact in Equity Markets"
  • 2020.10.13
  • www.youtube.com
Title: "Cross-Impact in Equity Markets" Joint Work with Francesco CapponiAbstract: The empirical finding that market movements in stock prices may be correl...
 

Adam Grealish : "Une approche algorithmique de l'investissement personnel"



Adam Grealish : "Une approche algorithmique de l'investissement personnel"

Adam Grealish, directeur des investissements chez Betterment, donne un aperçu de l'approche algorithmique de l'entreprise en matière d'investissement personnel et de sa stratégie basée sur les objectifs. Betterment utilise un modèle de robot-conseil, tirant parti d'algorithmes et d'une intervention humaine minimale pour fournir des conseils en investissement et une gestion à ses clients.

Grealish met en évidence trois facteurs clés qui déterminent les résultats des investissements : le maintien des coûts bas, l'optimisation fiscale et le commerce intelligent. Bien que tous les facteurs soient importants, Betterment met fortement l'accent sur les trois premiers. La société utilise la technique d'optimisation Black Litterman pour construire des portefeuilles diversifiés à l'échelle mondiale et surveille en permanence les pondérations cibles sur sa vaste clientèle d'un demi-million de personnes. L'optimisation fiscale, y compris des stratégies telles que la récolte des pertes fiscales, la localisation des actifs et le tri des lots, offre des opportunités de surperformer le marché.

Dans la deuxième partie de sa discussion, Grealish distingue l'approche de Betterment des conseillers financiers automatisés traditionnels. Contrairement à l'approche « taille unique » des robots-conseillers traditionnels, l'approche algorithmique de Betterment prend en compte des facteurs individuels tels que les objectifs, l'horizon temporel et la tolérance au risque. Cette personnalisation permet des portefeuilles personnalisés adaptés à la situation unique de chaque investisseur. Betterment offre également des fonctionnalités supplémentaires telles que la collecte des pertes fiscales et des portefeuilles coordonnés sur le plan fiscal pour maximiser l'efficacité fiscale et augmenter les rendements.

Grealish approfondit davantage les spécificités des stratégies d'investissement de Betterment. La société encourage la stabilité de l'allocation à long terme, n'ajustant les portefeuilles qu'une fois par an pour se rapprocher de l'allocation cible. Ils utilisent des algorithmes de rééquilibrage basés sur des déclencheurs pour gérer la dérive par rapport à l'allocation cible et minimiser les risques. Les portefeuilles de Betterment sont construits à l'aide d'ETF basés sur une large capitalisation boursière, optimisant l'exposition aux classes d'actifs risquées avec les primes de risque associées.

L'optimisation des coûts est un aspect important de la philosophie d'investissement de Betterment. La société profite de la tendance à la baisse des frais sur les ETF, passant en revue l'ensemble de l'univers des ETF sur une base trimestrielle. Le processus de sélection prend en compte des facteurs autres que le ratio des dépenses, y compris l'erreur de suivi et les coûts de négociation, ce qui se traduit par des portefeuilles à faible coût pour les clients de Betterment.

L'optimisation fiscale est un autre élément crucial de la stratégie de Betterment. Grealish explique l'importance de la gestion fiscale et décrit trois stratégies efficaces : la récolte des pertes fiscales, la localisation des actifs et le tri des lots. La récolte des pertes fiscales consiste à vendre des titres à perte pour réaliser des pertes en capital à des fins fiscales, tandis que la localisation des actifs maximise les rendements après impôt en répartissant stratégiquement les actifs entre les comptes. Le tri des lots consiste à vendre les lots les plus déficitaires en premier pour optimiser les avantages fiscaux.

Grealish reconnaît l'impact du comportement des investisseurs sur les résultats d'investissement. Betterment combat les comportements négatifs en mettant en œuvre des valeurs par défaut intelligentes, en utilisant l'automatisation et en encourageant l'investissement basé sur des objectifs. La société utilise une conception intentionnelle et une analyse des données pour inciter les utilisateurs à agir lorsqu'ils s'écartent de leurs objectifs financiers.

En termes de développements futurs, Grealish discute des utilisations potentielles de l'IA dans l'espace fintech. Betterment explore les applications de l'IA pour automatiser les tâches financières telles que le conseil robotique et la gestion de trésorerie. La société vise à rendre les services financiers qui étaient auparavant réservés aux particuliers et aux institutions fortunés accessibles à un public plus large. Cependant, la complexité de l'individualisation de la préparation des déclarations pose des défis dans ce domaine.

Dans l'ensemble, Adam Grealish fournit des informations précieuses sur l'approche algorithmique de Betterment en matière d'investissement personnel, en mettant l'accent sur les stratégies basées sur les objectifs, l'optimisation des coûts, la gestion fiscale et l'atténuation des comportements.

  • 00: 00: 00 Adam Grealish présente Betterment, une plate-forme de conseil en investissement automatisée en ligne qui utilise une approche de gestion des investissements basée sur les objectifs. Son objectif est d'offrir des rendements élevés aux clients grâce à des stratégies d'investissement optimales. Betterment a une activité de vente directe aux clients, une plate-forme technologique en marque blanche pour les conseillers financiers et une entreprise 401k. Le terme "roboadvisor" décrit avec précision l'approche de Betterment, car il fournit des conseils financiers numériques via des algorithmes exécutés par un logiciel avec une intervention humaine minimale.

  • 00:05:00 Adam Grealish, directeur d'Investir pour l'amélioration, explique leur approche de l'investissement, basée sur des algorithmes et une modélisation mathématique. La plate-forme Betterment offre une expérience de gestion des investissements totalement autonome sans aucune interaction humaine, ainsi qu'un accès à des conseillers humains pour ceux qui le souhaitent. Selon Grealish, les facteurs clés qui déterminent les résultats d'investissement sont le maintien des coûts bas, l'optimisation fiscale, la négociation intelligente, la répartition des actifs et la sélection des titres. Cependant, Betterment se concentre principalement sur les trois premiers car ils sont considérés comme les plus déterminants dans la réalisation des objectifs financiers, tout en mettant moins l'accent sur la répartition des actifs et la sélection des titres. Ils utilisent la technique d'optimisation Black Litterman pour créer un portefeuille diversifié à l'échelle mondiale et obtenir le rendement optimal pour leurs investisseurs.

  • 00: 10: 00 Dans cette section, Adam Grealish explique comment ils aident les investisseurs à choisir le niveau de risque à prendre en fonction d'objectifs d'investissement et d'horizons temporels spécifiques. L'application fournit des recommandations sur le niveau de risque à prendre, avec des projections sur ce à quoi cela pourrait ressembler au fil du temps. Ils gèrent ensuite les pondérations cibles par le biais d'un suivi quotidien, le faisant sur un demi-million de clients avec jusqu'à 800 000 portefeuilles individuels surveillés quotidiennement. Le rééquilibrage est considéré principalement comme un outil de gestion des risques et est effectué de manière fiscalement avantageuse lorsque des flux de trésorerie surviennent, lorsque des dividendes sont versés ou lorsque des frais sont prélevés sur le compte. Grealish discute d'un article de Bushi (2012) qui met en évidence les avantages du rééquilibrage d'un portefeuille avec des titres non corrélés au fil du temps. Enfin, ils différencient les objectifs en fonction des profils de liquidation et élaborent une trajectoire de descente en fonction de la longueur de l'horizon.

  • 00: 15: 00 Adam explique comment fonctionne leur approche algorithmique de l'investissement personnel. Ils incitent les investisseurs à conserver longtemps leur allocation, en ne l'ajustant qu'une fois par an, pour se rapprocher de leur allocation cible. L'équipe ajuste l'allocation cible de ses clients sur une base mensuelle, ce qui permet aux dollars marginaux de se rapprocher de l'objectif de risque correct sans avoir à effectuer une transaction de rééquilibrage qui comporte des risques potentiels. Leurs portefeuilles sont entièrement basés sur des ETF à large capitalisation boursière, et ils optimisent leur exposition aux classes d'actifs risquées avec une prime de risque qui leur est associée. L'équipe utilise un algorithme de rééquilibrage basé sur des déclencheurs mesurant la dérive par rapport à une allocation cible, et lorsqu'elle s'éloigne trop, ils rééquilibrent, gérant le risque. Enfin, Grealish note qu'il existe un grand décalage entre les personnes qui en savent beaucoup sur la finance et qui en savent beaucoup sur les finances personnelles.

  • 00: 20: 00 Dans cette section, Adam Grealish discute de la tendance à la baisse des frais sur les ETF, ce qui a été avantageux pour Betterment car il s'agit d'une société indépendante de conseil en robotique qui n'est liée à aucune famille de fonds individuelle. Betterment a un processus de sélection de fonds trimestriel où l'ensemble de l'univers investissable des ETF est examiné, et ils sont classés non seulement sur leur ratio de dépenses, mais également sur d'autres facteurs tels que l'erreur de suivi et les coûts de négociation. L'amélioration se concentre sur le coût annuel total de possession ou le "score taco", qui est déterminé par le coût de détention, le coût de négociation et d'autres facteurs. Le processus aboutit à un portefeuille à faible coût pour Betterment.

  • 00:25:00 Dans cette section de la vidéo, Adam Grealish discute de divers aspects de l'approche d'investissement de Wealthfront. Il explique que leurs rendements attendus sont générés par optimisation inverse à partir de cap m, et qu'ils utilisent un moteur de simulation Monte Carlo qui fonctionne au niveau du lot fiscal pour tester leurs stratégies fiscales. Grealish note également que la désintermédiation de l'industrie des fonds en détenant des titres individuels est une idée intéressante qui peut conduire à davantage d'opportunités de récolte fiscale et de personnalisation, mais qui a des coûts opérationnels associés. De plus, il explique comment Wealthfront évalue les coûts de détention et de négociation des investissements pour fournir une mesure précise de leur coût total.

  • 00:30:00 Adam Grealish, PDG de Betterment, discute de l'importance de la gestion des impôts dans l'investissement de détail et décrit trois stratégies pour une gestion fiscale efficace : la récolte des pertes fiscales, la localisation des actifs et le tri des lots. La récolte de pertes fiscales consiste à vendre des titres à perte pour réaliser des pertes en capital à des fins fiscales et à acheter des titres corrélés pour maintenir une exposition au marché. Betterment vise à maximiser les pertes récoltées tout en maintenant des allocations de risque cibles et en évitant les ventes fictives, qui se produisent lorsqu'un investisseur vend un titre à perte et achète un titre sensiblement identique dans les 30 jours. Grealish note également que la gestion fiscale présente des opportunités de surperformance par rapport au marché et peut entraîner une évasion fiscale substantielle dans certaines situations.

  • 00: 35: 00 Adam déconseille de revenir aveuglément à un titre principal après 30 jours pour éviter d'augmenter votre impôt à payer, car vous pourriez réaliser un dollar de pertes à long terme, mais ensuite quatre dollars de gains en capital à court terme, entraînant des pertes arbitrage fiscal. Il souligne également que le taux d'imposition inférieur des dividendes qualifiés n'entre en vigueur qu'après une période de 60 jours et qu'un retour trop rapide peut nuire à votre efficacité fiscale. Grealish recommande de choisir un titre secondaire avec une forte corrélation avec le primaire, des frais comparables et une liquidité suffisante pour garantir l'efficacité fiscale. En ce qui concerne la récolte, Grealish suggère de fixer un seuil où les avantages attendus devraient être supérieurs aux coûts de transaction et aux coûts d'opportunité, qui peuvent être déterminés à l'aide de la théorie des options, en particulier si les titres ont une volatilité élevée. Le test de dos de Grealish montre un décalage annuel de près de 2%, mais il prévient que suivre aveuglément cette stratégie peut ne pas toujours être optimal.

  • 00:40:00 Dans cette section, Adam Grealish discute des avantages de la récolte des pertes fiscales et donne des conseils sur la façon de l'appliquer efficacement dans un compte personnel. La récolte des pertes fiscales peut être un moyen efficace de gérer les risques, et les résultats des tests rétrospectifs montrent qu'elle génère de l'alpha après impôt. Cependant, les utilisateurs doivent tenir compte des coûts de transaction et du coût d'opportunité des futures ventes de lavage lors de l'application de cette stratégie pour les comptes personnels. La localisation des actifs est une autre stratégie qui peut maximiser les rendements après impôt. En répartissant les actifs entre les comptes pour préserver la répartition cible et le risque du portefeuille, les utilisateurs peuvent augmenter leurs rendements après impôt.

  • 00: 45: 00 Adam Grealish discute des traitements fiscaux pour différents types de titres et propose une approche algorithmique de l'investissement personnel. Il explique comment optimiser l'investissement dans trois comptes en déplaçant les actifs inefficaces vers des comptes fiscalement avantageux et les efficaces vers des comptes imposables. Cela implique de considérer les taux de croissance, les rendements des dividendes, les impôts de liquidation et les ratios de revenus de dividendes qualifiés des actifs et de définir le problème comme un problème de programmation linéaire. Cette approche algorithmique de l'investissement ajoute environ 50 points de base par an à une stratégie non optimisée.

  • 00: 50: 00 Dans cette section, Adam Grealish parle de la gestion des lots fiscaux et de la manière dont Betterment aide ses utilisateurs à trier tous leurs lots et à vendre d'abord les plus grosses pertes avant de passer aux gains et de vendre les plus petits en premier. Il souligne également l'importance des pertes à des fins fiscales et comment elles peuvent être utilisées contre les gains en capital, déduites du revenu ou reportées. Grealish discute ensuite de la question de l'incertitude du taux d'imposition et de la manière dont Betterment la résout par le biais de son processus de détritus noirs en incorporant la surperformance après impôt comme point de vue et en spécifiant un niveau de confiance autour de celle-ci. Ils effectuent ensuite une optimisation robuste de leurs rendements postérieurs et construisent un portefeuille optimal à partir de cela tout en réexaminant leurs hypothèses sur le marché des capitaux et l'emplacement stratégique des actifs sur une base annuelle. Enfin, il élabore sur l'augmentation de l'allocation des obligations municipales dans leur portefeuille imposable en raison de leur performance attendue après impôt plus élevée.

  • 00: 55: 00 Adam Grealish aborde le sujet du comportement et son impact sur les investisseurs particuliers. Il explique comment les investisseurs ont tendance à acheter lorsque le marché monte et à vendre lorsqu'il baisse, ce qui entraîne une sous-performance et une diminution de la richesse. Pour lutter contre cela, les robots-conseillers définissent des valeurs par défaut intelligentes, utilisent l'automatisation et encouragent l'investissement basé sur des objectifs pour promouvoir un meilleur comportement. Adam mentionne également des études qui quantifient la sous-performance annualisée due au comportement des investisseurs, généralement comprise entre 1 et 4 %.

  • 01:00:00 Adam discute de l'approche de Betterment pour lutter contre les mauvais comportements d'investissement grâce à la conception intentionnelle et à l'analyse des données. Il note qu'environ les trois quarts de leurs comptes ne sont pas engagés dans la synchronisation du marché et que la société surveille de près l'activité des clients. Betterment utilise la conception des couleurs pour indiquer quand un client n'est pas sur la bonne voie pour atteindre son objectif financier, l'incitant à prendre des mesures pour se remettre sur la bonne voie. En période d'incertitude sur le marché, la société s'appuie sur sa plate-forme pour tester différents messages et interventions et a constaté que la notification aux clients des tendances négatives du marché provoquait l'alarme et entraînait des résultats négatifs. Au lieu de cela, les interventions et les messages au sein de l'application se sont avérés plus efficaces pour réduire les résultats négatifs et augmenter les dépôts des clients.

  • 01:05:00 Dans cette section, Adam Grealish, directeur des investissements de Betterment, explique dans quelle mesure l'investissement algorithmique est motivé par le désir de collecter des actifs et s'il est éthique. Il souligne que le système affecte principalement les personnes qui ne sont pas ciblées dans leurs objectifs ou qui sont en marge d'être sur la bonne voie, et dit qu'il existe de meilleurs moyens d'extraire des actifs si tel était l'objectif de l'entreprise. D'autres stratégies dont il parle incluent la modification de l'épargne et des dépôts ou la modification de son plan d'objectifs. Grealish décrit également l'approche de Betterment pour atténuer les biais comportementaux, tels que sa fonctionnalité "d'aperçu de l'impact fiscal" qui montre aux clients les obligations fiscales potentielles et s'est avérée efficace pour réduire la probabilité de prise de décision irréfléchie.

  • 01:10:00 Adam discute des utilisations potentielles de l'IA dans l'espace fintech. Il pense que certains des premiers endroits où l'IA sera vue sont dans l'automatisation des éléments périphériques de la finance comme le conseil robotique et la gestion de trésorerie. Betterment, par exemple, explore l'utilisation de l'IA pour mapper un compte externe sur un ticker proxy et utiliser les données de transaction pour conseiller les gens sur le montant d'argent qu'ils devraient avoir sur leur compte courant. Grealish suggère également qu'à long terme, Betterment vise à placer un conseiller financier au centre de la vie financière de chacun et à rendre largement disponibles les choses qui n'étaient disponibles que pour les investisseurs très fortunés et les investisseurs institutionnels, y compris la préparation des déclarations de revenus. Cependant, l'individualisation de la préparation des déclarations rendrait l'espace du problème beaucoup plus complexe.

  • 01:15:00 Adam Grealish de Betterment explique que les obligations municipales spécifiques à l'État ne sont pas sur la plate-forme Betterment car il n'est pas toujours évident qu'être dans l'État soit la meilleure option, et c'est un peu comme un élément hors menu . Bien que la plate-forme Betterment vous permette de lier des comptes externes pour tout autre bien immobilier et de suivre manuellement votre valeur nette, les évaluations de risque-rendement gourmandes en ressources d'autres fonds ne sont pas non plus disponibles. Betterment se concentre sur la réflexion sur les classes d'actifs plutôt que sur l'exclusion d'une classe d'actifs pour des raisons fiscales et est unique dans l'espace de conseil robotique en raison de sa structure en tant que conseiller indépendant et de sa poussée dans les transactions quotidiennes des clients, devenant un conseiller financier plus complet. . La société exécute certains de ses calculs de recherche sur AWS, bien qu'elle ne soit pas encore un grand utilisateur d'AWS ou des API publiques existantes.

  • 01:20:00 Dans cette section, Adam Grealish discute du processus d'échange pour Betterment. Alors qu'ils envisageaient d'internaliser les flux d'ordres pour leurs clients, cette option n'a finalement pas été retenue en raison de sa classification en tant que plate-forme de négociation alternative. Betterment a à la place son bureau de négociation, avec des transactions exécutées via Apex, qui les compense également. Les clients ne paient pas de frais de transaction, seulement les frais de plate-forme fixes, ce qui rend les échanges peu fréquents. Les ETF de Betterment sont composés d'actions et d'obligations tout en offrant des économies d'impôt dans les fonds obligataires. De plus, Betterment suit tous les rendements nets de leur rendement attendu, car ceux-ci peuvent être décomposés en rendements réalisés et attendus.
Adam Grealish: "An Algorithmic Approach to Personal Investing"
Adam Grealish: "An Algorithmic Approach to Personal Investing"
  • 2020.09.17
  • www.youtube.com
In this talk, Adam Grealish of Betterment will explore how technology can be used to improve investor outcomes. Technology and automation can play a signific...
 

Miquel Noguer i Alonso : "Derniers développements en Deep Learning en finance"



Miquel Noguer i Alonso : "Derniers développements en Deep Learning en finance"

Dans cette vidéo complète, Miquel Noguer i Alonso explore le potentiel de l'apprentissage en profondeur dans le domaine de la finance, malgré les complexités inhérentes et la nature empirique de l'industrie. L'apprentissage en profondeur offre des capacités précieuses pour capturer les relations non linéaires et reconnaître les modèles récurrents, en particulier dans les données non structurées et les applications financières. Cependant, il présente également des défis tels que le surajustement et une efficacité limitée dans des situations non stationnaires. Pour relever ces défis, l'intégration des facteurs, l'analyse des sentiments et le traitement du langage naturel peuvent fournir des informations précieuses aux gestionnaires de portefeuille traitant de grandes quantités de données. Il est important de noter qu'il n'existe pas de modèle unique et que les réseaux de neurones profonds ne doivent pas remplacer les modèles de référence traditionnels. De plus, Alonso souligne l'importance de BERT, un modèle de langage open source et très efficace qui démontre une compréhension approfondie des chiffres dans les textes financiers, ce qui le rend particulièrement précieux pour les ensembles de données financières.

Tout au long de la vidéo, Alonso partage des informations importantes et discute de divers aspects de l'utilisation des modèles d'apprentissage en profondeur dans la finance. Il explore la transformation des données financières en images à des fins d'analyse à l'aide de réseaux de neurones convolutifs, l'utilisation d'auto-encodeurs pour la compression non linéaire des données et l'application de réseaux de mémoire pour l'analyse de séries chronologiques. La collaboration entre les experts du domaine et les praticiens de l'apprentissage automatique est considérée comme un facteur essentiel pour résoudre efficacement les problèmes liés aux finances à l'aide de techniques d'apprentissage en profondeur.

Alonso se penche sur les défis rencontrés lors de l'utilisation de l'apprentissage en profondeur dans la finance, tels que la nature dynamique du processus de génération de données et la nécessité de développer des modèles capables de s'adapter à ces changements. Il met en évidence les concepts de la théorie de l'information, de la complexité et de la compression de l'information pour trouver la représentation la plus concise. Le théorème d'approximation universel est discuté, mettant l'accent sur la capacité des réseaux de neurones profonds à approximer n'importe quelle fonction avec une précision arbitraire, mais la généralisation n'est pas garantie. Le conférencier recommande une exploration plus approfondie des articles de recherche sur la régularisation, les dimensions intrinsèques des réseaux de neurones et les réseaux de neurones sur-paramétrés.

L'orateur aborde également l'idée d'un régime d'interpolation, où les réseaux de neurones profonds peuvent découvrir des classes de fonctions plus larges qui identifient des fonctions d'interpolation avec des normes plus petites. Ils discutent des aspects qualitatifs des réseaux de neurones profonds, en insistant sur l'importance variable des différentes couches et leur rôle dans la prédiction des séries chronologiques. Cependant, il est souligné que les modèles linéaires servent toujours de références et que les résultats des modèles d'apprentissage en profondeur doivent leur être comparés.

Alonso fournit des informations sur les performances des modèles d'apprentissage en profondeur en finance, en présentant les résultats de l'utilisation de réseaux de mémoire à long terme avec plusieurs actions et en démontrant leur supériorité sur d'autres réseaux de neurones. Il a été démontré que les modèles d'apprentissage en profondeur surpassent les modèles linéaires dans la sélection des meilleures actions du S&P 500, ce qui se traduit par de meilleurs ratios d'information hors échantillon. L'orateur souligne que l'apprentissage en profondeur fonctionne toujours bien et peut être un choix fiable lors de la sélection d'un modèle.

Les facteurs jouent un rôle crucial dans les modèles d'apprentissage en profondeur pour la finance, permettant l'exploration des relations non linéaires avec les rendements. L'utilisation de la non-linéarité distingue cette approche des exercices de séries temporelles pures. L'orateur souligne également l'importance de la sélection des paramètres pendant la période de formation et met en garde contre l'hypothèse selon laquelle l'utilisation de plus de données conduit toujours à une meilleure précision. Il est important de noter que ces modèles n'intègrent pas les coûts ou les considérations réelles, car ils sont principalement destinés à des fins de recherche basées sur des données historiques.

L'orateur clarifie l'objet de son article, soulignant que l'intention n'est pas de prétendre que les réseaux de neurones profonds sont supérieurs, mais plutôt de souligner la nécessité de les utiliser parallèlement aux modèles de référence traditionnels. L'importance de capturer les relations non linéaires et de comprendre les cycles récurrents est discutée, ainsi que la nécessité de prendre en compte des paramètres tels que la fenêtre d'apprentissage. Les réseaux de neurones profonds peuvent fournir des informations uniques dans des scénarios spécifiques en capturant des effets de second ou troisième ordre que les modèles linéaires peuvent ignorer. Cependant, il est souligné qu'il n'existe pas de modèle universel et que les réseaux de neurones profonds devraient compléter les modèles de référence existants plutôt que de les remplacer.

L'application du traitement du langage naturel, en particulier l'analyse des sentiments, en finance est également explorée. Compte tenu de la grande quantité d'informations générées sur les marchés, les outils de mégadonnées sont essentiels pour enquêter et analyser des espaces de grande dimension. L'apprentissage automatique, en particulier l'apprentissage en profondeur, s'avère précieux pour relever ces défis. Les modèles de langage peuvent être exploités pour des tâches telles que l'analyse des sentiments, qui peuvent fournir des informations sur la dynamique du marché. Le scraping d'Internet s'est avéré être une approche efficace pour détecter les changements d'informations qui peuvent indiquer des changements sur le marché. Dans l'ensemble, le traitement du langage naturel offre des informations précieuses aux gestionnaires de portefeuille traitant de gros volumes de données.

Dans la vidéo, le conférencier se penche sur les deux approches de l'analyse des sentiments en finance. La méthode traditionnelle consiste à compter la fréquence des mots positifs et négatifs, tandis que l'approche plus avancée utilise l'apprentissage en profondeur et les intégrations de mots pour saisir la signification contextuelle et sémantique des mots. Le conférencier met en évidence l'efficacité de la représentation de l'encodeur bidirectionnel à partir des transformateurs (BERT), un modèle de langage de pointe qui offre une représentation plus précise et efficace des mots. La capacité du BERT à comprendre les chiffres dans les textes financiers est particulièrement cruciale pour une analyse financière précise. D'autres approximateurs de fonctions comme les perceptrons multicouches, les réseaux de mémoire et les covnets sont également mentionnés comme des outils utiles en finance.

De plus, le conférencier discute du concept de transformation des données financières en images et de l'utilisation de réseaux de neurones convolutifs pour l'analyse. Cette approche s'avère particulièrement bénéfique pour les problèmes d'apprentissage non supervisé. L'utilisation d'auto-encodeurs pour la compression de données non linéaires et de réseaux de mémoire pour l'analyse de séries temporelles est introduite. Les réseaux de mémoire peuvent convenir à l'analyse de données de séries chronologiques si l'environnement est suffisamment stable. En outre, l'orateur aborde l'utilisation des modèles de transformateur pour le traitement du langage en finance et donne un aperçu de leur mise en œuvre à l'aide de TensorFlow.

En ce qui concerne la mise en œuvre de modèles d'apprentissage profond open source en finance, l'orateur souligne que si une formation spécifique pour les applications financières peut être nécessaire, il s'agit d'un objectif réalisable en raison de l'abondance de code open source disponible. La collaboration entre les experts du domaine et les apprenants automatiques est cruciale pour résoudre les problèmes liés aux finances, car il existe de nombreuses opportunités pour tirer parti de l'apprentissage automatique sur le terrain. L'orateur note que si des approches artisanales de traitement du langage naturel sont actuellement utilisées dans la finance, les modèles d'apprentissage en profondeur doivent encore être largement adoptés dans l'industrie.

La vidéo se penche également sur les méthodes traditionnelles de contrôle artisanal en finance, où les individus utilisent des dictionnaires pour décrire des entités telles que JP Morgan tout en s'assurant qu'il n'y a pas de fautes de frappe. L'efficacité de divers algorithmes d'apprentissage automatique, tels que les réseaux de mémoire longue à court terme et BERT, est discutée. BERT est considéré comme l'état de l'art dans la recherche publiée. Le potentiel de l'apprentissage automatique pour les investissements transversaux est également exploré, suggérant l'utilisation de facteurs ou de rendements pour aider les machines à interpréter les rendements plats ou les facteurs.

Abordant la difficulté de trouver des valeurs optimales dans l'apprentissage en profondeur, l'orateur reconnaît qu'il peut s'agir d'un problème NP. Les scientifiques des données humaines expérimentés et intuitifs doivent faire des choix heuristiques en fonction de leur expertise. Le défi de comprendre et d'interpréter les réseaux de neurones profonds est mis en évidence, car même les mathématiciens ont du mal à formuler des équations pour expliquer leurs performances exceptionnelles. L'analyse qualitative est souvent utilisée dans de tels cas. Cependant, au fil du temps et après avoir travaillé avec divers ensembles de données, les scientifiques des données peuvent développer une intuition pour sélectionner les paramètres les plus appropriés pour des situations spécifiques.

  • 00:00:00 Miguel Noguer i Alonso discute de l'application de l'apprentissage approfondi en finance. Il note que l'apprentissage en profondeur a réussi dans d'autres domaines tels que la reconnaissance d'images et les modèles de langage, mais il est compliqué de voir comment il peut être appliqué avec succès en finance en raison de la nature empirique et bruyante de l'industrie. Malgré la complexité, il existe des possibilités intéressantes pour l'utilisation de l'apprentissage en profondeur dans les données non structurées et les applications financières. L'Institut de financement de l'éducation collabore avec des universités et des entreprises pour rechercher l'utilisation de l'IA dans la finance.

  • 00:05:00 Dans cette section de la vidéo, Miquel Noguer i Alonso discute du potentiel d'utilisation des modèles d'apprentissage automatique en finance et du manque de recherche menée dans ce domaine. Il poursuit en soulignant les différents domaines de l'apprentissage automatique qui peuvent être utilisés en finance, notamment l'apprentissage supervisé, non supervisé et par renforcement. Noguer i Alonso encourage les chercheurs à se concentrer sur la création de plus d'outils pour l'apprentissage non supervisé, car les recherches dans ce domaine sont actuellement limitées. Il conclut en déclarant qu'il n'y a pas de place dans la finance où l'apprentissage automatique ne peut pas être utilisé à des fins telles que la prévision des pertes de crédit et l'organisation des ensembles de données.

  • 00: 10: 00 L'orateur présente l'apprentissage en profondeur comme moteur d'apprentissage impossible, de problèmes de régression et d'apprentissage non supervisé grâce à l'utilisation de fonctions non linéaires. Le réseau de neurones est expliqué comme une fonction non linéaire avec un grand nombre de paramètres, ce qui a conduit à des avertissements de la part des statisticiens et des ingénieurs quant à sa faisabilité. Cependant, les pionniers de l'apprentissage en profondeur ont trouvé les bonnes combinaisons de fonctions d'activation, de nombre de couches et de neurones qui le font fonctionner contre les attentes statistiques. Le conférencier aborde également les différentes architectures d'apprentissage en profondeur, telles que les réseaux de neurones convolutifs, les réseaux de neurones récurrents et les transformateurs.

  • 00:15:00 Le conférencier discute des avantages et des inconvénients de l'apprentissage approfondi en finance. Du côté positif, les modèles d'apprentissage en profondeur sont plus efficaces pour capturer la non-linéarité et la nature expressive des ensembles de données, et montrent une efficacité dans les séries chronologiques multivariées. Ils sont également compétitifs avec les arbres de relance, l'une des meilleures techniques pour les données catégorielles et numériques. Cependant, les principaux inconvénients sont le surajustement en raison du grand nombre de paramètres dans les modèles d'apprentissage en profondeur et de leur manque d'efficacité dans les situations non stationnaires, ce qui est un gros problème en finance car les séries chronologiques ne cessent de changer. L'orateur note que les modèles actuels n'apportent pas de bonnes solutions à ce problème.

  • 00:20:00 Miquel Noguer i Alonso explique les défis auxquels est confronté l'apprentissage en profondeur dans la finance, en particulier dans la nature changeante du processus de génération de données et comment créer des modèles qui peuvent fonctionner en son sein. Une solution qu'il suggère vient de la théorie de l'information ; l'idée de complexité et de compression des informations dans le programme le plus court possible. Il discute également du théorème d'approximation universel et de la manière dont il garantit que les réseaux profonds peuvent approximer n'importe quoi avec une précision arbitraire, mais il n'est pas garanti qu'ils se généraliseront. Il encourage les lecteurs à lire un article de Sun qui soutient que la régularisation n'est pas suffisante pour la généralisation, et recommande des articles sur les dimensions intrinsèques des réseaux de neurones et des réseaux de neurones sur-paramétrés.

  • 00: 25: 00 Dans cette section, l'orateur parle d'un nouveau régime appelé régime d'interpolation où les réseaux profonds pourraient être capables d'écrire des certificats en renvoyant un grand nombre de gravité, ce qui pourrait conduire à la découverte de grandes classes de fonctions qui trouvent fonctions d'interpolation avec des normes plus petites. L'idée est de trouver des choses plus simples avec ce nombre de fonctionnalités. Ils discutent également des aspects qualitatifs des modèles, tels que la façon dont toutes les couches ne sont pas créées égales et le rôle des réseaux de neurones profonds dans la prédiction des séries chronologiques. Cependant, les modèles de référence pour eux sont toujours les modèles linéaires, et ils doivent comparer les résultats avec les références.

  • 00:30:00 L'orateur discute de la performance des modèles d'apprentissage profond en finance. Ils démontrent les résultats de l'utilisation de réseaux de mémoire à court terme longs avec 30 stocks au lieu d'un seul, et notent que l'erreur absolue est plus faible par rapport aux autres réseaux de neurones. L'orateur montre également comment les modèles d'apprentissage en profondeur surpassent les modèles linéaires dans la sélection des meilleures actions du S&P 500, ce qui se traduit par de meilleurs ratios d'information hors échantillon. Dans l'ensemble, l'apprentissage en profondeur s'avère systématiquement proche des meilleurs modèles et constitue un bon choix lorsque l'on choisit un modèle à l'aveuglette.

  • 00:35:00 L'orateur discute de l'utilisation des facteurs dans les modèles d'apprentissage en profondeur pour la finance. Des facteurs tels que la qualité, la valeur et le momentum sont utilisés pour étudier les relations non linéaires avec les rendements. La différence entre cette méthode et un exercice de série chronologique pur est l'utilisation de la non-linéarité. Le conférencier discute également de l'importance des paramètres de la période d'entraînement, notant que l'utilisation de plus de données ne signifie pas nécessairement une meilleure précision. Le modèle n'inclut pas les coûts ou les considérations de la vie réelle, car il est purement à des fins de recherche et basé sur des données passées.

  • 00: 40: 00 Dans cette section, l'orateur discute du document qu'il met à jour et précise que l'affirmation dans le document n'est pas que les filets profonds sont meilleurs, mais plutôt qu'ils doivent être exécutés parallèlement aux modèles de référence traditionnels. De plus, l'orateur explique que les réseaux profonds sont utiles pour capturer les relations non linéaires et apprendre les bons cycles. Cependant, les paramètres, tels que la fenêtre dans laquelle les réseaux apprennent, doivent également être pris en compte. De plus, les réseaux profonds peuvent nous dire différentes choses dans certains régimes de réparation en raison de l'apprentissage d'effets de deuxième ou troisième ordre qu'un modèle linéaire peut manquer. L'orateur souligne également qu'il n'existe pas de modèle unique et que les filets profonds ne doivent pas remplacer les modèles de référence traditionnels.

  • 00:45:00 Miguel Noguer i Alonso discute de l'utilisation du traitement du langage naturel en finance, en particulier de l'analyse des sentiments. Avec la grande quantité d'informations générées sur les marchés, des outils de mégadonnées sont nécessaires pour enquêter, et l'apprentissage automatique, en particulier l'apprentissage en profondeur, peut être utile pour traiter des espaces de grande dimension. Les modèles de langage peuvent être utilisés pour des tâches telles que l'analyse des sentiments, qui peuvent être un précurseur de l'élan de la finance. Le grattage d'Internet s'est également avéré être un moyen efficace de rechercher des changements d'informations pouvant indiquer des changements de marché. Dans l'ensemble, le traitement du langage naturel peut fournir des informations utiles aux gestionnaires de portefeuille lorsqu'ils traitent de grandes quantités de données.

  • 00: 50: 00 Dans cette section, l'orateur discute de l'utilisation de l'analyse des sentiments en finance et des deux manières de le faire : la méthode traditionnelle de comptage de la fréquence des mots positifs et négatifs et la méthode plus avancée d'utilisation de la profondeur apprentissage et incorporation de mots pour comprendre le contexte et la sémantique des mots. Le modèle le plus avancé est la représentation de l'encodeur bidirectionnel des transformateurs, qui permet une représentation plus efficace et plus précise des mots. Cette technologie peut être utile dans des domaines tels que la gestion des conditions météorologiques et les problèmes de chaîne d'approvisionnement.

  • 00: 55: 00 Dans cette section, Miquel Noguer i Alonso discute des derniers développements en matière d'apprentissage approfondi en finance en mettant l'accent sur l'architecture compliquée bidirectionnelle, BERT, et l'importance des nombres dans les modèles de langage. BERT est un modèle de langage open source très efficace qui peut être utilisé pour s'entraîner sur des ensembles de données financières, ce qui peut économiser du temps et des efforts humains. Il fonctionne mieux que les autres modèles et est particulièrement efficace pour comprendre les chiffres dans les textes financiers, ce qui est crucial pour une analyse précise. Les perceptrons multicouches, les réseaux de mémoire et les covnets sont d'autres approximateurs de fonctions utiles en finance.

  • 01:00:00 Miguel Noguer i Alonso discute de l'idée de transformer les données financières en images et d'utiliser des réseaux de neurones convolutifs pour les analyser, ce qui peut être particulièrement utile pour les problèmes d'apprentissage non supervisé. Il introduit également le concept d'auto-encodeurs, qui peuvent être utilisés pour la compression non linéaire des données, et les réseaux de mémoire, qui peuvent convenir à l'analyse de séries chronologiques si l'environnement est suffisamment stable. Enfin, Noguer i Alonso mentionne l'utilisation de modèles de transformateurs pour le traitement du langage en finance et comment implémenter ces modèles dans TensorFlow.

  • 01:05:00 Dans cette section de la vidéo, Miquel Noguer i Alonso, directeur de l'innovation financière et maître de conférences en finance à l'ESADE Business School, discute de la faisabilité de la mise en œuvre de modèles d'apprentissage en profondeur open source en finance. Il explique qu'il y a beaucoup de code open source disponible, et bien qu'il puisse nécessiter une formation spécifiquement pour les applications financières, ce n'est pas un objectif inaccessible. Alonso souligne également l'importance de la collaboration entre les experts du domaine et les apprenants automatiques pour résoudre les problèmes liés à la finance, car il existe de nombreuses opportunités pour l'apprentissage automatique en finance. De plus, il note que bien qu'il existe des approches PNL artisanales utilisées dans la finance, les modèles d'apprentissage en profondeur ne sont pas encore largement adoptés dans cette industrie.

  • 01:10:00 Les conférenciers discutent des méthodes traditionnelles de contrôle artisanal en finance, qui impliquent des personnes utilisant des dictionnaires pour décrire des choses comme JP Morgan et s'assurant qu'il n'y a pas de fautes de frappe. Ils discutent ensuite de l'utilisation de l'apprentissage automatique dans la finance et de l'efficacité de divers algorithmes, tels que les réseaux de mémoire à court terme et BERT, qui, selon eux, sont actuellement à la pointe de la recherche publiée. Les conférenciers discutent également du potentiel d'utilisation de l'apprentissage automatique pour les investissements transversaux et suggèrent d'utiliser des facteurs ou des rendements pour aider la machine à donner un sens aux rendements ou facteurs plats.

  • 01:15:00 Dans cette section, Noguer et Alonso discutent de la difficulté à trouver des valeurs optimales dans l'apprentissage en profondeur et comment cela peut être un problème NP, nécessitant la compétence et l'intuition d'un scientifique de données humain pour faire des choix heuristiques basés sur l'expérience et l'intuition . Ils mettent en évidence les défis liés à la compréhension et à l'interprétation des réseaux profonds, car même les mathématiciens ont du mal à créer des équations pour comprendre pourquoi cela fonctionne si bien, et doivent plutôt se rabattre sur l'analyse qualitative. Malgré ces défis, après avoir travaillé avec plusieurs ensembles de données, les data scientists peuvent développer une intuition sur les meilleurs paramètres à utiliser pour une situation donnée.
Miquel Noguer i Alonso: "Latest Development in Deep Learning in Finance"
Miquel Noguer i Alonso: "Latest Development in Deep Learning in Finance"
  • 2020.03.19
  • www.youtube.com
Title of Seminar: "Latest Developments in Deep Learning in Finance"Date of Seminar: 9/24/19Speaker Bio: Miquel Noguer i Alonso (Artificial Intelligence Finan...
 

Gordon Ritter : "Apprentissage par renforcement et découverte d'opportunités d'arbitrage"



Gordon Ritter : "Apprentissage par renforcement et découverte d'opportunités d'arbitrage"

Dans cette vidéo, Gordon Ritter explore l'application de l'apprentissage par renforcement dans le contexte des marchés financiers, en se concentrant spécifiquement sur la découverte d'opportunités d'arbitrage dans le trading de produits dérivés. Il souligne l'importance d'une planification et d'une stratégie complexes sur plusieurs périodes face à l'incertitude. Ritter démontre l'utilisation de fonctions de valeur pour guider la recherche de politiques optimales et propose une fonction de récompense qui combine un incrément sur une seule période avec une constante multipliée par le carré de l'écart par rapport à la moyenne.

Ritter discute du processus de création d'une simulation qui inclut une opportunité d'arbitrage sans indiquer explicitement à la machine où la trouver. Il met en évidence l'utilisation de simulations stochastiques pour modéliser les marchés financiers et suggère qu'avec suffisamment de données, un agent formé par apprentissage par renforcement peut identifier l'arbitrage de marché. Cependant, il reconnaît les limites de l'apprentissage par renforcement, telles que le surapprentissage et les défis liés à la gestion de scénarios imprévus. Des tests supplémentaires, tels que l'exploration de stratégies de trading de neutralité gamma, sont proposés pour étendre les capacités des agents formés.

La vidéo comprend une analyse de la performance d'un agent d'apprentissage par renforcement par rapport à un agent de référence dans la couverture des produits dérivés. L'agent formé démontre des économies de coûts importantes tout en maintenant une fourchette similaire de volatilité réalisée, démontrant sa capacité à faire des compromis entre le coût et le risque. Ritter discute de la pertinence des fonctions de valeur dans l'apprentissage par renforcement pour le trading de dérivés, car les prix des dérivés eux-mêmes peuvent être considérés comme une forme de fonction de valeur.

Ritter souligne également l'importance de construire des vecteurs d'état et des espaces d'action appropriés dans l'apprentissage par renforcement. L'inclusion d'informations pertinentes dans le vecteur d'état et la définition d'actions appropriées sont essentielles pour une prise de décision efficace. Il présente l'utilisation des processus d'Ornstein et Limbic comme moyen de modéliser la dynamique de retour à la moyenne, ce qui peut potentiellement conduire à des opportunités d'arbitrage.

En outre, la vidéo traite des défis liés à l'utilisation des rendements à court terme pour les opportunités de trading et des limites des espaces d'états finis. Ritter suggère d'utiliser des espaces d'états continus et des méthodes d'approximation de fonctions, telles que des arbres modèles et des réseaux de neurones, pour relever ces défis et améliorer l'estimation des fonctions de valeur.

Enfin, Ritter reconnaît que si l'apprentissage par renforcement peut être un outil précieux pour découvrir des opportunités d'arbitrage, ce n'est pas une approche garantie dans le trading réel. Il conclut en soulignant le potentiel de l'apprentissage par renforcement pour découvrir des transactions rentables grâce à des systèmes stochastiques, mais met en garde contre le fait de s'attendre à ce qu'il trouve des opportunités d'arbitrage si elles n'existent pas sur le marché. Les limites de l'apprentissage par renforcement, y compris le surajustement et son incapacité à gérer des scénarios imprévus, sont également reconnues.

  • 00:00:00 Dans cette section, Gordon Ritter parle de l'apprentissage par l'expérience afin d'optimiser les récompenses au fil du temps dans un environnement incertain. Il donne des exemples de la façon dont les robots peuvent naviguer dans une pièce et comment les gazelles apprennent à marcher en envoyant des signaux aux muscles de leurs jambes. Il mentionne également que le meilleur joueur de Go au monde est désormais un agent formé par des méthodes d'apprentissage par renforcement, ce qui est au centre de son discours. Ritter souligne l'importance d'une planification et d'une stratégie complexes sur plusieurs périodes en présence d'incertitude, et comment l'apprentissage par renforcement peut être appliqué en finance pour découvrir des opportunités d'arbitrage.

  • 00:05:00 Gordon Ritter explique le concept d'apprentissage par renforcement, qui est le processus par lequel un agent interagit avec l'environnement et prend des mesures pour optimiser un signal de récompense. L'agent observe l'état de l'environnement et détermine si ses actions ont entraîné une récompense positive ou négative. L'apprentissage par renforcement implique l'utilisation de fonctions de valeur pour structurer la recherche de politiques optimales afin de maximiser l'attente de récompense à long terme. Ritter note que l'idée des fonctions de valeur est familière à ceux qui ont une formation en finance mathématique.

  • 00: 10: 00 Dans cette section de la vidéo, Gordon Ritter discute du concept d'apprentissage par renforcement, en particulier de l'équation Hamilton-Jacobi Bellman qui est utilisée pour trouver la fonction de valeur d'une politique optimale. Cependant, il note que dans des scénarios réels, il n'est parfois pas possible de résoudre explicitement l'équation. Ritter introduit ensuite la fonction de valeur d'action, qui est utilisée pour trouver le gain à long terme attendu de prendre une action particulière dans un état donné et de suivre une politique par la suite. Le but de l'apprentissage par renforcement est de trouver la politique optimale en trouvant la fonction d'indice ou de valeur d'action qui lui correspond. Ritter pose ensuite la question de savoir si l'intelligence artificielle peut découvrir une stratégie de trading dynamique optimale dans un scénario réaliste, en tenant compte des coûts de trading tels que l'écart acheteur-vendeur et les commissions. Il suggère que s'il y avait un arbitrage sur le marché, un agent produit par apprentissage par renforcement serait capable de le trouver avec suffisamment de données.

  • 00:15:00 Gordon Ritter discute de l'utilisation de l'apprentissage par renforcement pour découvrir des opportunités d'arbitrage sur les marchés financiers. Ritter soutient que, contrairement aux méthodes traditionnelles qui reposent sur des prix cohérents sans arbitrage, l'apprentissage par renforcement peut être utilisé pour déterminer s'il existe des opportunités d'arbitrage dans un système dynamique donné. Cette approche peut être utilisée pour entraîner l'algorithme à trouver des stratégies avec des ratios de Sharpe élevés, qui peuvent être utilisées pour identifier l'arbitrage statistique, qui n'est pas un arbitrage pur mais une bonne stratégie de trading. Ritter affirme qu'une telle approche est similaire à AlphaGo Zero, qui a appris à jouer au Go sans aucune aide humaine et à battre des champions humains.

  • 00: 20: 00 Gordon Ritter explique les hypothèses utilisées lors de la maximisation de l'utilité attendue de la richesse et comment cela est mathématiquement équivalent à la maximisation de la forme quadratique de la variance moyenne. Il précise qu'une fonction quadratique ne peut pas être une fonction d'utilité et explique le signal de récompense qu'il utilise pour former des agents rationnels à agir comme les investisseurs de von Neumann Morgenstern. Il suggère de combiner l'incrément en une seule période moins une constante fois le carré autour de la moyenne pour la fonction de récompense et conseille sur le choix de ce qu'il faut mettre dans l'état, en soulignant l'importance d'inclure des informations pertinentes qui aident l'agent à prendre de bonnes décisions.

  • 00:25:00 Gordon Ritter explique comment construire un vecteur d'état et un espace d'action dans l'apprentissage par renforcement. Il explique que pour qu'un agent apprenne à utiliser un signal pour prendre une décision commerciale, ce signal doit être inclus dans le vecteur d'état. De plus, l'espace d'action devrait inclure le choix de la stratégie d'exécution à utiliser, le choix d'un paramètre dans un algorithme pour modifier son comportement ou la décision de franchir le spread ou de rejoindre une file d'attente du côté proche du carnet de commandes. Ritter fournit également un exemple de la façon dont les processus Ornstein et Limbic peuvent être utilisés en finance pour modéliser la dynamique de retour à la moyenne, ce qui pourrait conduire à une opportunité d'arbitrage.

  • 00:30:00 Dans cette section, Gordon Ritter discute de la construction d'une simulation stochastique qui contient au moins un arbitrage approximatif en tant qu'arbitrage statistique, même s'il ne s'agit pas d'un profit garanti. Il souligne que l'agent doit tout comprendre en jouant à des jeux et en perdant plusieurs fois. La simulation a un coût de propagation et un coût d'impact basés sur une fonction d'impact de prix linéaire, et parfois, il aime jouer avec un multiplicateur devant le coût global. Il dit que le vecteur d'état peut être assez simple, et l'état ne contient que ce que l'agent détient et le prix, qui contient le signal. Enfin, il note qu'il ne s'agit que d'une preuve de concept car il n'est pas garanti qu'il fonctionne dans le trading réel.

  • 00:35:00 Gordon Ritter discute du processus de création d'une simulation qui a une opportunité d'arbitrage sans dire explicitement à la machine où la chercher. Il explique que cela fonctionne en apprenant une fonction de valeur et par une méthode classique appelée Q-learning. Cependant, il admet qu'il n'aime pas particulièrement le modèle de la fonction Q car il doit apprendre chaque élément de la matrice indépendamment sans continuité. Ritter présente également un graphique de la fonction de valeur en fonction du prix pour diverses actions, montrant l'émergence d'une zone de non-échange autour du prix d'équilibre.

  • 00: 40: 00 Dans cette section, Gordon Ritter discute des limites de l'utilisation des rendements à court terme pour les opportunités de trading et des défis qui surviennent lors de l'utilisation d'un espace d'états fini. Il suggère d'utiliser des espaces d'états continus et des méthodes d'approximation de fonctions, telles que des arbres modèles, pour estimer la fonction de valeur de Bellman Q et trouver la meilleure fonction inconnue qui correspond aux données d'apprentissage. Cette méthode permet une approche plus efficace et efficiente de la fonction de valeur et de la recherche d'opportunités de trading.

  • 00:45:00 Gordon Ritter discute de l'utilisation de techniques statistiques d'apprentissage automatique, telles que les approximateurs de fonctions, pour entraîner les agents d'apprentissage par renforcement à approximer les récompenses sous la forme de récompenses à long terme et à court terme. En utilisant un meilleur approximateur de fonction, tel qu'un réseau de neurones, la fonction de valeur de Bellmen peut être approchée avec plus de précision et une fonction continue obtenue, permettant une meilleure compréhension des actions optimales. Ritter applique ensuite ces techniques à l'exemple de la couverture des dérivés, où les banques souhaitent neutraliser les risques dans les positions sans dumping des dérivés sur le marché. L'objectif est d'utiliser des agents d'apprentissage par renforcement capables de négocier de manière optimale un panier de produits dérivés sur la base de stratégies de réplication dynamiques, permettant une couverture automatique et réduisant les coûts des impacts du marché.

  • 00: 50: 00 Dans cette section, Gordon Ritter discute des variables d'état qui doivent exister, au minimum, sur un marché d'options européen pour permettre une stratégie de portefeuille de réplication dynamique. Il déclare que les variables d'état qui entreraient dans le calcul du delta dans un monde de type Black-Scholes sont le prix sous-jacent et le délai d'expiration, le prix d'exercice de l'option faisant partie de la définition de ce qu'est l'option. De plus, il mentionne que l'état n'a pas besoin de contenir l'option Greeks et que l'agent doit apprendre lui-même ces fonctions non linéaires. Il conclut en disant que la machine ne peut apprendre que par expérience où générer un grand ensemble d'expériences par simulation.

  • 00: 55: 00 Gordon Ritter discute de la sortie de son agent d'apprentissage par renforcement qui échange le coût contre le vol et le compare à un agent de base qui utilise la couverture Delta. L'agent formé montre un suivi de position plus fluide de la couverture Delta, tandis que l'agent de référence montre des transactions excessives et des coûts plus élevés en raison de la couverture Delta. L'agent formé a appris à faire un compromis entre le coût et le risque, et Ritter note qu'il est acceptable d'accepter une certaine volatilité pour une grande économie de coûts. Bien que le marché ait été simulé avec des coûts de négociation élevés, l'agent formé a quand même obtenu de meilleurs résultats que l'agent de base.

  • 01:00:00 Dans cette section, l'intervenant présente des histogrammes de simulations pour comparer les performances de l'agent Delta et de la méthode d'apprentissage par renforcement. L'agent Delta affiche un vol réalisé hautement prévisible, mais l'agent formé montre des économies de coûts importantes tout en maintenant une plage similaire de vol réalisé. L'orateur suggère d'autres tests, tels que l'examen de stratégies de trading qui atteignent la neutralité gamma, qui pourraient potentiellement être découvertes par l'agent. L'orateur conclut que l'utilisation de méthodes basées sur la fonction de valeur, comme on le voit dans l'apprentissage par renforcement, recoupe bien le domaine du trading de dérivés, car les prix des dérivés eux-mêmes sont une forme de fonction de valeur.

  • 01:05:00 Gordon Ritter explique que l'apprentissage par renforcement peut être utilisé pour découvrir des opportunités d'arbitrage en entraînant un système stochastique capable de trouver des transactions rentables. Cependant, si le système ne trouve aucune opportunité après des millions ou des milliards de simulations, cela peut indiquer que le marché n'admet pas l'arbitrage. Il discute également des limites de l'apprentissage par renforcement, y compris le surajustement et l'incapacité à gérer des échanges infinis et des scénarios imprévus tels que les plantages instantanés.
Gordon Ritter: "Reinforcement Learning and the Discovery of Arbitrage Opportunities"
Gordon Ritter: "Reinforcement Learning and the Discovery of Arbitrage Opportunities"
  • 2019.05.30
  • www.youtube.com
Seminar Date: March 20, 2019Info: Reinforcement learning is a way of training a machine to find an optimal policy for a stochastic optimal control system, ...
 

Marcos Lopez de Prado : "Les 7 raisons pour lesquelles la plupart des fonds d'apprentissage automatique échouent"



Marcos Lopez de Prado : "Les 7 raisons pour lesquelles la plupart des fonds d'apprentissage automatique échouent"

Marcos Lopez de Prado a fait une présentation complète décrivant les raisons de l'échec de la plupart des fonds d'apprentissage automatique dans le secteur financier. Il a souligné l'importance de plusieurs facteurs clés qui contribuent au succès dans ce domaine.

L'un des principaux facteurs mis en évidence par de Prado était l'absence d'une théorie bien formulée sur les fonds discrétionnaires. Il a noté que de nombreuses conversations sur l'investissement manquent d'une approche constructive et abstraite en raison de l'absence d'une base théorique solide. Sans théorie pour guider la prise de décision, les fonds discrétionnaires ont du mal à interagir avec les autres et à tester leurs idées, ce qui entraîne de mauvais choix et des pertes potentielles.

De Prado a également discuté des effets néfastes du travail dans des silos isolés au sein de fonds d'apprentissage automatique. Il a souligné que la collaboration et la communication sont essentielles au succès, mettant en garde contre l'embauche de nombreux docteurs et leur séparation en tâches distinctes. Au lieu de cela, il a plaidé pour une approche basée sur l'équipe où les spécialistes travaillent de manière indépendante mais possèdent une connaissance de l'expertise de chacun, conduisant à de meilleures stratégies et résultats.

La spécialisation au sein de l'équipe était un autre aspect crucial souligné par de Prado. Il a souligné l'importance de constituer un groupe de spécialistes capables de gérer des systèmes et des tâches complexes. Ces experts doivent posséder des compétences indépendantes tout en comprenant la stratégie globale et en connaissant les domaines d'expertise de leurs collègues. Ce paradigme de méta-stratégie est précieux non seulement pour développer des stratégies efficaces, mais aussi pour prendre des décisions éclairées dans des situations incertaines, y compris l'embauche, la surveillance des investissements et la définition de critères d'arrêt.

La bonne gestion des données financières était un autre facteur clé discuté par de Prado. Il a souligné la nécessité de parvenir à la stationnarité des données tout en préservant les informations précieuses. Il a suggéré de différencier les données par fraction pour conserver les informations de mémoire des observations précédentes, permettant des prédictions critiques à des points spécifiques. De plus, il a conseillé d'utiliser un seuil spécifique pour obtenir une corrélation presque parfaite entre les séries stationnaires et originales sans utiliser de mémoire excessive. De Prado a mis en garde contre l'utilisation des rendements dans les cas où il n'y a pas de contrats à terme liquides, recommandant l'utilisation d'une seule observation dans la plupart des scénarios.

La fréquence d'échantillonnage et l'étiquetage approprié des données ont également été abordés par de Prado. Il a proposé de baser la fréquence d'échantillonnage sur l'arrivée d'informations sur le marché plutôt que de s'appuyer sur des méthodes conventionnelles telles que des observations quotidiennes ou minutieuses. En utilisant des techniques telles que les barres en dollars qui échantillonnent en fonction du volume de transactions, on peut s'assurer que des quantités égales d'informations sont incluses dans l'échantillon. Un étiquetage approprié des observations, comme l'utilisation de la méthode Touch Barrier Labeling, permet de développer des stratégies conscientes des risques, en tenant compte de la dynamique des prix et de la possibilité d'être arrêté.

Le concept de méta-apprentissage, où un modèle d'apprentissage automatique prédit l'exactitude des prédictions d'un autre modèle, a été discuté comme un moyen d'atteindre la précision et le rappel. En composant deux modèles distincts, on peut équilibrer le compromis entre précision et rappel en utilisant la moyenne harmonique. De Prado a recommandé d'utiliser différents algorithmes d'apprentissage automatique pour des tâches distinctes afin d'optimiser les performances.

De Prado a souligné les défis de l'application de l'apprentissage automatique dans la finance, soulignant la nécessité pour les experts humains de filtrer les données avant d'utiliser des algorithmes d'apprentissage automatique. Les données financières sont intrinsèquement désordonnées et non-id, ce qui rend difficile de lier des observations spécifiques aux actifs. De plus, les changements constants des marchés financiers en raison des réglementations et des lois nécessitent une approche prudente et nuancée pour la mise en œuvre des algorithmes d'apprentissage automatique. Le simple fait de brancher des données financières dans un modèle d'apprentissage automatique n'est pas suffisant pour réussir en finance.

Aborder les problèmes de non-unicité et de surajustement était un autre aspect important de la présentation de de Prado. Il a proposé une méthodologie pour déterminer le caractère unique des observations, recommandant la suppression des observations qui contiennent des informations plus anciennes que celles partagées avec l'ensemble de test, un processus connu sous le nom de "purge". Cela permet de créer des modèles d'apprentissage automatique plus précis en s'alignant sur les hypothèses des techniques de validation croisée. De Prado a également mis en garde contre les dangers du surajustement, soulignant que les stratégies de backtesting répétées peuvent conduire à des faux positifs et à une utilité décroissante au fil du temps. Compte tenu du nombre d'essais impliqués dans la découverte de stratégies, il est crucial d'éviter le surajustement et les faux positifs. De Prado a conseillé de fixer un seuil élevé pour la performance des stratégies visant à atténuer les risques associés au surajustement.

Le concept de «fraise dégonflée» a été introduit par de Prado, illustrant que de nombreux fonds spéculatifs présentent une asymétrie négative et un excès d'aplatissement positif, même si les gestionnaires de fonds n'ont pas intentionnellement ciblé ces caractéristiques. Cela est principalement dû au fait que les gestionnaires de fonds sont évalués sur la base du ratio de Sharpe, et ces propriétés statistiques peuvent gonfler le ratio. De Prado a souligné l'importance de tenir compte de la taille de l'échantillon et du nombre d'essais impliqués dans la production d'une découverte lors de l'analyse des rendements. Il a mis en garde contre l'investissement dans des stratégies ayant une faible probabilité d'atteindre un véritable ratio de Sharpe supérieur à zéro.

La réalisation d'un équilibre entre l'ajustement du modèle et le surajustement a été soulignée par de Prado. Il a déconseillé de rechercher un ajustement parfait, car cela peut conduire à un excès de confiance et à un risque accru. Au lieu de cela, il a recommandé de trouver un moyen de préserver les souvenirs importants tout en appliquant efficacement des modèles statistiques. De Prado a également mis en garde contre l'utilisation de modèles trop compliqués, car ils peuvent entraver l'alimentation des données et la pollinisation croisée, entravant l'efficacité globale des algorithmes d'apprentissage automatique.

De Prado a abordé le phénomène dans l'industrie où certains traits ou mesures deviennent préférés, conduisant à une convergence des stratégies. En le comparant à l'élevage de chiens, où la préférence humaine et l'esthétique façonnent certains traits, il a expliqué comment l'utilisation de mesures spécifiques, telles que la combinaison du ratio de Sharpe et de l'asymétrie négative, est devenue privilégiée dans les fonds spéculatifs, même si elle n'était pas initialement ciblé. S'attaquer à ce phénomène s'avère difficile, car il se produit sans événement déclencheur spécifique.

En outre, de Prado a souligné l'importance d'utiliser des données récentes sur les prix lors des prévisions, car elles sont plus pertinentes pour l'avenir immédiat. Il a recommandé d'utiliser la décroissance exponentielle du poids pour déterminer la longueur de l'échantillon lors de l'utilisation de toutes les données disponibles. En outre, il a souligné l'importance de contrôler le nombre d'essais et d'éviter les environnements de travail isolés comme des pièges courants conduisant à l'échec des fonds d'apprentissage automatique. Il a noté que la finance diffère des autres domaines où l'apprentissage automatique a fait des progrès significatifs, et l'embauche de statisticiens n'est peut-être pas toujours l'approche la plus efficace pour développer des algorithmes de trading performants.

En résumé, la présentation de Marcos Lopez de Prado a mis en lumière les raisons pour lesquelles la plupart des fonds d'apprentissage automatique échouent dans le secteur financier. Il a souligné la nécessité d'une théorie bien formulée, d'une collaboration d'équipe, d'une spécialisation, d'une gestion et d'une différenciation appropriées des données financières, d'un échantillonnage et d'un étiquetage appropriés, de la résolution de problèmes tels que la non-unicité et le surajustement, et de l'intégration de l'expertise humaine dans la mise en œuvre d'algorithmes d'apprentissage automatique. En comprenant ces facteurs et en adoptant une approche prudente et nuancée, les praticiens peuvent augmenter les chances de succès dans le monde dynamique et complexe de la finance.

  • 00:00:00 Marcos Lopez de Prado explique comment l'absence d'une théorie bien formulée sur les fonds discrétionnaires empêche les gens d'avoir une conversation vraiment constructive et abstraite sur les investissements. Lorsqu'il assiste à des conférences sur l'investissement, il trouve que la plupart des conversations sont anecdotiques et qu'aucune véritable théorie n'est discutée. Par conséquent, les fonds discrétionnaires peuvent souffrir d'une incapacité à interagir avec les autres et à tester des théories. Cette absence d'une théorie bien formulée peut conduire à une mauvaise prise de décision et éventuellement entraîner une perte d'activité.

  • 00:05:00 Dans cette section, Marcos Lopez de Prado explique pourquoi la plupart des fonds d'apprentissage automatique échouent, citant le problème du travail en silos comme facteur majeur. Il explique qu'il est impossible d'embaucher 50 docteurs et de les faire travailler ensemble en silos, chacun travaillant sur les mêmes tâches de manière répétée, sans aucune collaboration ni communication. Cela conduit souvent à la tentative de stratégies multiples, entraînant des découvertes erronées, des échecs de mise en œuvre et, finalement, la fermeture du fonds. Lopez de Prado affirme que l'élaboration de stratégies nécessite un effort d'équipe et que de nombreuses stratégies sont nécessaires pour réussir.

  • 00:10:00 Marcos Lopez de Prado souligne l'importance de la spécialisation au sein d'un groupe comme facteur clé de succès dans la mise en œuvre du machine learning en finance. Il soutient que la création d'une équipe de spécialistes est essentielle pour construire une infrastructure performante capable de gérer des systèmes complexes tels que des processus industriels ou des stratégies d'apprentissage automatique. Les experts individuels doivent être capables de travailler de manière indépendante, tout en étant bien informés sur l'ensemble du plan de match et être conscients des domaines d'expertise de chacun et des questions et problèmes qui les concernent. Ce paradigme de méta-stratégie n'est pas seulement utile pour développer des stratégies, mais pour prendre des décisions dans l'incertitude, y compris l'embauche, la supervision des investissements et l'arrêt des critères pour les stratégies.

  • 00:15:00 Dans cette section, Marcos Lopez de Prado souligne l'importance de traiter correctement les données financières pour atteindre la stationnarité tout en préservant les informations les plus précieuses. La différenciation des données a un coût car elle efface des informations précieuses sur les signaux, ce qui rend impossible de prédire quoi que ce soit. Par conséquent, il suggère de différencier les données par fraction pour conserver certaines informations de mémoire sur les observations précédentes qui permettent de discerner si une série est à un point critique pour faire une prédiction. Une combinaison de données différenciantes et stationnaires fournit des informations utiles pour l'analyse classique.

  • 00:20:00 L'orateur discute de la création de séries stationnaires et de la manière d'y parvenir. En utilisant un seuil spécifique, il est possible d'obtenir une série stationnaire presque parfaitement corrélée avec la série d'origine, sans utiliser trop de mémoire. Si la corrélation avec la série originale est quasiment nulle, atteindre la stationnarité est inutile. De plus, l'orateur observe qu'il n'y a pas de cas futurs liquides où l'utilisation des rendements est justifiée et déconseille de l'utiliser même sur des données quotidiennes. Il suggère que l'utilisation d'une seule observation suffirait dans la plupart des cas.

  • 00:25:00 L'orateur discute de l'importance de la fréquence d'échantillonnage et suggère qu'elle devrait être basée sur la quantité d'informations qui arrivent sur le marché, plutôt que d'utiliser des méthodes canoniques telles que des observations quotidiennes ou d'une minute. Il donne un exemple d'utilisation de barres en dollars, qui échantillonnent en fonction du montant des transactions, pour s'assurer que l'échantillon comprend des quantités égales d'informations, plutôt que des quantités égales de temps ou de prix. L'orateur souligne également l'importance de prendre en compte les prix lors de l'échantillonnage, car cela fournit des informations essentielles qui affectent l'activité du marché.

  • 00:30:00 Marcos Lopez de Prado discute de l'importance de l'échantillonnage et de l'étiquetage correct des données en finance. Il explique qu'il est crucial de prélever plus d'échantillons lorsque beaucoup d'informations arrivent sur le marché car ils contiennent plus d'informations. Il suggère d'utiliser la méthode Touch Barrier Labeling pour étiqueter correctement les observations en tenant compte de ce qui arrive au prix et de la manière dont il a atteint ce résultat particulier. Ce faisant, cela permet de développer une stratégie qui tient compte des niveaux de risque, ce qui est important car la plupart des gens doivent suivre les niveaux de risque et doivent envisager la possibilité d'être arrêtés.

  • 00:35:00 Marcos López de Prado discute du concept de méta-apprentissage, où un modèle d'apprentissage automatique est utilisé pour prédire si la prédiction d'un autre modèle d'apprentissage automatique est correcte. Il explique l'importance de composer les deux décisions dans deux modèles différents et comment cela est utile pour atteindre la précision et le rappel dans les algorithmes d'apprentissage automatique. López de Prado introduit également le concept de moyenne harmonique, qui est utilisé pour équilibrer le compromis entre précision et rappel, et suggère d'utiliser différents algorithmes d'apprentissage automatique pour prendre en charge deux tâches très différentes.

  • 00:40:00 Dans cette section, Marcos Lopez de Prado explique les défis de l'utilisation de l'apprentissage automatique en finance. Il souligne l'importance de faire filtrer les données par des experts humains avant d'utiliser des algorithmes d'apprentissage automatique, car les données financières sont désordonnées et non iid, ce qui signifie qu'il n'est pas facile de lier une observation particulière à un patient particulier, ou dans ce cas, à un atout particulier. . De plus, les marchés financiers changent constamment en raison des nouvelles réglementations et lois, ce qui peut avoir un impact significatif sur les performances d'un modèle d'apprentissage automatique. Par conséquent, l'utilisation de l'apprentissage automatique dans la finance nécessite une approche prudente et nuancée, et ne peut pas simplement être mise en œuvre en connectant des données financières à un algorithme d'apprentissage automatique.

  • 00:45:00 Marcos Lopez de Prado discute de la question de la non-unicité des observations et propose une méthodologie pour y remédier. Il suggère d'identifier la quantité de chevauchement dans chaque observation et de déterminer leur unicité pour dériver une solution. Comme les techniques de validation croisée supposent que les observations sont indépendantes et distribuées de manière identique, il recommande également d'identifier les observations à supprimer de l'ensemble d'apprentissage pour éviter l'hypothèse d'IID. Ce processus, appelé "purge", supprime les observations qui contiennent des informations plus anciennes que celles partagées avec l'ensemble de test, ce qui se traduit par des modèles d'apprentissage automatique plus précis dans le domaine financier.

  • 00:50:00 Dans cette section, Marcos Lopez de Prado discute de la septième raison pour laquelle la plupart des fonds d'apprentissage automatique échouent, à savoir le surajustement. Il explique que même si le ratio de Sharpe d'une stratégie est nul, en testant à plusieurs reprises la stratégie, on peut éventuellement trouver une stratégie étonnante sur papier. Cependant, des back-tests répétés peuvent conduire à des faux positifs et deviennent moins utiles avec le temps. Pour éviter le surajustement et les faux positifs, il faut être intelligent et s'entraîner en tenant compte du nombre d'essais impliqués dans leur découverte. Plus vous pratiquez, plus le seuil que vous devez exiger pour la pratique est élevé.

  • 00: 55: 00 Marcos Lopez de Prado explique le concept de la fraise dégonflée, qui est l'idée que la plupart des fonds spéculatifs ont une asymétrie négative et un kurtosis excédentaire positif, bien que les gestionnaires de fonds ne ciblent pas intentionnellement ces moments. En effet, les gestionnaires de fonds sont évalués sur la base du ratio de Sharpe et, statistiquement, une asymétrie négative et un excès d'aplatissement positif peuvent gonfler ce ratio. De Prado souligne l'importance de prendre en compte la taille de l'échantillon et le nombre d'essais impliqués dans la production d'une découverte lors de l'analyse des rendements, et met en garde contre l'investissement dans une stratégie qui a une faible probabilité d'avoir un véritable ratio de Sharpe supérieur à zéro.

  • 01:00:00 Marcos Lopez de Prado souligne l'importance d'équilibrer le compromis entre l'ajustement de votre modèle aux données et l'évitement du surajustement. Il suggère de ne pas trop se concentrer sur la réalisation d'un ajustement parfait, car cela peut conduire à un excès de confiance et à un risque accru. Au lieu de cela, il recommande de trouver un moyen de préserver les souvenirs tout en étant capable d'acheter et d'appliquer efficacement des modèles statistiques. Lopez de Prado note également que l'utilisation de modèles trop compliqués peut rendre difficile la pollinisation croisée et l'alimentation des données.

  • 01:05:00 Marcos Lopez de Prado explique comment certains traits ou mesures peuvent devenir les préférés des fonds d'apprentissage automatique et des fonds spéculatifs, conduisant à une convergence dans l'industrie. En prenant l'exemple des chiens d'élevage, où certains traits sont préférés en raison de la préférence humaine et de l'esthétique, il compare ce phénomène à l'utilisation du commerce du ratio de Sharpe et de l'asymétrie négative, qui est devenue la combinaison préférée des fonds spéculatifs, même si elle n'était pas initialement ciblé. Il note qu'il est difficile de s'attaquer à ce phénomène, car il se produit sans qu'un événement particulier ne se produise.

  • 01:10:00 Dans cette section, Marcos López de Prado discute de l'importance d'utiliser des données de prix récentes lors des prévisions, car elles sont plus pertinentes pour l'avenir immédiat. Il suggère d'utiliser toutes les données disponibles avec une décroissance exponentielle de la pondération pour décider de la longueur de l'échantillon. López de Prado souligne également la nécessité de contrôler le nombre d'essais et d'éviter de travailler en silos, car ce sont des raisons courantes pour lesquelles les fonds d'apprentissage automatique échouent. De plus, il souligne que la finance est différente des autres domaines où l'apprentissage automatique a fait des progrès significatifs, et l'embauche de statisticiens n'est pas toujours la meilleure approche pour développer un algorithme de trading réussi.
Marcos Lopez de Prado: "The 7 Reasons Most Machine Learning Funds Fail"
Marcos Lopez de Prado: "The 7 Reasons Most Machine Learning Funds Fail"
  • 2019.05.13
  • www.youtube.com
Seminar Date: September 5, 2017For more information, please visit Marcos Lopez de Prado's website: http://www.quantresearch.org/Summary: In this popular thro...
 

Irene Aldridge : "Risque en temps réel dans l'optimisation de portefeuille à long terme"



Irene Aldridge : "Risque en temps réel dans l'optimisation de portefeuille à long terme"

Irene Aldridge, présidente et directrice générale d'Able Alpha Trading, livre une discussion approfondie sur l'impact du trading à haute fréquence (HFT) sur les gestionnaires de portefeuille à long terme et les changements systémiques du marché qui affectent l'ensemble du secteur. Elle explore l'automatisation croissante de la finance, stimulée par les progrès du Big Data et de l'apprentissage automatique, et ses implications pour l'optimisation du portefeuille. En outre, Aldridge se penche sur les défis et les opportunités présentés par les données de volume intrajournalières et propose une approche étape par étape qui intègre l'identification des risques en temps réel à l'aide de mégadonnées. Elle préconise une stratégie d'optimisation de portefeuille plus nuancée qui intègre des facteurs microstructuraux et suggère l'utilisation de facteurs comme mesure défensive. Aldridge aborde également le cycle de vie de trois ans des stratégies quantitatives, le potentiel de la réalité virtuelle et de l'automatisation dans l'analyse des données, et l'application d'une matrice informatique dans l'optimisation de portefeuille.

Tout au long de sa présentation, Aldridge remet en question l'idée fausse selon laquelle le trading à haute fréquence n'a aucun impact sur les gestionnaires de portefeuille à long terme. Elle soutient que les changements systémiques du marché affectent toutes les stratégies d'investissement, quel que soit leur horizon temporel. S'appuyant sur son expertise en génie électrique, en développement de logiciels, en gestion des risques et en finance, Aldridge souligne l'importance d'explorer de nouveaux domaines tels que l'évaluation des risques en temps réel et l'optimisation du portefeuille.

Aldridge souligne l'évolution significative vers l'automatisation dans le secteur financier, notant que le trading manuel a cédé la place à des systèmes automatisés dans les domaines des actions, des changes, des titres à revenu fixe et des matières premières. Pour rester pertinents, les acteurs de l'industrie ont adopté les mégadonnées et les techniques d'apprentissage automatique. Cependant, elle reconnaît la résistance initiale de certains commerçants qui craignaient que l'automatisation ne rende leur expertise obsolète.

Le conférencier explore l'évolution des mégadonnées et son rôle dans l'optimisation du portefeuille. Elle souligne que la disponibilité de grandes quantités de données structurées et non structurées a révolutionné le paysage financier. Aldridge explique comment des techniques telles que la décomposition en valeurs singulières (SVD) permettent le traitement de grands ensembles de données pour extraire des informations précieuses. La SVD est de plus en plus utilisée pour automatiser l'allocation de portefeuille, dans le but d'incorporer autant de données que possible pour éclairer les décisions d'investissement.

Aldridge se penche sur le processus de réduction des dimensions des données à l'aide de la décomposition en valeurs singulières. En traçant les valeurs singulières dérivées de ce processus, les chercheurs peuvent identifier les vecteurs qui contiennent des informations importantes tout en traitant les vecteurs restants comme du bruit. Cette technique peut être appliquée à divers ensembles de données financières, notamment la capitalisation boursière, le bêta, les prix et la volatilité intrajournalière. L'ensemble de données réduit qui en résulte fournit des indications fiables à des fins de recherche et aide à identifier les facteurs cruciaux pour l'optimisation du portefeuille à long terme.

Le conférencier discute des facteurs communs utilisés par les analystes de portefeuille, tels que le prix, le risque de marché (bêta), la capitalisation boursière et le rendement des dividendes. L'activité institutionnelle est également un facteur important, et Aldridge met en évidence l'utilisation des mégadonnées pour analyser les données sur les tiques et détecter les modèles. La reconnaissance de l'activité institutionnelle fournit des signaux visibles aux acteurs du marché, ce qui entraîne une augmentation du volume et une exécution favorable.

Aldridge fait la distinction entre les stratégies HFT agressives et passives et leur impact sur la liquidité. Les stratégies HFT agressives, caractérisées par des annulations d'ordres, peuvent éroder la liquidité et contribuer au risque, tandis que les stratégies HFT passives, telles que la tenue de marché, peuvent réduire la volatilité en fournissant de la liquidité. Elle note la préférence pour le prix moyen pondéré en fonction du volume par les investisseurs institutionnels et l'utilisation de prix moyens pondérés dans le temps sur certains marchés, tels que les changes, où les informations sur le volume ne sont pas toujours disponibles.

Le conférencier aborde les défis posés par les données de volume intrajournalières, compte tenu de la multitude d'échanges, des intervalles de temps qui se rétrécissent et de la nécessité de déterminer la meilleure entreprise et la meilleure offre parmi plusieurs échanges. Malgré ces défis, Aldridge voit d'importantes opportunités d'innovation et de recherche supplémentaire dans le découpage et l'analyse des données de volume intrajournalier. Elle mentionne le processeur d'informations de sécurité (SIP) géré par la SEC, qui regroupe les ordres à cours limité de plusieurs bourses, mais reconnaît le défi permanent de concilier et de résoudre les problèmes entre différentes bourses.

Aldridge met en évidence les facteurs et les risques microstructurels inexplorés dans l'optimisation de portefeuille. Alors que les gestionnaires de portefeuille à long terme se concentrent traditionnellement sur les caractéristiques risque-rendement et négligent les facteurs microstructurels, Aldridge suggère de les intégrer comme intrants et de tirer parti de la richesse des données disponibles. Elle propose une approche étape par étape qui consiste à utiliser la décomposition de la valeur singulière pour prédire les performances en fonction des rendements précédents et à utiliser le Big Data pour identifier et traiter les risques en temps réel. Les algorithmes peuvent aider à identifier et à exploiter des complexités complexes dans les échanges, telles que les commandes ping, qui peuvent passer inaperçues pour les commerçants humains.

En défiant les limites de l'optimisation de portefeuille traditionnelle, Aldridge introduit une approche plus complète qui intègre des facteurs microstructuraux et d'autres dynamiques de marché. Elle met en évidence le potentiel perturbateur de facteurs tels que les ETF et les crashs éclair et souligne que les matrices de corrélation à elles seules peuvent ne pas suffire à analyser le risque. En tenant compte de facteurs microstructurels indépendants qui vont au-delà des mouvements de marché plus larges, Aldridge préconise une stratégie d'optimisation de portefeuille nuancée qui peut améliorer les rendements et améliorer les ratios de Sharpe. De plus amples détails sur son approche peuvent être trouvés dans son livre, et elle accueille les questions du public concernant le trading à haute fréquence.

Aldridge approfondit davantage la persistance du trading à haute fréquence au cours d'une journée et ses implications pour l'allocation de portefeuille à long terme. Elle illustre cela avec l'exemple du volume de transactions intrajournalières à haute fréquence de Google, qui présente une stabilité dans une certaine fourchette au fil du temps. Aldridge met en évidence les coûts inférieurs associés aux transactions à haute fréquence sur les actions à prix plus élevé et le pourcentage inférieur du volume des transactions à haute fréquence sur les penny stocks. De plus, elle note que la complexité du codage dissuade souvent les traders à haute fréquence de s'engager avec des actions à dividendes élevés. Les stratégies de trading haute fréquence agressives impliquent des ordres au marché ou des ordres à cours limités agressifs placés à proximité du prix du marché.

L'orateur explique le cycle de vie de trois ans d'une stratégie quantitative, mettant en lumière les défis auxquels sont confrontés les quants dans la production de stratégies réussies. La première année consiste généralement à apporter une stratégie réussie d'un emploi précédent et à gagner un bon bonus. La deuxième année est marquée par des tentatives d'innovation, mais beaucoup ont du mal à développer une stratégie réussie au cours de cette période. Au cours de la troisième année, ceux qui ont trouvé une stratégie réussie peuvent gagner un bon bonus, tandis que d'autres peuvent choisir de partir et d'apporter leur stratégie précédente à une nouvelle entreprise. Cela contribue à une concentration de stratégies de trading à haute fréquence similaires, qui peuvent être ajustées ou légèrement modifiées et exécutent souvent des transactions à peu près au même moment. Aldridge souligne que le trading à haute fréquence, comme d'autres formes d'automatisation, est bénéfique et ne doit pas être rejeté.

Aldridge conclut sa présentation en discutant du potentiel de la réalité virtuelle et de l'automatisation dans l'analyse des données. Elle aborde l'utilité des portefeuilles et des facteurs basés sur la version bêta, en utilisant l'exemple de l'achat d'une paire de chaussettes par rapport à l'achat d'un ordinateur Dell et comment les changements de bêta affectent leurs prix différemment. L'importance de normaliser les rendements et de traiter le caractère aléatoire des jours ouvrables est également soulignée. Aldridge suggère d'utiliser des facteurs comme forme de défense et souligne que l'utilisation de facteurs peut être une approche agréable.

Dans une section, Aldridge explique l'application d'une matrice informatique pour déterminer l'importance ou le coefficient de chaque action dans un portefeuille. La matrice intègre des techniques de covariance de variance et de réduction pour ajuster les rendements et obtenir un résultat plus précis. En identifiant les tendances des rendements des jours précédents, la matrice peut prédire les résultats futurs et optimiser le portefeuille. Bien que le modèle de jouet discuté représente un exemple de base, il illustre le potentiel d'utilisation d'une matrice informatique pour l'optimisation de portefeuille à long terme.

En résumé, la présentation d'Irene Aldridge fournit des informations précieuses sur l'impact du trading à haute fréquence sur les gestionnaires de portefeuille à long terme et sur l'évolution du paysage de l'industrie financière. Elle met l'accent sur le rôle de l'automatisation, du Big Data et de l'apprentissage automatique dans l'optimisation du portefeuille. Aldridge discute des défis et des opportunités présentés par les données de volume intrajournalières, préconise l'intégration de facteurs microstructuraux et propose une approche étape par étape pour l'identification des risques en temps réel. Ses idées contribuent à une compréhension plus nuancée de l'optimisation de portefeuille et mettent en évidence le potentiel de la réalité virtuelle et de l'automatisation pour l'analyse des données. L'approche globale d'Aldridge encourage les gestionnaires de portefeuille à adopter les avancées technologiques et à tirer parti des vastes quantités de données disponibles pour prendre des décisions d'investissement éclairées.

En outre, Aldridge souligne l'importance de prendre en compte les facteurs microstructuraux qui passent souvent inaperçus dans l'optimisation de portefeuille traditionnelle. En incorporant des facteurs tels que les FNB et les crashs éclairs dans l'analyse, les gestionnaires de portefeuille peuvent acquérir une compréhension plus précise de la dynamique du marché et des risques associés. Elle conteste l'idée que les matrices de corrélation suffisent à elles seules pour l'analyse des risques et propose une approche plus sophistiquée qui prend en compte des facteurs microstructuraux indépendants. Cette approche a le potentiel d'améliorer les rendements du portefeuille et d'améliorer la performance ajustée au risque.

Aldridge met également en lumière le monde complexe du trading à haute fréquence. Elle discute de la distinction entre les stratégies HFT agressives et passives, soulignant leur impact sur la liquidité et la volatilité du marché. Alors que les stratégies agressives impliquant des annulations d'ordres peuvent éroder la liquidité et augmenter le risque, les stratégies passives axées sur les ordres limités et la tenue de marché peuvent fournir de la liquidité et réduire la volatilité. Comprendre la dynamique du trading à haute fréquence et ses implications sur l'allocation de portefeuille est essentiel pour les gestionnaires de portefeuille à long terme.

En outre, Aldridge discute des défis et des opportunités associés aux données de volume intrajournalier. Avec de multiples échanges et des intervalles de temps de plus en plus courts, l'analyse et l'interprétation efficaces de ces données peuvent s'avérer complexes. Cependant, Aldridge y voit une opportunité d'innovation et de recherche plus approfondie. Elle mentionne le Security Information Processor (SIP) exploité par la SEC, qui regroupe les ordres limités de diverses bourses pour déterminer la meilleure entreprise et la meilleure offre. Cependant, elle reconnaît que concilier et résoudre les problèmes entre les différents échanges reste un défi.

La présentation d'Aldridge souligne également l'importance d'utiliser des facteurs comme forme de défense dans l'optimisation de portefeuille. En tenant compte de divers facteurs au-delà des caractéristiques traditionnelles de risque-rendement, les gestionnaires de portefeuille peuvent acquérir des connaissances plus approfondies et améliorer leur processus de prise de décision. Des facteurs tels que la capitalisation boursière, le bêta, le prix et la volatilité intrajournalière peuvent fournir des informations précieuses pour optimiser les portefeuilles à long terme.

Enfin, Aldridge aborde le potentiel de la réalité virtuelle et de l'automatisation dans l'analyse des données. Ces avancées technologiques offrent de nouvelles possibilités pour analyser des données financières complexes et acquérir une compréhension plus approfondie de la dynamique du marché. En exploitant la puissance de l'automatisation et en tirant parti des outils de réalité virtuelle, les gestionnaires de portefeuille peuvent améliorer leurs capacités d'analyse des données et prendre des décisions d'investissement plus éclairées.

En conclusion, la discussion d'Irene Aldridge sur l'impact du trading à haute fréquence et l'évolution du paysage financier fournit des informations précieuses aux gestionnaires de portefeuille à long terme. Son exploration de l'automatisation, du Big Data et de l'apprentissage automatique met en évidence le potentiel de transformation de ces technologies dans l'optimisation du portefeuille. En incorporant des facteurs microstructuraux, en utilisant des facteurs comme une forme de défense et en adoptant les avancées technologiques, les gestionnaires de portefeuille peuvent s'adapter à la dynamique changeante du marché et ouvrir de nouvelles opportunités pour atteindre une performance de portefeuille optimale à long terme.

  • 00:00:00 Irene Aldridge discute de l'idée fausse selon laquelle le trading à haute fréquence n'a pas d'impact sur les gestionnaires de portefeuille à long terme. Alors que de nombreux gestionnaires affirment qu'ils peuvent détenir des actifs pendant une longue période et ainsi éviter l'impact du trading à haute fréquence, Aldridge soutient que cela affecte en fait les gestionnaires de portefeuille à long terme. Elle explique comment les changements systémiques sur le marché et leur impact sur tout le monde peuvent avoir des implications pour les gestionnaires de portefeuille, que leur stratégie de placement soit à long terme ou à court terme. Aldridge a une formation en génie électrique, en développement de logiciels, en gestion des risques et en finance, et son travail comprend l'exploration de nouveaux domaines tels que le risque en temps réel et l'optimisation de portefeuille.

  • 00: 05: 00 Dans cette section, l'orateur discute de la transition vers l'automatisation dans le secteur financier et du fait qu'il y a encore dix ans, la plupart des transactions se faisaient manuellement. Cependant, l'automatisation est désormais répandue non seulement dans le négoce d'actions, mais également dans le négoce de devises, de titres à revenu fixe et de matières premières. L'objectif de l'automatisation est de remplacer le commerce humain, et ceux qui restent pertinents dans l'industrie ont adopté le big data et l'apprentissage automatique pour rester à jour. Cependant, certains commerçants étaient réticents à partager leurs connaissances avec des ordinateurs, craignant que cela ne conduise à une automatisation immédiate et à leur propre obsolescence.

  • 00:10:00 Irene Aldridge parle de l'évolution des mégadonnées et de leur utilisation dans l'optimisation du portefeuille. Elle note qu'il y a quelques années à peine, la plupart des institutions financières n'avaient pas accès à de grandes quantités de données, mais cela a changé et il existe désormais des bases de données de données structurées et non structurées qui peuvent être traitées de différentes manières pour fournir des informations utiles. L'une de ces méthodes est la décomposition en valeurs singulières (SVD), qui réduit de grandes quantités de données sous des formes plus gérables. Aldridge explique comment SVD est utilisé pour automatiser l'allocation de portefeuille, qui est une industrie qui est au bord de l'automatisation. Même si certaines entreprises utilisent encore des chercheurs pour analyser les données mensuelles et prendre des décisions d'investissement basées sur ces données, la tendance est d'intégrer autant de données que possible pour éclairer les décisions d'investissement.

  • 00: 15: 00 Irene Aldridge discute du processus de réduction des dimensions des données grâce à la décomposition en valeurs singulières. En traçant les valeurs singulières extraites par ce processus, les chercheurs peuvent déterminer quels vecteurs contiennent des informations importantes et se concentrer sur la conservation de ces vecteurs tout en considérant le reste comme du bruit. Cette technique peut être appliquée à une variété d'ensembles de données, y compris des données financières telles que la capitalisation boursière, le bêta, le prix et la volatilité intrajournalière. L'ensemble de données réduit qui en résulte fournit des indications fiables à des fins de recherche et aide à identifier les facteurs importants pour l'optimisation du portefeuille à long terme.

  • 00: 20: 00 Dans cette section, Irene Aldridge aborde les facteurs couramment utilisés par les analystes de portefeuille, tels que le risque de prix et de marché ou le bêta. La capitalisation boursière et le rendement du dividende sont également des facteurs utilisés dans l'optimisation du portefeuille qui sont inclus dans le cadre utilisé par des sociétés telles que MSCI, Barra et autres. Aldridge explique comment ils estiment l'activité institutionnelle en utilisant des mégadonnées sur les données de tiques et en recherchant des modèles spécifiques dans les données. L'activité institutionnelle est importante car elle constitue un signal visible pour les acteurs du marché, ce qui peut entraîner le bond d'autres acteurs du marché, entraînant une augmentation du volume de l'ordre et une exécution favorable de l'ordre.

  • 00:25:00 Irene Aldridge discute de la différence entre les stratégies HFT agressives et passives, qui ont toutes deux un impact sur la liquidité. Les stratégies HFT agressives peuvent être axées sur l'alpha et impliquer de nombreuses annulations d'ordres, ce qui érode la liquidité et contribue au risque, tandis que les stratégies HFT passives, qui impliquent uniquement des ordres limités comme la tenue de marché, peuvent réduire la volatilité en fournissant plus de liquidité. Les investisseurs institutionnels préfèrent un prix moyen pondéré en fonction du volume, tandis que les prix moyens pondérés dans le temps sont encore utilisés sur certains marchés comme les changes où le volume n'est pas toujours disponible. Dans l'ensemble, le HFT est un sujet complexe qui présente à la fois des avantages et des risques.

  • 00: 30: 00 Dans cette section, Irene Aldridge discute de la structure des colonnes de données et des défis qui accompagnent les données de volume intrajournalier, compte tenu du grand nombre d'échanges, des intervalles de temps réduits des changements et de la question de trouver les meilleures affaires et meilleure offre parmi plusieurs échanges. Malgré les défis, elle pense que les données de volume intrajournalier peuvent être découpées en tranches et en dés de différentes manières et présentent une opportunité d'innovation et de recherche plus approfondie. Elle mentionne également le processeur d'informations de sécurité (SIP) géré par la SEC qui regroupe les ordres limités de plusieurs bourses et détermine la meilleure entreprise et la meilleure offre, mais note que concilier et résoudre les problèmes entre différentes bourses reste un défi.

  • 00: 35: 00 L'orateur explique que si les gestionnaires de portefeuille à long terme se préoccupent principalement des caractéristiques risque-rendement et ne se préoccupent pas de l'exécution, il existe de nombreuses microstructures et facteurs de risque totalement inexplorés qui pourraient être utilisés comme intrants, comme ainsi que de nombreuses données qui pourraient fournir de nouvelles informations et perspectives. Ils proposent une approche étape par étape qui consiste à utiliser la décomposition de la valeur singulière pour prédire les performances en fonction des rendements précédents et à tirer parti du Big Data pour identifier et traiter les risques en temps réel. L'orateur note également qu'il existe de nombreux ordres de ping et d'autres complexités dans les échanges qui ne sont pas toujours évidents pour les commerçants humains, mais peuvent être identifiés et exploités à l'aide d'algorithmes.

  • 00:40:00 Dans cette section, Irene Aldridge discute des limites de l'optimisation de portefeuille traditionnelle pour les investissements à long terme et présente une nouvelle approche qui intègre la microstructure et d'autres facteurs de marché dans le processus d'optimisation. Elle explique comment des facteurs tels que les ETF et les crashs éclair peuvent perturber le marché et comment les matrices de corrélation peuvent ne pas être suffisantes pour analyser le risque. En tenant compte des facteurs microstructurels qui sont indépendants des mouvements de marché plus importants, Aldridge propose une approche plus nuancée de l'optimisation du portefeuille qui peut améliorer les rendements et les ratios de Sharpe. Elle note que son approche est décrite plus en détail dans son livre et répond aux questions du public sur le trading à haute fréquence.

  • 00:45:00 Irene Aldridge explique la persistance du trading à haute fréquence au cours d'une journée et comment cela affecte l'allocation de portefeuille à long terme. Elle note que si le volume des transactions intrajournalières à haute fréquence peut varier de 0 à 100, au fil du temps, il a été assez stable pour Google, par exemple, avec une fourchette de 36 à 42 %. Cette stabilité persiste également pour les autres actions. Le trading à haute fréquence a un coût inférieur lors de la négociation d'actions à prix plus élevé, et il y a un pourcentage inférieur de volume de trading à haute fréquence pour les penny stocks. De plus, les traders à haute fréquence ont tendance à éviter les actions à dividendes élevés en raison de la complexité du codage. Le trading agressif à haute fréquence est celui qui utilise des ordres au marché ou des ordres à cours limité agressifs proches du prix du marché.

  • 00: 50: 00 Irene Aldridge explique le cycle de vie de trois ans d'une stratégie quantitative, où la première année, le quant apporte une stratégie réussie de son emploi précédent et gagne un bon bonus, la deuxième année, il essaie d'innover mais beaucoup de gens ont du mal à produire une stratégie réussie, et la troisième année, s'ils trouvent quelque chose de bien, ils peuvent gagner un bon bonus, sinon ils partent et emportent leur stratégie précédente dans un nouveau magasin. Cela contribue à la concentration de stratégies de trading à haute fréquence similaires, qui pourraient être ajustées ou légèrement modifiées, et souvent exécutées presque en même temps. Aldridge pense que le trading à haute fréquence est bon et non excusable car il s'agit d'automatisation, tout comme les robots qui nettoient les sols ou un système domotique qui contrôle le chauffage et la climatisation.

  • 00:55:00 Irene Aldridge, présidente et directrice générale d'Able Alpha Trading, discute du potentiel de la réalité virtuelle et de l'automatisation pour l'analyse des données. Elle aborde également l'utilité des portefeuilles et des facteurs basés sur la version bêta, citant l'exemple de l'achat d'une paire de chaussettes par rapport à l'achat d'un ordinateur Dell et comment les changements de bêta affectent leurs prix différemment. Elle souligne l'importance de normaliser les rendements et aborde la question du caractère aléatoire des jours ouvrables. Enfin, Aldridge couvre l'utilisation des facteurs comme forme de défense et suggère que l'utilisation des facteurs peut être amusante.

  • 01:00:00 Dans cette section, Aldridge discute de l'utilisation d'une matrice informatique pour déterminer l'importance ou le coefficient de chaque action dans un portefeuille. Les lignes de la matrice représentent chaque stock, la première ligne représentant les pommes et les autres lignes les données de marché pour différents stocks. En incorporant la covariance de variance et le rétrécissement, la matrice peut incorporer le rendement et faire des ajustements pour atteindre un résultat plus spécifique. Cela se fait en trouvant X-mas dans le retour des jours précédents et en prédisant à partir de là. Bien que le modèle de jouet décrit ne soit qu'un exemple de base, il montre comment une matrice informatique peut être utilisée pour optimiser un portefeuille.
 

Les bases du trading quantitatif



Les bases du trading quantitatif

Dans cette vidéo sur les bases du trading quantitatif, le trader algorithmique Shaun Overton discute des défis et des opportunités liés au trading algorithmique. Overton explique que la collecte, l'analyse et le trading de données sont les trois problèmes simples impliqués dans le trading algorithmique, bien que le processus puisse se compliquer en raison de la recherche de données de haute qualité et d'une analyse appropriée. Il peut être difficile de sélectionner la bonne plateforme avec de bonnes données et fonctionnalités pour atteindre les objectifs du trader, les plateformes les plus populaires étant MetaTrader, NinjaTrader et TradeStation, selon le type de trading que l'on préfère. Overton discute également de la dure réalité de la facilité avec laquelle il est possible de faire exploser des comptes lors de transactions sur le marché en direct et de l'importance de la gestion des risques. De plus, il explique comment les traders quantitatifs peuvent prédire des mouvements excessifs sur le marché et discute de l'impact des guerres de devises.

La vidéo "Basics of Quantitative Trading" sur YouTube couvre diverses stratégies de trading algorithmique, y compris l'analyse des sentiments et les stratégies à long terme basées sur les lignes de graphique ; cependant, les plus gros retours sont réalisés lors d'événements et de tendances à grande queue. Les participants à la vidéo discutent des différentes plates-formes de backtesting, des défis liés à l'intégration de plusieurs plates-formes d'analyse de trading et de l'intérêt croissant pour la formalisation et l'automatisation des stratégies de trading. Certains traders à long terme recherchent l'automatisation car ils sont dans le jeu depuis longtemps, et NinjaTrader pour les langages de programmation est recommandé mais a des limites.

  • 00:00:00 Le trader algorithmique Shaun Overton explique les trois problèmes simples impliqués dans le trading algorithmique : la collecte de données, l'analyse et le trading. Cependant, le processus peut devenir compliqué en raison d'obstacles tels que la recherche de données de haute qualité et une analyse appropriée, d'autant plus que le commerce nécessite un examen attentif des données. Le trading à l'aide d'options gratuites n'est pas recommandé car elles peuvent contenir des doublons ou des lacunes dans les données. De plus, l'utilisation d'options payantes est hors de la ligue des commerçants de détail car cela peut coûter des milliers de dollars par instrument. Néanmoins, le trading peut être simplifié en utilisant des plateformes qui proposent des API de logiciels et de courtiers.

  • 00:05:00 Le conférencier discute des différentes options logicielles disponibles pour analyser les données et placer des transactions. Les plateformes les plus populaires pour le trading forex sont MetaTrader, NinjaTrader et TradeStation, selon le type de trading que l'on préfère. MetaTrader est de loin le plus populaire et il existe plus d'un millier de courtiers dans le monde qui le proposent. L'orateur explique que l'utilisation d'une plate-forme pré-construite comme ces options rend le trading et l'analyse des données plus simples et évite d'avoir à recoder l'analyse plusieurs fois au moment du trading. L'intervenant passe également en revue les différents langages de programmation utilisés par chaque plateforme.

  • 00:10:00 L'orateur discute des différentes plates-formes de trading quantitatif et explique comment Multicharts est devenu populaire en copiant la plate-forme et le langage de TradeStation. Cependant, il existe des différences entre les langues et ce n'est pas toujours complètement compatible. L'orateur parle également de l'importance des données dans le trading quantitatif et des défis qui accompagnent chaque plateforme. Il note que MetaTrader est simple à utiliser mais pas assez sophistiqué pour une analyse plus complexe, et que les données fournies sont souvent de mauvaise qualité. Dans l'ensemble, le conférencier souligne l'importance de sélectionner avec soin une plate-forme avec de bonnes données et des fonctionnalités qui répondent aux objectifs du commerçant.

  • 00: 15: 00 Shaun Overton discute des défis de la collecte et du stockage des données pour les stratégies de trading quantitatives. Il explique les difficultés à essayer de stocker des années de données de test et les limites que les courtiers imposent à l'obtention de données en raison des limitations du serveur. Il note que bien que MetaTrader offre des données gratuites, ce ne sont pas des données de haute qualité, tandis que NinjaTrader fournit de bonnes données mais a une courbe d'apprentissage abrupte à mettre en place. Il met également en garde contre les dangers des stratégies de programmation spécifiques à un certain courtier car il marie le commerçant à ce courtier particulier, ce qui rend difficile le changement s'il n'est pas satisfait. Il énumère les raisons pour lesquelles les traders pourraient être mécontents d'un courtier, y compris un mauvais service et une mauvaise exécution.

  • 00: 20: 00 Shaun Overton explique certains des problèmes et des jeux auxquels les courtiers jouent pour gagner de l'argent avec les commerçants et leurs transactions. Les courtiers peuvent manipuler les prix du marché et les transactions pour forcer les commerçants à payer plus pour leurs transactions en affichant un prix, puis en obligeant les commerçants à accepter un prix inférieur. De plus, un trader peut recevoir une mauvaise exécution en raison d'une mauvaise latence ou d'une défaillance logicielle. Actuellement, le plus gros problème du trading algorithmique est la corruption institutionnalisée et la manière dont les institutions peuvent voler de l'argent aux traders en raison d'accidents technologiques, ainsi que des Dark Pools et d'autres plateformes de trading qui ont leurs propres règles en place pour manipuler les transactions.

  • 00:25:00 L'orateur discute des limites des plates-formes spécifiques aux courtiers pour le trading quantitatif. Bien qu'ils puissent être efficaces pour des stratégies extrêmement simples, ils ont des limites et ne peuvent rien supporter de plus sophistiqué. L'orateur recommande des plates-formes stables comme NinjaTrader et MultiCharts, qui ont une bonne qualité de recherche et permettent une programmation personnalisée et des ajustements de l'interface graphique. Cependant, l'orateur avertit que ces plateformes ne sont pas adaptées à la gestion de portefeuilles ou à la gestion de fonds car elles n'ont pas la capacité de parler à plusieurs graphiques et nécessitent beaucoup de travail manuel.

  • 00: 30: 00 Shaun Overton discute de la dure réalité de la facilité avec laquelle il est possible de faire exploser des comptes lors de transactions sur le marché en direct, dont 90 à 95% des comptes sont fermés dans les 6 mois ou une année complète. Il existe 2 façons pour les courtiers de gagner de l'argent, par les commissions ou par le risque, et souvent la méthode la plus populaire et la plus lucrative consiste à assumer les pertes de négociation. Les traders réguliers gagnent de l'argent lorsque la volatilité est faible, mais lorsqu'elle est élevée, ils sont décimés. On parle de gestion des risques, mais pour la plupart des gens, ce n'est que de l'air chaud et ils continuent de perdre de l'argent en ne gérant pas leurs risques.

  • 00:35:00 Shaun explique comment la volatilité affecte les stratégies de trading quantitatives et comment les traders particuliers ont tendance à se tromper dans leurs prévisions de marché. Il explique comment le ratio des positions longues par rapport aux positions courtes peut être suivi par les courtiers ayant accès aux comptes clients et comment ces informations peuvent être utilisées pour prédire les mouvements excessifs. Overton note que ces informations sont de plus en plus disponibles, avec des sites Web comme MyFxBook et OANDA publiant des données sur le positionnement sur le marché. Cependant, il prévient que si ces informations peuvent être une mine d'or pour les courtiers, elles peuvent ne pas fournir de flux de trésorerie stables et entraîner des périodes de pertes importantes.

  • 00: 40: 00 Shaun Overton discute de la possibilité pour les traders quantitatifs d'examiner les fonds des clients des grandes banques pour concevoir des stratégies longues et courtes basées sur le pourcentage de transactions allant dans une certaine direction. Il commente également le scepticisme des investisseurs particuliers participant au marché boursier, en particulier à la lumière des récentes nouvelles négatives, conduisant à un retrait de milliards de dollars depuis le dernier krach. Overton mentionne également un reportage récent sur CNBC concernant les grands gestionnaires de fonds et leur impact sur les actions des grandes entreprises, démontrant le pouvoir de l'argent institutionnel pour faire bouger le marché.

  • 00: 45: 00 Il est discuté de la façon dont le trading institutionnel, en particulier sur le forex, peut ne pas avoir autant d'influence sur le marché que le trading de détail en raison de la taille moyenne des comptes des traders. Cependant, des évaluations plus importantes et de plus grandes quantités d'argent échangées incitent davantage de personnes à jouer avec les prix, et même de petits événements tels que le commerce en état d'ébriété pourraient avoir un impact sur le marché. Le principal moteur des devises est les taux d'intérêt, et c'est une guerre des devises où tout le monde veut un taux d'intérêt zéro, ce qui rend plus difficile de déterminer quelle devise du pays est la plus faible. Enfin, la paire de devises du Japon, Dollar Yen, est analysée en termes d'historique et de lien entre la baisse de ses prix et l'affaiblissement du dollar et le renforcement du yen.

  • 00:50:00 Shaun Overton discute de l'impact des guerres monétaires sur les exportateurs. Il explique comment les exportateurs tels que Toyota sont fortement touchés lorsque la valeur de la devise dans laquelle ils opèrent augmente. Overton déclare qu'il y a actuellement une guerre des devises entre les principales devises, où les pays tentent de se dévaluer, tout le monde se disputant le zéro. Par conséquent, les traders doivent spéculer sur qui fera le pire travail pour détruire une monnaie, car ils seront les meilleurs dans cet environnement. Overton estime que le dollar est actuellement une catastrophe, mais la meilleure catastrophe à ce jour. Les risques et événements sociaux spécifiques à un pays, tels que le 11 septembre et la catastrophe de Fukushima, peuvent également avoir un impact sur les cours des devises.

  • 00:55:00 Les intervenants ont discuté du trading sur des marchés étroits et des devises exotiques. Il a été mentionné que pour le trading algorithmique, vous avez besoin de liquidités et d'un faible spread, ce qui rend difficile le trading de devises moins populaires comme le rand sud-africain ou la livre turque. De plus, la propagation de ces devises peut être 8 ou 9 fois supérieure à ce qu'il en coûte pour échanger l'euro contre le dollar, ce qui rend difficile la réalisation de bénéfices. En ce qui concerne les stratégies pour ceux qui ont moins de 50 000 dans leurs comptes, les orateurs mentionnent l'importance de se concentrer sur des choses comme le rapport sur les engagements des commerçants sur les marchés à terme pour mieux comprendre les positions du marché.

  • 01:00:00 Un groupe discute de diverses stratégies de trading algorithmique, y compris l'analyse des sentiments et une stratégie simple à long terme basée sur les lignes de graphique. Le défi du trading est de comprendre la distribution des rendements car la plupart du temps, ce n'est que du bruit. Cependant, les plus gros retours sont réalisés lors d'événements et de tendances à grande queue. Par conséquent, les meilleures stratégies ne rapportent pas systématiquement de l'argent, mais saisissent les opportunités lorsqu'elles se présentent. Malgré le désir de signaux et d'action, il est préférable de laisser le marché faire ce qu'il va faire. Quantopian, un programme qui analyse les données du marché, est également mentionné.

  • 01:05:00 Dans cette section, les participants à la vidéo YouTube "Basics of Quantitative Trading" discutent des différentes plates-formes qu'ils utilisent pour le backtesting et l'optimisation, ainsi que des défis liés à l'intégration de plusieurs plates-formes pour l'analyse commerciale et le développement de stratégies. Alors que certains participants notent que Quantopian fournit une plate-forme d'analyse individuelle et négocie des contrats avec des courtiers pour potentiellement résoudre les problèmes d'intégration de plate-forme, d'autres discutent des limites de plates-formes comme NinjaTrader et des difficultés à les intégrer à d'autres plates-formes, certains soulignant le fait qu'ils sont mieux adaptés au trading manuel ou comme de simples outils de backtesting. De plus, Shaun Overton note que son entreprise est construite autour de la formalisation et de l'automatisation des propres stratégies des traders, les participants notant que les traders individuels et les marchés manifestent un intérêt croissant pour la formalisation et l'automatisation de leurs stratégies de trading.

  • 01:10:00 Les traders participant à un séminaire sur le trading quantitatif posent des questions sur les avantages de l'automatisation de certaines stratégies de trading. Shaun Overton, le conférencier, note que certains commerçants qui sont dans le jeu depuis 10, 20 ou même 30 ans veulent simplement automatiser leurs stratégies afin de ne plus avoir à les surveiller toute la journée. Lors de l'examen des langages de programmation spécifiques au trading, Overton approuve NinjaTrader car il fonctionne sur C Sharp, mais note qu'il y a des limites à ce qui peut être fait en son sein.
Basics of Quantitative Trading
Basics of Quantitative Trading
  • 2013.02.26
  • www.youtube.com
http://www.onestepremoved.com/ Shaun Overton speaks to the meetup group Dallas Algorithmic Traders about quantitative trading. Most members of the audience h...
 

Qu'est-ce qu'un quant trader ?



Qu'est-ce qu'un quant trader ?

"Qu'est-ce qu'un quant trader ?" est une vidéo dans laquelle Michael Halls-Moore plonge dans le monde du trading quantitatif, expliquant comment les mathématiques et les statistiques sont utilisées pour développer des stratégies de trading et analyser les inefficacités du marché. Alors que les fonds quantitatifs se concentrent principalement sur des stratégies à court terme, le conférencier souligne que des approches à basse fréquence et automatisées sont également utilisées. Les commerçants institutionnels donnent la priorité à la gestion des risques, tandis que les commerçants de détail sont motivés par les bénéfices. Une détection efficace du régime de marché est cruciale mais difficile en raison d'événements aléatoires sur le marché. Il est conseillé aux traders quantitatifs de ne pas s'appuyer uniquement sur un seul modèle, mais d'en rechercher et d'en tester constamment de nouveaux pour tenir compte des dynamiques de marché connues et inconnues. Malgré les risques encourus, les commerçants quantitatifs qui réussissent peuvent obtenir un rendement annuel impressionnant de 35 % sur les frais.

Dans la vidéo, Michael Halls-Moore donne une perspective perspicace sur le concept d'un « commerçant quantitatif ». Il explique que les traders quantitatifs utilisent des techniques mathématiques et statistiques dans le domaine de la finance, en utilisant des méthodes informatiques et statistiques. Leur travail englobe un large éventail d'activités, allant de la programmation de structures de négociation à la conduite de recherches approfondies et au développement de stratégies de négociation robustes. Bien que les règles d'achat et de vente jouent un rôle, elles ne sont pas le seul objectif, car les commerçants quantitatifs opèrent dans un système plus large où les générateurs de signaux ne sont qu'un élément.

Les fonds quantitatifs s'engagent généralement dans le trading à haute fréquence et s'efforcent d'optimiser la technologie et les microstructures au sein des actifs du marché. Les délais impliqués dans le trading quantitatif peuvent varier considérablement, allant de quelques microsecondes à plusieurs semaines. Les commerçants de détail ont une opportunité significative d'adopter des stratégies de style à fréquence plus élevée.

Contrairement à la croyance populaire, le trading quantitatif n'est pas uniquement axé sur le trading à haute fréquence et l'arbitrage. Il intègre également des stratégies à basse fréquence et automatisées. Cependant, en raison de leur approche scientifique consistant à capitaliser sur les inefficacités physiques du système, les fonds quantitatifs se concentrent principalement sur des stratégies à court terme. Le conférencier souligne l'importance d'avoir un mélange d'expériences scientifiques et commerciales pour prospérer dans le domaine du commerce quantitatif.

Une distinction notable entre les commerçants de détail et institutionnels réside dans leur approche de la gestion des risques. Les commerçants de détail sont principalement motivés par des motifs de profit, tandis que les commerçants institutionnels donnent la priorité à la gestion des risques, même si cela signifie sacrifier les rendements potentiels. Les traders institutionnels adoptent une mentalité axée sur le risque et mettent l'accent sur la diligence raisonnable, les tests de résistance et la mise en œuvre de polices d'assurance contre les risques pour atténuer efficacement les risques.

La gestion des risques implique diverses techniques, telles que l'ajustement de l'effet de levier en fonction des capitaux propres du compte à l'aide de cadres mathématiques tels que le critère de Kelly. Les traders plus conservateurs optent pour la réduction des tirages pour atteindre un taux de croissance contrôlé. Les principaux indicateurs de risque comme le VIX sont utilisés pour évaluer la volatilité future. Dans ces métiers, le système de gestion des risques a plus d'importance que le système d'entrée. Alors que les pertes d'arrêt sont utilisées dans le suivi des tendances, les stratégies de retour à la moyenne nécessitent de réévaluer et d'explorer différents scénarios et données historiques pour la planification du retrait. Préalablement à la mise en place des algorithmes de trading, des phases de backtesting sont menées pour gérer efficacement les facteurs de risques.

La vidéo explore l'importance de filtrer les stratégies de trading et d'utiliser le backtesting comme outil pour les filtrer plutôt que de les mettre directement en production. Il souligne l'importance de s'attendre à des baisses plus importantes au cours de la marche en avant et d'utiliser des mécanismes de filtrage pour déterminer la pertinence d'une stratégie de mise en œuvre. La conversation se penche ensuite sur la croyance de Nassim Nicholas Taleb dans les queues épaisses et explore comment la technologie d'apprentissage automatique peut être utilisée pour appliquer des stratégies de trading de gamme et de trading de tendance, permettant la détection du régime du marché.

La détection efficace du régime de marché est un aspect essentiel de la finance quantitative. Cependant, il pose des défis en raison de sa dépendance à des événements aléatoires, tels que les baisses de taux d'intérêt et les tendances du marché. Les entreprises plus sophistiquées suivent les données fondamentales et les intègrent dans leurs modèles pour améliorer la détection du régime du marché. Lors du trading, la sélection d'actions ou d'ETF dépend du marché spécifique, et choisir les bons actifs peut être une tâche complexe. L'orateur souligne qu'une combinaison de modèles mathématiques et de fondamentaux du marché est cruciale pour une défense efficace contre les événements Black Swan, car les périodes précédentes de forte volatilité peuvent fournir des informations sur la prévision de la volatilité future et des changements du marché.

La vidéo explore plus en détail les rendements potentiels et les risques associés au trading quantitatif. Les traders quantitatifs ont le potentiel de gagner un rendement annuel impressionnant de 35% sur les frais, en particulier lorsqu'ils sont associés à une formation solide, comme un doctorat, et à un processus de gestion efficace. Cependant, les quants à haute fréquence peuvent être confrontés à des défis lorsque des changements se produisent dans le matériel ou l'échange sous-jacent, ce qui peut entraîner des pannes du système.

Malgré les risques encourus, la réalisation d'un rendement constant de 15% à 20% en exploitant des opportunités rentables à long terme est considérée comme favorable. Les traders quantitatifs ne s'appuient pas sur un seul algorithme magique ou ne paniquent pas lorsqu'ils sont confrontés à des problèmes. Au lieu de cela, ils se penchent sur des propriétés statistiques qui peuvent être complexes à analyser, mais se préparent à l'avance pour relever les défis potentiels.

La vidéo souligne l'importance d'éviter de trop se fier à un modèle unique de trading quantitatif. Les modèles ne peuvent pas prédire avec précision tous les événements futurs, comme en témoignent les krachs historiques de Wall Street et les échecs d'investissement résultant des lacunes des modèles. Il est essentiel pour les traders quantitatifs de rechercher et de tester en permanence de nouveaux modèles, en évaluant leurs performances. Les périodes de tirage font partie intégrante du parcours commercial, et les traders doivent être prêts à les parcourir.

En conclusion, alors que certains commerçants peuvent devenir trop concentrés sur la microgestion de leurs modèles, il est essentiel de comprendre si un modèle tient compte de toutes les dynamiques du marché, y compris les inconnues inconnues. Les traders quantitatifs doivent adopter une approche multidimensionnelle, combinant des modèles mathématiques avec les fondamentaux du marché pour acquérir une compréhension globale du comportement du marché. En affinant et en diversifiant constamment leurs stratégies, les traders quantitatifs peuvent augmenter leurs chances de succès dans un paysage financier en constante évolution.

  • 00:00:00 Dans cette section, Michael Halls-Moore explique la signification de "quant trader", qui est quelqu'un qui utilise les mathématiques ou les statistiques en finance de manière informatique et statistique. Cela peut aller de la programmation de structures de trading à la recherche de trading hardcore et au développement d'une stratégie. L'importance des règles d'achat et de vente n'est pas aussi importante que d'autres aspects, et les générateurs de signaux ne sont qu'une partie d'un système plus vaste. Les fonds quantitatifs traitent généralement des transactions à fréquence plus élevée et se concentrent sur l'optimisation de la technologie et des microstructures au sein des actifs du marché. Le délai typique pour les commerçants quantitatifs varie de quelques microsecondes à plusieurs semaines, et la plus grande opportunité du commerçant de détail réside dans les stratégies de style à fréquence plus élevée.

  • 00:05:00 Dans cette section, nous apprenons que le trading quantitatif ne concerne pas uniquement le trading et l'arbitrage à haute fréquence, car il comprend également des stratégies à basse fréquence et automatisées. Cependant, les fonds quantitatifs se concentrent généralement sur des stratégies à court terme en raison de leur approche scientifique consistant à exploiter les inefficacités physiques du système. L'orateur pense qu'il est essentiel d'avoir une formation à la fois scientifique et commerciale pour réussir dans le commerce quantitatif. En ce qui concerne la gestion des risques, il note une différence culturelle entre le commerce de détail et le commerce institutionnel, où ce dernier a une mentalité axée sur le risque et met l'accent sur la diligence raisonnable, les tests de résistance et les polices d'assurance contre les risques.

  • 00:10:00 Dans cette section, la vidéo aborde les différentes approches utilisées par les commerçants de détail et institutionnels en matière de gestion des risques. Alors que les commerçants de détail sont principalement axés sur le profit, les commerçants institutionnels se concentrent sur la gestion des risques, même si les rendements potentiels ne représentent qu'une fraction de ce qui est possible. La vidéo mentionne le critère de Kelly comme un moyen mathématique d'ajuster l'effet de levier en fonction de l'équité du compte, les traders plus conservateurs optant pour une diapositive où ils réduisent leur prélèvement pour atteindre un taux de croissance plus contrôlé. De plus, des indicateurs de risque avancés comme le VIX sont utilisés pour voir la volatilité future. Le système de gestion des risques est plus important que le système d'entrée dans ces transactions, les stop loss étant utilisés dans le suivi des tendances, mais pas dans le retour à la moyenne, où les traders repensent et explorent différents scénarios et historiques pour la planification des retraits. Avant de commencer à trader les algos, des phases de backtest sont menées pour gérer les facteurs de risque.

  • 00: 15: 00 Dans cette section, l'intervieweur et le trader quantitatif discutent de l'importance de filtrer les stratégies de trading et de la manière d'utiliser le backtesting comme moyen de filtrer les stratégies plutôt que comme moyen de les mettre en production. Ils soulignent l'importance de s'attendre à des baisses plus importantes au cours de la marche en avant et d'utiliser un mécanisme de filtrage pour déterminer si une stratégie convient ou non à la mise en œuvre. La conversation se tourne ensuite vers la croyance de Taleb dans les queues grasses et sur la manière d'appliquer à l'avenir des stratégies de trading de gamme et de trading de tendance en utilisant la technologie d'apprentissage automatique pour déterminer les changements de régime du marché.

  • 00:20:00 Dans cette section, l'orateur souligne l'importance d'une détection efficace du régime de marché dans la finance quantitative. Le problème est qu'il est difficile de garder cela à l'esprit car cela repose sur des événements purement aléatoires, tels que la baisse des taux d'intérêt et les tendances du marché. Bien que la détection des régimes de marché soit délicate, les entreprises les plus sophistiquées suivront les données fondamentales et les intégreront dans leurs modèles. Lors de la négociation, selon ce que l'on négocie, il existe différents nombres d'actions ou d'ETF parmi lesquels choisir, et choisir le bon peut être délicat. De plus, l'orateur pense que la défense de Black Swan dépend de la combinaison de modèles mathématiques et des fondamentaux du marché, car une volatilité horrible antérieure peut permettre de prédire la volatilité future et les changements du marché.

  • 00:25:00 Dans cette section, la vidéo explique les rendements auxquels les traders quantitatifs peuvent s'attendre et les risques que cela leur apporte. Un trader quantitatif peut gagner un retour annuel de 35% sur les frais, avec l'aide d'un doctorat et d'un processus de gestion efficace. Cependant, les quants à haute fréquence peuvent souffrir en raison de changements dans le matériel ou l'échange sous-jacent, provoquant le plantage de leur système. Malgré ces risques, rapporter 15 à 20% en exploitant quelque chose qu'il est possible de faire à long terme est un bon retour. Les traders quantiques n'ont pas un seul algorithme magique ni ne paniquent lorsqu'ils sont confrontés à des problèmes. On s'attend à ce qu'ils passent par certaines propriétés statistiques qui sont pénibles à analyser et à préparer à l'avance.

  • 00: 30: 00 Dans cette section, l'orateur explique qu'il n'est pas conseillé de trop s'appuyer sur un seul modèle dans le commerce quantitatif, car un modèle ne peut pas prédire avec précision tous les événements futurs. Il cite des exemples de krachs classiques de Wall Street et d'échecs d'investissement principalement dus à des défauts de modèle. L'orateur souligne l'importance de rechercher continuellement de nouveaux modèles et de vérifier leurs performances ; cependant, les périodes de retrait se produiront toujours. En conclusion, alors que certains commerçants peuvent atteindre le point de microgérer leurs modèles, il est essentiel de comprendre si le modèle tient compte de toute la dynamique du marché ou des inconnues inconnues.
What is a quant trader?
What is a quant trader?
  • 2013.12.02
  • www.youtube.com
http://www.onestepremoved.com/ Shaun Overton interviews Michael Halls-Moore, a quantitative developer. Mike jumped from postgraduate school straight into alg...
 

PyCon Canada 2015 - Karen Rubin : Construire une stratégie de négociation quantitative (Discours principal)



PyCon Canada 2015 - Karen Rubin : Construire une stratégie de négociation quantitative (Discours principal)

Poursuivant la discussion, Karen Rubin se penche sur les conclusions et les idées de son étude sur les femmes PDG des entreprises Fortune 1000. L'analyse révèle que les femmes PDG génèrent un rendement de 68 %, tandis que les hommes PDG génèrent un rendement de 47 %. Cependant, Karen souligne que ses données ne démontrent pas encore que les femmes PDG surpassent leurs homologues masculins. Elle considère cette étude comme un concept intrigant au sein des entreprises à haut revenu et à forte capitalisation boursière.

Motivée par ses découvertes, Karen souligne l'importance de la diversité dans l'industrie de la finance et de la technologie. Elle encourage davantage de femmes à rejoindre le domaine et à participer à l'élaboration des stratégies d'investissement. Elle pense que l'intégration d'idées telles que l'investissement dans les femmes PDG peut contribuer à la création d'un fonds diversifié et inclusif.

Élargissant la discussion, Karen aborde d'autres facteurs qui peuvent influencer le succès des PDG, notamment leur sexe, la méthode d'embauche (interne ou externe) et même leur mois de naissance. Elle reconnaît la théorie selon laquelle les entreprises peuvent nommer des femmes PDG lorsque l'organisation fonctionne mal, puis les remplacer par des PDG masculins pour récolter les bénéfices de la restructuration. Cependant, Karen n'a pas été en mesure d'arbitrer cette théorie jusqu'à présent. De plus, elle note que les cours des actions connaissent souvent une baisse après l'annonce d'un PDG, bien qu'elle ne sache pas si cette tendance diffère entre les femmes et les hommes PDG.

En conclusion, Karen souligne que l'élaboration d'une stratégie de trading quantitative pour les PDG implique de prendre en compte divers facteurs et de mener une analyse approfondie. Bien que son étude fournisse des informations précieuses sur la performance des femmes PDG, elle souligne la nécessité de poursuivre les recherches et l'exploration pour acquérir une compréhension plus complète de la dynamique des sexes dans le leadership exécutif et de son impact sur les résultats d'investissement.

  • 00:00:00 Dans cette section, l'intervenante se présente et présente son expérience d'écriture d'un algorithme pour investir sur le marché. En tant que vice-présidente des produits chez Quantiacs, un fonds spéculatif participatif, elle avait besoin d'écrire un algorithme pour comprendre ce que faisaient ses utilisateurs afin de pouvoir créer un logiciel efficace pour eux. Elle s'est intéressée à investir dans les femmes PDG après avoir lu le rapport sur l'égalité des sexes du Credit Suisse et s'est demandée si elle pouvait élaborer une stratégie qui s'intéressait aux femmes PDG par le passé et les vendait lorsqu'elles n'étaient plus PDG.

  • 00:05:00 Dans cette section, Karen Rubin parle des premières étapes qu'elle a franchies dans la construction d'une stratégie de trading quantitative. Elle avait besoin d'obtenir une liste historique de toutes les femmes PDG au cours d'une période spécifique afin de créer une simulation de ce qui s'est passé au fil du temps. Karen explique que l'obtention et le nettoyage des données ont pris une grande partie de son temps au cours des premières étapes du projet, car elle a dû rechercher et analyser manuellement les dates de début et de fin de chaque PDG et les symboles boursiers correspondants. Elle parle également des défis de s'assurer que les données de tarification étaient exactes et nettoyées avant de les analyser. Malgré la petite taille de l'échantillon, Karen a continué à faire avancer son étude.

  • 00:10:00 Dans cette section, Karen Rubin explique le processus de son back test en trading algorithmique et comment la simulation fonctionne dans sa stratégie. Elle simule sa stratégie comme si elle négociait sur le marché réel en parcourant des données historiques et en prenant des décisions d'achat et de vente pour elle en fonction de sa liste de femmes PDG. Elle compare sa première version de l'algorithme à une référence qui est le S&P 500. Cependant, elle réécrit plus tard sa stratégie avec l'aide de son quant résident en raison de son incapacité à prendre en compte l'effet de levier dans sa stratégie précédente.

  • 00: 15: 00 Dans cette section de la vidéo, Karen Rubin explique comment elle a rééquilibré sa stratégie de trading pour garantir un portefeuille pondéré égal dans toutes les entreprises. Son algorithme achète et vend des entreprises et calcule la valeur de son portefeuille pour s'assurer qu'elle ne perd pas d'argent ou n'a pas à emprunter de l'argent pour faire des achats à l'avenir. Elle discute également des commentaires qu'elle a reçus de la communauté Reddit et Hacker News qui s'est demandé si sa stratégie dépendait des cours des actions de Yahoo et d'Alibaba. Elle a retiré Yahoo de sa stratégie pour tester cette théorie et a constaté que même si cela avait un impact sur les rendements globaux, ce n'était pas la seule cause de ces rendements.

  • 00:20:00 Dans cette section, l'orateur explique comment éviter les biais sectoriels en créant un portefeuille sectoriel neutre. En divisant le montant du portefeuille par le nombre de secteurs, chaque entreprise de ce secteur obtient un investissement égal. Par exemple, si Healthcare compte trois entreprises, leur allocation serait divisée en tiers, tandis que Consumer Cyclical, qui compte environ 20 entreprises, recevrait chacune un vingtième du montant total alloué au secteur. Les rendements résultants de la stratégie de l'orateur sont de 275 %, tandis que l'indice de référence équipondéré rapporte 251 % et le S&P 500 renvoie 122 %. Alors que certains soutiennent que des indices de référence comme le S&P 500 ne sont pas philosophiquement précis car ses entreprises ne sont pas pondérées de la même manière, l'indice RSP Guggenheim Equal Weight S&P 500 fournit une meilleure référence à des fins de comparaison.

  • 00:25:00 Dans cette section, Karen Rubin discute des défis de trouver la bonne référence lorsqu'on investit dans les femmes PDG. Elle souligne que si l'indice de référence Fortune 1000 semble être le bon choix, l'achat de sa liste historique de constituants est coûteux. Au lieu de cela, elle crée le Quanto 1000, une nouvelle référence en classant toutes les entreprises par chiffre d'affaires et en sélectionnant les 1000 meilleures. En comparant les rendements de son algorithme au Quanto 1000 et au S&P 500, elle constate que l'algorithme a surpassé les deux autres références avec un 43% différence. Elle explore également un nouvel ensemble de données d'Event Fessor sur les changements de PDG, ce qui lui permet de créer des stratégies comparatives entre les PDG masculins et féminins. Les résultats montrent qu'une stratégie investissant dans les femmes PDG à la date de leur entrée en fonction et s'arrêtant à la date de leur départ a rapporté 28 % sur une période de sept ans, par rapport aux hommes PDG, qui ont rapporté 44 %.

  • 00:30:00 Dans cette section, Karen détaille les résultats de son étude sur les femmes PDG des entreprises Fortune 1000. L'analyse a montré que les femmes PDG reviennent à 68% tandis que les hommes PDG reviennent à 47%. Cependant, Karen pense que ses données ne montrent pas encore que les femmes PDG surpassent leurs homologues masculins. Elle pense que cette étude fournit une idée intéressante sur les femmes PDG dans les entreprises à haut revenu et à forte capitalisation boursière. Karen souhaite encourager la diversité dans le secteur de la finance et de la technologie et invite davantage de femmes à rejoindre le domaine. Elle croit en l'importance d'apporter des idées comme investir dans des femmes PDG pour créer un fonds diversifié.

  • 00: 35: 00 Dans cette section, l'orateur aborde divers facteurs pouvant influencer le succès des PDG, notamment leur sexe, leur recrutement interne ou externe et leur mois de naissance. Elle aborde également la théorie selon laquelle les entreprises feront appel à des femmes PDG lorsqu'elles obtiennent de mauvais résultats, puis les remplaceront par des hommes PDG pour récolter les bénéfices de la restructuration. Cependant, elle n'a pas été en mesure d'arbitrer cette théorie. De plus, elle note que les cours des actions baissent souvent après l'annonce d'un PDG, mais elle ne sait pas si cette tendance est différente pour les femmes PDG par rapport aux hommes PDG. Dans l'ensemble, de nombreux facteurs doivent être pris en compte lors de l'élaboration d'une stratégie de trading quantitative pour les PDG.
PyCon Canada 2015 - Karen Rubin: Building a Quantitative Trading Strategy (Keynote)
PyCon Canada 2015 - Karen Rubin: Building a Quantitative Trading Strategy (Keynote)
  • 2015.11.24
  • www.youtube.com
PyCon Canada 2015: https://2015.pycon.ca/en/schedule/67/Talk Description:Upon joining Quantopian, in order to understand her users better, Karen Rubin embark...
 

Webinaire sur l'apprentissage automatique pour le trading quantitatif avec le Dr Ernie Chan



Webinaire sur l'apprentissage automatique pour le trading quantitatif avec le Dr Ernie Chan

Le Dr Ernie Chan, une figure éminente de l'industrie financière, partage ses idées et ses expériences avec l'apprentissage automatique dans le trading. Il commence par réfléchir à ses premières tentatives d'application de l'apprentissage automatique au trading et reconnaît que cela n'a pas donné de bons résultats au départ. Le Dr Chan souligne l'importance de comprendre les limites de l'apprentissage automatique dans le trading, en particulier dans le trading des contrats à terme et des indices, où les données peuvent être insuffisantes.

Cependant, il souligne le potentiel de l'apprentissage automatique pour générer des stratégies de trading rentables lorsqu'il est appliqué à des actions technologiques individuelles, des données de carnet de commandes, des données fondamentales ou des sources de données non traditionnelles comme les actualités. Pour remédier aux limites de la disponibilité des données et du biais d'espionnage des données, le Dr Chan suggère d'utiliser des techniques de rééchantillonnage telles que le suréchantillonnage ou le bagging. Ces techniques peuvent aider à élargir l'ensemble de données, mais il est essentiel de préserver l'autocorrélation en série dans les données de séries chronologiques lors de leur utilisation pour des stratégies de trading.

La sélection des fonctionnalités joue un rôle essentiel dans le succès des applications d'apprentissage automatique dans le trading. Le Dr Chan souligne l'importance de réduire le biais d'échantillonnage des données en sélectionnant des caractéristiques ou des prédicteurs pertinents. Il explique que même si de nombreuses personnes pensent qu'il est préférable d'avoir plus de fonctionnalités, dans le commerce, un ensemble de données riche en fonctionnalités peut conduire à une autocorrélation erronée et à de mauvais résultats. Il discute de trois algorithmes de sélection de caractéristiques : la sélection de caractéristiques vers l'avant, les arbres de classification et de régression (CART) et la forêt aléatoire, qui aident à identifier les variables les plus prédictives.

Le Dr Chan se penche sur l'algorithme de classification des machines à vecteurs de support (SVM), qui vise à prédire les rendements futurs sur une journée et leur nature positive ou négative. SVM trouve un hyperplan pour séparer les points de données et peut nécessiter des transformations non linéaires pour une séparation efficace. Il aborde également d'autres approches d'apprentissage automatique, telles que les réseaux de neurones, mais souligne leurs limites dans la capture des fonctionnalités pertinentes et leur inadéquation au trading en raison de la nature non stationnaire des marchés financiers.

Le webinaire souligne également l'importance d'une fonction cible personnalisée dans une stratégie de trading. Le Dr Chan recommande des techniques telles que la régression par étapes, les arbres de décision et la régression par ensemble pour développer des modèles prédictifs. Il souligne l'importance de réduire la racine carrée du nombre de transactions pour obtenir une grande précision dans la protection des rendements. Le ratio de Sharpe est présenté comme une référence efficace pour évaluer l'efficacité de la stratégie, un ratio de deux ou plus étant considéré comme favorable.

Le Dr Chan fournit des informations précieuses sur l'application de l'apprentissage automatique dans le secteur financier, soulignant son potentiel dans certains domaines tout en mettant en garde contre ses limites. Il souligne l'importance de la sélection des fonctionnalités, du rééchantillonnage des données et de la sélection d'une fonction cible appropriée pour des applications d'apprentissage automatique réussies dans le commerce quantitatif.

  • 00:00:00 Dans cette section, le Dr Ernie Chan partage ses antécédents et ses expériences avec l'apprentissage automatique dans le secteur financier. Il explique comment il n'a pas réussi à appliquer l'apprentissage automatique au trading malgré son expertise dans le domaine et son travail pour des entreprises bien connues. Le Dr Chan partage que l'objectif de la conférence est d'expliquer les pièges de l'apprentissage automatique et pourquoi cela ne fonctionne pas dans le commerce, ainsi que comment cela peut fonctionner dans le commerce. Il note que lorsqu'il a commencé à utiliser l'apprentissage automatique dans le trading, il a commis l'erreur de penser que cela fonctionnerait sur les barres quotidiennes et d'utiliser des indicateurs techniques comme entrées, ce qui n'a finalement pas donné de bons résultats.

  • 00: 05: 00 Dans cette section, le Dr Ernie Chan discute des limites de l'utilisation d'algorithmes d'apprentissage automatique sur les contrats à terme et sur indices en raison de données insuffisantes et du risque de biais d'espionnage des données. Il pense que l'apprentissage automatique a plus de potentiel pour générer des stratégies de trading rentables lorsqu'il est appliqué à des actions technologiques individuelles, des données de carnet de commandes, des données fondamentales ou des données non traditionnelles telles que les actualités. Pour surmonter la limitation des données insuffisantes et du biais d'espionnage des données, le Dr Chan suggère d'utiliser des techniques de rééchantillonnage, telles que le suréchantillonnage ou le bagging. Bien que le rééchantillonnage puisse étendre l'ensemble de données, une attention particulière doit être accordée à la préservation de l'autocorrélation en série dans les données de séries chronologiques lors de l'utilisation de ces techniques pour les stratégies de trading.

  • 00: 10: 00 Dans cette section, le Dr Chan discute de l'utilisation des trigrammes dans l'apprentissage automatique, qui permet d'utiliser plusieurs jours comme entrée au lieu d'un seul jour pour préserver l'autocorrélation. Il souligne également l'importance de réduire le biais d'échantillonnage des données, ce qui peut être réalisé en réduisant le nombre de caractéristiques ou de prédicteurs. Alors que beaucoup de gens pensent qu'il est préférable d'avoir plus de fonctionnalités, ce n'est pas le cas dans le trading, car un ensemble de données riche en fonctionnalités est une malédiction en raison d'une fausse autocorrélation entre les fonctionnalités et la cible. Par conséquent, la sélection des fonctionnalités est essentielle et les algorithmes d'apprentissage automatique qui prennent en charge la sélection des fonctionnalités sont idéaux pour le trading. Le Dr Chan met en évidence trois de ces algorithmes, notamment la régression pas à pas, les forêts aléatoires et la régression LASSO. Il prévient que les réseaux de neurones et les algorithmes d'apprentissage en profondeur, qui ne sélectionnent pas les fonctionnalités mais prennent tout et les mélangent, ne sont pas idéaux pour le trading.

  • 00: 15: 00 Dans cette section, le Dr Ernie Chan discute de trois algorithmes de sélection de caractéristiques différents : la sélection de caractéristiques directes, les arbres de classification et de régression (CART) et la forêt aléatoire. La sélection directe des caractéristiques consiste à ajouter des caractéristiques aux modèles de régression linéaire une par une jusqu'à ce que l'algorithme identifie celles qui améliorent la prévisibilité. D'autre part, CART est similaire à un arbre de décision et fonctionne de manière hiérarchique avec des conditions imposées à chaque itération à des fins de classification. La forêt aléatoire est une technique qui peut être appliquée à différents algorithmes de classification en combinant le bagging avec un sous-espace aléatoire, ce qui implique un suréchantillonnage des données et un sous-échantillonnage des prédicteurs pour atteindre un équilibre entre les données et les caractéristiques. Le Dr Chan fournit un exemple de tableau avec des caractéristiques hypothétiques pour prédire le rendement de demain afin de mieux expliquer le concept.

  • 00: 20: 00 Dans cette section, le Dr Ernie Chan discute du processus de réduction de l'ensemble de fonctionnalités à l'aide d'algorithmes de classification tels que les arbres de régression de classification. Il explique qu'il existe de nombreuses techniques pour cela, comme le sous-échantillonnage ou l'utilisation d'informations mutuelles. Cependant, il précise que ces techniques sont les plus simples et les plus connues. À l'aide d'un échantillon représentatif des données, il démontre le fonctionnement de l'algorithme en identifiant quels indicateurs techniques sont utiles pour prédire les rendements futurs et quelles valeurs de ces indicateurs généreront des rendements positifs ou négatifs. Une fois qu'un sous-ensemble de données est classé, le processus est réitéré pour identifier d'autres variables pour une meilleure classification.

  • 00:25:00 Dans cette section, le Dr Ernie Chan explique que les algorithmes d'apprentissage automatique fonctionnent en trouvant des variables prédictives et des paramètres utiles pour le classifieur, et en itérant jusqu'à ce qu'aucune signification statistique ne soit trouvée. Les algorithmes d'apprentissage automatique sont souvent des systèmes de régression statistique avec plus de détails et de conditions sur les données. Il poursuit en discutant de l'algorithme de classification des machines à vecteurs de support, qui vise à prédire les rendements futurs d'une journée et s'ils seront positifs ou négatifs. L'algorithme essaie de trouver un hyperplan pour couper les données, mais souvent, une transformation non linéaire est nécessaire pour trouver une séparation. Cette transformation est essentielle pour que la machine à vecteurs de support fonctionne efficacement.

  • 00:30:00 Dans cette section, le Dr Chan discute de la nécessité de rééchantillonner les données s'il n'y a pas assez de données pour que l'algorithme d'apprentissage automatique puisse apprendre, bien que la quantité nécessaire soit relative au nombre de prédicteurs. Il explique comment les machines à vecteurs de support sont un moyen de classer les données, et bien qu'il s'agisse moins d'un algorithme de sélection de fonctionnalités que la régression pas à pas ou l'arbre de classification, le SVM trouve un hyperplan qui peut couper à travers n'importe quelle dimension. Il note que les réseaux de neurones sont une équation non linéaire et qu'ils ajustent les données avec une longue fonction linéaire monstre au lieu d'utiliser une fonction linéaire comme dans la régression et que l'apprentissage en profondeur est simplement un réseau de neurones avec de nombreuses couches mais très peu de nœuds par couche faisant il est plus facile de capturer des fonctionnalités par étapes.

  • 00:35:00 Dans cette section, le Dr Ernie Chan discute du concept d'utilisation d'un réseau de neurones pour le trading quantitatif. Il explique qu'un réseau de neurones est un outil puissant car il peut approximer n'importe quelle fonction non linéaire et est capable de prédire le rendement de demain compte tenu des variables d'aujourd'hui. Cependant, il note également que le réseau de neurones ne fonctionne pas bien dans le trading car les marchés financiers ne sont pas stationnaires et qu'il est difficile de capturer les caractéristiques pertinentes en utilisant cette approche. Il souligne que le réseau de neurones utilise toutes les entrées et ne sélectionne pas les caractéristiques, ce qui rend difficile la recherche de variables ayant un effet causal sur le marché.

  • 00:40:00 Dans cette section, le Dr Ernie Chan explique quand l'apprentissage automatique est utile aux commerçants. L'apprentissage automatique est utile lorsque les traders manquent d'intuition sur leurs données ou sur le marché, ou s'ils ne disposent pas d'un modèle mathématique de leurs données. De plus, l'apprentissage automatique peut aider les traders à développer leur intuition lorsqu'il y a trop de fonctionnalités ou lorsqu'ils ne savent pas quelles fonctionnalités sont importantes. Cependant, si les commerçants ont une bonne intuition et un modèle mathématique simple, il vaut mieux construire des modèles simples plutôt que d'utiliser l'apprentissage automatique. Les commerçants doivent également être prudents lorsqu'ils utilisent l'apprentissage automatique s'ils disposent de trop peu de données ou s'il y a eu des changements de régime sur leur marché, car un modèle de marché médiocre peut conduire à des algorithmes qui s'effondrent en cas de changement de régime.

  • 00:45:00 Dans cette section du webinaire, le Dr Ernie Chan explique l'importance d'utiliser des données stationnaires lors de l'application de techniques d'apprentissage automatique dans le trading quantitatif. Il note que de nombreux tests statistiques et techniques peuvent être utilisés pour déterminer la stationnarité d'un ensemble de données, mais les résultats peuvent souvent être ambigus. Le Dr Chan discute également de son scepticisme quant à l'efficacité de l'apprentissage par renforcement et de l'apprentissage en profondeur dans le trading en raison du manque de réplication hors échantillon réussie. De plus, il souligne la nécessité d'une fonction cible personnalisée dans une stratégie de trading et suggère l'utilisation de techniques telles que la régression par ensemble ou les arbres de décision pour la modélisation prédictive.

  • 00: 50: 00 Dans cette section, le Dr Ernie Chan discute de la sélection de la fonction cible dans l'apprentissage automatique pour le trading quantitatif et explique que la disponibilité des données détermine la sélection de la fonction cible. Si la fonction cible est un rendement sur un mois, les rendements quotidiens deviennent l'entrée et la sélection de la variable cible doit correspondre à l'échelle de temps de la variable prédictive. Le Dr Chan explique également la différence entre Adam et les méthodes d'apprentissage en profondeur, déclarant que l'apprentissage en profondeur fait moins de bien dans la sélection des fonctionnalités. En outre, la section plonge dans la définition de différents régimes et comment on peut les définir en fonction de leurs critères préférés. Enfin, le Dr Chan souligne que le nombre de transactions en trading quantitatif n'est pas le facteur déterminant du succès.

  • 00: 55: 00 Dans cette section, le Dr Ernie Chan explique comment la réduction de la racine carrée de n à un nombre gérable est cruciale pour obtenir une grande précision dans la protection du rendement. Il explique que l'erreur est proportionnelle à la racine carrée du nombre de transactions et que le ratio de Sharpe est une excellente mesure de la signification statistique car il intègre ce concept dans sa construction. Une stratégie avec un ratio de Sharpe de deux ou plus est considérée comme efficace. Bien que la dernière question mentionnée par Christophe soit peut-être trop technique, le Dr Chan pense que le ratio de Sharpe est une bonne référence pour l'efficacité d'une stratégie.
Machine Learning for Quantitative Trading Webinar with Dr. Ernie Chan
Machine Learning for Quantitative Trading Webinar with Dr. Ernie Chan
  • 2017.03.28
  • www.youtube.com
Quantitative trading and algorithmic trading expert Dr. Ernie Chan teaches you machine learning in quantitative finance. You will learn:1) The pros and cons ...