Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Rama Cont et Francesco Capponi : « Impact croisé sur les marchés boursiers »
Rama Cont et Francesco Capponi : « Impact croisé sur les marchés boursiers »
Rama Cont et Francesco Capponi se penchent sur le concept d'impact croisé sur les marchés boursiers à travers leur analyse des flux d'ordres et des données sur les prix. Ils affirment que l'impact croisé signifie que le prix d'un actif est influencé non seulement par son propre flux d'ordres, mais également par le flux d'ordres d'autres actifs. Alors que des études théoriques antérieures ont tenté de déduire les conséquences des effets d'impact croisé et d'étendre les modèles d'exécution optimale des transactions à un seul actif à plusieurs actifs, Cont et Capponi proposent une approche plus simplifiée pour expliquer les corrélations entre les rendements des actifs et le flux d'ordres.
Ils soutiennent qu'une matrice complète des coefficients d'impact sur les prix n'est pas nécessaire pour tenir compte de ces corrélations. Au lieu de cela, ils soutiennent que les corrélations observées peuvent être attribuées au fait que les acteurs du marché s'engagent souvent dans la négociation de plusieurs actifs, générant ainsi des déséquilibres corrélés des flux d'ordres entre les actifs. Pour identifier l'importance des coefficients d'impact croisé et les principaux moteurs des coûts d'exécution, les présentateurs suggèrent d'utiliser une analyse en composantes principales (ACP) sur les matrices de corrélation des rendements et des déséquilibres des flux d'ordres.
Cont et Capponi proposent un modèle parcimonieux d'impact croisé sur les marchés boursiers, en se concentrant sur le solde des flux d'ordres d'une action et la corrélation des déséquilibres des flux d'ordres. Ils constatent qu'un modèle à un facteur pour le déséquilibre des flux d'ordres est suffisant pour expliquer les corrélations croisées des rendements. Ce modèle peut être utilisé pour l'exécution du portefeuille et l'analyse des coûts de transaction, les présentateurs recommandant l'utilisation d'un modèle fiable pour l'impact sur un seul actif couplé à un bon modèle pour les facteurs communs dans le flux d'ordres entre les actifs.
Les conférenciers soulignent l'importance d'établir un modèle causal et une interprétation de l'équation. Ils expriment leur volonté de partager du matériel supplémentaire et des mises à jour, soulignant leur engagement à faire progresser la compréhension dans ce domaine de recherche.
Adam Grealish : "Une approche algorithmique de l'investissement personnel"
Adam Grealish : "Une approche algorithmique de l'investissement personnel"
Adam Grealish, directeur des investissements chez Betterment, donne un aperçu de l'approche algorithmique de l'entreprise en matière d'investissement personnel et de sa stratégie basée sur les objectifs. Betterment utilise un modèle de robot-conseil, tirant parti d'algorithmes et d'une intervention humaine minimale pour fournir des conseils en investissement et une gestion à ses clients.
Grealish met en évidence trois facteurs clés qui déterminent les résultats des investissements : le maintien des coûts bas, l'optimisation fiscale et le commerce intelligent. Bien que tous les facteurs soient importants, Betterment met fortement l'accent sur les trois premiers. La société utilise la technique d'optimisation Black Litterman pour construire des portefeuilles diversifiés à l'échelle mondiale et surveille en permanence les pondérations cibles sur sa vaste clientèle d'un demi-million de personnes. L'optimisation fiscale, y compris des stratégies telles que la récolte des pertes fiscales, la localisation des actifs et le tri des lots, offre des opportunités de surperformer le marché.
Dans la deuxième partie de sa discussion, Grealish distingue l'approche de Betterment des conseillers financiers automatisés traditionnels. Contrairement à l'approche « taille unique » des robots-conseillers traditionnels, l'approche algorithmique de Betterment prend en compte des facteurs individuels tels que les objectifs, l'horizon temporel et la tolérance au risque. Cette personnalisation permet des portefeuilles personnalisés adaptés à la situation unique de chaque investisseur. Betterment offre également des fonctionnalités supplémentaires telles que la collecte des pertes fiscales et des portefeuilles coordonnés sur le plan fiscal pour maximiser l'efficacité fiscale et augmenter les rendements.
Grealish approfondit davantage les spécificités des stratégies d'investissement de Betterment. La société encourage la stabilité de l'allocation à long terme, n'ajustant les portefeuilles qu'une fois par an pour se rapprocher de l'allocation cible. Ils utilisent des algorithmes de rééquilibrage basés sur des déclencheurs pour gérer la dérive par rapport à l'allocation cible et minimiser les risques. Les portefeuilles de Betterment sont construits à l'aide d'ETF basés sur une large capitalisation boursière, optimisant l'exposition aux classes d'actifs risquées avec les primes de risque associées.
L'optimisation des coûts est un aspect important de la philosophie d'investissement de Betterment. La société profite de la tendance à la baisse des frais sur les ETF, passant en revue l'ensemble de l'univers des ETF sur une base trimestrielle. Le processus de sélection prend en compte des facteurs autres que le ratio des dépenses, y compris l'erreur de suivi et les coûts de négociation, ce qui se traduit par des portefeuilles à faible coût pour les clients de Betterment.
L'optimisation fiscale est un autre élément crucial de la stratégie de Betterment. Grealish explique l'importance de la gestion fiscale et décrit trois stratégies efficaces : la récolte des pertes fiscales, la localisation des actifs et le tri des lots. La récolte des pertes fiscales consiste à vendre des titres à perte pour réaliser des pertes en capital à des fins fiscales, tandis que la localisation des actifs maximise les rendements après impôt en répartissant stratégiquement les actifs entre les comptes. Le tri des lots consiste à vendre les lots les plus déficitaires en premier pour optimiser les avantages fiscaux.
Grealish reconnaît l'impact du comportement des investisseurs sur les résultats d'investissement. Betterment combat les comportements négatifs en mettant en œuvre des valeurs par défaut intelligentes, en utilisant l'automatisation et en encourageant l'investissement basé sur des objectifs. La société utilise une conception intentionnelle et une analyse des données pour inciter les utilisateurs à agir lorsqu'ils s'écartent de leurs objectifs financiers.
En termes de développements futurs, Grealish discute des utilisations potentielles de l'IA dans l'espace fintech. Betterment explore les applications de l'IA pour automatiser les tâches financières telles que le conseil robotique et la gestion de trésorerie. La société vise à rendre les services financiers qui étaient auparavant réservés aux particuliers et aux institutions fortunés accessibles à un public plus large. Cependant, la complexité de l'individualisation de la préparation des déclarations pose des défis dans ce domaine.
Dans l'ensemble, Adam Grealish fournit des informations précieuses sur l'approche algorithmique de Betterment en matière d'investissement personnel, en mettant l'accent sur les stratégies basées sur les objectifs, l'optimisation des coûts, la gestion fiscale et l'atténuation des comportements.
Miquel Noguer i Alonso : "Derniers développements en Deep Learning en finance"
Miquel Noguer i Alonso : "Derniers développements en Deep Learning en finance"
Dans cette vidéo complète, Miquel Noguer i Alonso explore le potentiel de l'apprentissage en profondeur dans le domaine de la finance, malgré les complexités inhérentes et la nature empirique de l'industrie. L'apprentissage en profondeur offre des capacités précieuses pour capturer les relations non linéaires et reconnaître les modèles récurrents, en particulier dans les données non structurées et les applications financières. Cependant, il présente également des défis tels que le surajustement et une efficacité limitée dans des situations non stationnaires. Pour relever ces défis, l'intégration des facteurs, l'analyse des sentiments et le traitement du langage naturel peuvent fournir des informations précieuses aux gestionnaires de portefeuille traitant de grandes quantités de données. Il est important de noter qu'il n'existe pas de modèle unique et que les réseaux de neurones profonds ne doivent pas remplacer les modèles de référence traditionnels. De plus, Alonso souligne l'importance de BERT, un modèle de langage open source et très efficace qui démontre une compréhension approfondie des chiffres dans les textes financiers, ce qui le rend particulièrement précieux pour les ensembles de données financières.
Tout au long de la vidéo, Alonso partage des informations importantes et discute de divers aspects de l'utilisation des modèles d'apprentissage en profondeur dans la finance. Il explore la transformation des données financières en images à des fins d'analyse à l'aide de réseaux de neurones convolutifs, l'utilisation d'auto-encodeurs pour la compression non linéaire des données et l'application de réseaux de mémoire pour l'analyse de séries chronologiques. La collaboration entre les experts du domaine et les praticiens de l'apprentissage automatique est considérée comme un facteur essentiel pour résoudre efficacement les problèmes liés aux finances à l'aide de techniques d'apprentissage en profondeur.
Alonso se penche sur les défis rencontrés lors de l'utilisation de l'apprentissage en profondeur dans la finance, tels que la nature dynamique du processus de génération de données et la nécessité de développer des modèles capables de s'adapter à ces changements. Il met en évidence les concepts de la théorie de l'information, de la complexité et de la compression de l'information pour trouver la représentation la plus concise. Le théorème d'approximation universel est discuté, mettant l'accent sur la capacité des réseaux de neurones profonds à approximer n'importe quelle fonction avec une précision arbitraire, mais la généralisation n'est pas garantie. Le conférencier recommande une exploration plus approfondie des articles de recherche sur la régularisation, les dimensions intrinsèques des réseaux de neurones et les réseaux de neurones sur-paramétrés.
L'orateur aborde également l'idée d'un régime d'interpolation, où les réseaux de neurones profonds peuvent découvrir des classes de fonctions plus larges qui identifient des fonctions d'interpolation avec des normes plus petites. Ils discutent des aspects qualitatifs des réseaux de neurones profonds, en insistant sur l'importance variable des différentes couches et leur rôle dans la prédiction des séries chronologiques. Cependant, il est souligné que les modèles linéaires servent toujours de références et que les résultats des modèles d'apprentissage en profondeur doivent leur être comparés.
Alonso fournit des informations sur les performances des modèles d'apprentissage en profondeur en finance, en présentant les résultats de l'utilisation de réseaux de mémoire à long terme avec plusieurs actions et en démontrant leur supériorité sur d'autres réseaux de neurones. Il a été démontré que les modèles d'apprentissage en profondeur surpassent les modèles linéaires dans la sélection des meilleures actions du S&P 500, ce qui se traduit par de meilleurs ratios d'information hors échantillon. L'orateur souligne que l'apprentissage en profondeur fonctionne toujours bien et peut être un choix fiable lors de la sélection d'un modèle.
Les facteurs jouent un rôle crucial dans les modèles d'apprentissage en profondeur pour la finance, permettant l'exploration des relations non linéaires avec les rendements. L'utilisation de la non-linéarité distingue cette approche des exercices de séries temporelles pures. L'orateur souligne également l'importance de la sélection des paramètres pendant la période de formation et met en garde contre l'hypothèse selon laquelle l'utilisation de plus de données conduit toujours à une meilleure précision. Il est important de noter que ces modèles n'intègrent pas les coûts ou les considérations réelles, car ils sont principalement destinés à des fins de recherche basées sur des données historiques.
L'orateur clarifie l'objet de son article, soulignant que l'intention n'est pas de prétendre que les réseaux de neurones profonds sont supérieurs, mais plutôt de souligner la nécessité de les utiliser parallèlement aux modèles de référence traditionnels. L'importance de capturer les relations non linéaires et de comprendre les cycles récurrents est discutée, ainsi que la nécessité de prendre en compte des paramètres tels que la fenêtre d'apprentissage. Les réseaux de neurones profonds peuvent fournir des informations uniques dans des scénarios spécifiques en capturant des effets de second ou troisième ordre que les modèles linéaires peuvent ignorer. Cependant, il est souligné qu'il n'existe pas de modèle universel et que les réseaux de neurones profonds devraient compléter les modèles de référence existants plutôt que de les remplacer.
L'application du traitement du langage naturel, en particulier l'analyse des sentiments, en finance est également explorée. Compte tenu de la grande quantité d'informations générées sur les marchés, les outils de mégadonnées sont essentiels pour enquêter et analyser des espaces de grande dimension. L'apprentissage automatique, en particulier l'apprentissage en profondeur, s'avère précieux pour relever ces défis. Les modèles de langage peuvent être exploités pour des tâches telles que l'analyse des sentiments, qui peuvent fournir des informations sur la dynamique du marché. Le scraping d'Internet s'est avéré être une approche efficace pour détecter les changements d'informations qui peuvent indiquer des changements sur le marché. Dans l'ensemble, le traitement du langage naturel offre des informations précieuses aux gestionnaires de portefeuille traitant de gros volumes de données.
Dans la vidéo, le conférencier se penche sur les deux approches de l'analyse des sentiments en finance. La méthode traditionnelle consiste à compter la fréquence des mots positifs et négatifs, tandis que l'approche plus avancée utilise l'apprentissage en profondeur et les intégrations de mots pour saisir la signification contextuelle et sémantique des mots. Le conférencier met en évidence l'efficacité de la représentation de l'encodeur bidirectionnel à partir des transformateurs (BERT), un modèle de langage de pointe qui offre une représentation plus précise et efficace des mots. La capacité du BERT à comprendre les chiffres dans les textes financiers est particulièrement cruciale pour une analyse financière précise. D'autres approximateurs de fonctions comme les perceptrons multicouches, les réseaux de mémoire et les covnets sont également mentionnés comme des outils utiles en finance.
De plus, le conférencier discute du concept de transformation des données financières en images et de l'utilisation de réseaux de neurones convolutifs pour l'analyse. Cette approche s'avère particulièrement bénéfique pour les problèmes d'apprentissage non supervisé. L'utilisation d'auto-encodeurs pour la compression de données non linéaires et de réseaux de mémoire pour l'analyse de séries temporelles est introduite. Les réseaux de mémoire peuvent convenir à l'analyse de données de séries chronologiques si l'environnement est suffisamment stable. En outre, l'orateur aborde l'utilisation des modèles de transformateur pour le traitement du langage en finance et donne un aperçu de leur mise en œuvre à l'aide de TensorFlow.
En ce qui concerne la mise en œuvre de modèles d'apprentissage profond open source en finance, l'orateur souligne que si une formation spécifique pour les applications financières peut être nécessaire, il s'agit d'un objectif réalisable en raison de l'abondance de code open source disponible. La collaboration entre les experts du domaine et les apprenants automatiques est cruciale pour résoudre les problèmes liés aux finances, car il existe de nombreuses opportunités pour tirer parti de l'apprentissage automatique sur le terrain. L'orateur note que si des approches artisanales de traitement du langage naturel sont actuellement utilisées dans la finance, les modèles d'apprentissage en profondeur doivent encore être largement adoptés dans l'industrie.
La vidéo se penche également sur les méthodes traditionnelles de contrôle artisanal en finance, où les individus utilisent des dictionnaires pour décrire des entités telles que JP Morgan tout en s'assurant qu'il n'y a pas de fautes de frappe. L'efficacité de divers algorithmes d'apprentissage automatique, tels que les réseaux de mémoire longue à court terme et BERT, est discutée. BERT est considéré comme l'état de l'art dans la recherche publiée. Le potentiel de l'apprentissage automatique pour les investissements transversaux est également exploré, suggérant l'utilisation de facteurs ou de rendements pour aider les machines à interpréter les rendements plats ou les facteurs.
Abordant la difficulté de trouver des valeurs optimales dans l'apprentissage en profondeur, l'orateur reconnaît qu'il peut s'agir d'un problème NP. Les scientifiques des données humaines expérimentés et intuitifs doivent faire des choix heuristiques en fonction de leur expertise. Le défi de comprendre et d'interpréter les réseaux de neurones profonds est mis en évidence, car même les mathématiciens ont du mal à formuler des équations pour expliquer leurs performances exceptionnelles. L'analyse qualitative est souvent utilisée dans de tels cas. Cependant, au fil du temps et après avoir travaillé avec divers ensembles de données, les scientifiques des données peuvent développer une intuition pour sélectionner les paramètres les plus appropriés pour des situations spécifiques.
Gordon Ritter : "Apprentissage par renforcement et découverte d'opportunités d'arbitrage"
Gordon Ritter : "Apprentissage par renforcement et découverte d'opportunités d'arbitrage"
Dans cette vidéo, Gordon Ritter explore l'application de l'apprentissage par renforcement dans le contexte des marchés financiers, en se concentrant spécifiquement sur la découverte d'opportunités d'arbitrage dans le trading de produits dérivés. Il souligne l'importance d'une planification et d'une stratégie complexes sur plusieurs périodes face à l'incertitude. Ritter démontre l'utilisation de fonctions de valeur pour guider la recherche de politiques optimales et propose une fonction de récompense qui combine un incrément sur une seule période avec une constante multipliée par le carré de l'écart par rapport à la moyenne.
Ritter discute du processus de création d'une simulation qui inclut une opportunité d'arbitrage sans indiquer explicitement à la machine où la trouver. Il met en évidence l'utilisation de simulations stochastiques pour modéliser les marchés financiers et suggère qu'avec suffisamment de données, un agent formé par apprentissage par renforcement peut identifier l'arbitrage de marché. Cependant, il reconnaît les limites de l'apprentissage par renforcement, telles que le surapprentissage et les défis liés à la gestion de scénarios imprévus. Des tests supplémentaires, tels que l'exploration de stratégies de trading de neutralité gamma, sont proposés pour étendre les capacités des agents formés.
La vidéo comprend une analyse de la performance d'un agent d'apprentissage par renforcement par rapport à un agent de référence dans la couverture des produits dérivés. L'agent formé démontre des économies de coûts importantes tout en maintenant une fourchette similaire de volatilité réalisée, démontrant sa capacité à faire des compromis entre le coût et le risque. Ritter discute de la pertinence des fonctions de valeur dans l'apprentissage par renforcement pour le trading de dérivés, car les prix des dérivés eux-mêmes peuvent être considérés comme une forme de fonction de valeur.
Ritter souligne également l'importance de construire des vecteurs d'état et des espaces d'action appropriés dans l'apprentissage par renforcement. L'inclusion d'informations pertinentes dans le vecteur d'état et la définition d'actions appropriées sont essentielles pour une prise de décision efficace. Il présente l'utilisation des processus d'Ornstein et Limbic comme moyen de modéliser la dynamique de retour à la moyenne, ce qui peut potentiellement conduire à des opportunités d'arbitrage.
En outre, la vidéo traite des défis liés à l'utilisation des rendements à court terme pour les opportunités de trading et des limites des espaces d'états finis. Ritter suggère d'utiliser des espaces d'états continus et des méthodes d'approximation de fonctions, telles que des arbres modèles et des réseaux de neurones, pour relever ces défis et améliorer l'estimation des fonctions de valeur.
Enfin, Ritter reconnaît que si l'apprentissage par renforcement peut être un outil précieux pour découvrir des opportunités d'arbitrage, ce n'est pas une approche garantie dans le trading réel. Il conclut en soulignant le potentiel de l'apprentissage par renforcement pour découvrir des transactions rentables grâce à des systèmes stochastiques, mais met en garde contre le fait de s'attendre à ce qu'il trouve des opportunités d'arbitrage si elles n'existent pas sur le marché. Les limites de l'apprentissage par renforcement, y compris le surajustement et son incapacité à gérer des scénarios imprévus, sont également reconnues.
Marcos Lopez de Prado : "Les 7 raisons pour lesquelles la plupart des fonds d'apprentissage automatique échouent"
Marcos Lopez de Prado : "Les 7 raisons pour lesquelles la plupart des fonds d'apprentissage automatique échouent"
Marcos Lopez de Prado a fait une présentation complète décrivant les raisons de l'échec de la plupart des fonds d'apprentissage automatique dans le secteur financier. Il a souligné l'importance de plusieurs facteurs clés qui contribuent au succès dans ce domaine.
L'un des principaux facteurs mis en évidence par de Prado était l'absence d'une théorie bien formulée sur les fonds discrétionnaires. Il a noté que de nombreuses conversations sur l'investissement manquent d'une approche constructive et abstraite en raison de l'absence d'une base théorique solide. Sans théorie pour guider la prise de décision, les fonds discrétionnaires ont du mal à interagir avec les autres et à tester leurs idées, ce qui entraîne de mauvais choix et des pertes potentielles.
De Prado a également discuté des effets néfastes du travail dans des silos isolés au sein de fonds d'apprentissage automatique. Il a souligné que la collaboration et la communication sont essentielles au succès, mettant en garde contre l'embauche de nombreux docteurs et leur séparation en tâches distinctes. Au lieu de cela, il a plaidé pour une approche basée sur l'équipe où les spécialistes travaillent de manière indépendante mais possèdent une connaissance de l'expertise de chacun, conduisant à de meilleures stratégies et résultats.
La spécialisation au sein de l'équipe était un autre aspect crucial souligné par de Prado. Il a souligné l'importance de constituer un groupe de spécialistes capables de gérer des systèmes et des tâches complexes. Ces experts doivent posséder des compétences indépendantes tout en comprenant la stratégie globale et en connaissant les domaines d'expertise de leurs collègues. Ce paradigme de méta-stratégie est précieux non seulement pour développer des stratégies efficaces, mais aussi pour prendre des décisions éclairées dans des situations incertaines, y compris l'embauche, la surveillance des investissements et la définition de critères d'arrêt.
La bonne gestion des données financières était un autre facteur clé discuté par de Prado. Il a souligné la nécessité de parvenir à la stationnarité des données tout en préservant les informations précieuses. Il a suggéré de différencier les données par fraction pour conserver les informations de mémoire des observations précédentes, permettant des prédictions critiques à des points spécifiques. De plus, il a conseillé d'utiliser un seuil spécifique pour obtenir une corrélation presque parfaite entre les séries stationnaires et originales sans utiliser de mémoire excessive. De Prado a mis en garde contre l'utilisation des rendements dans les cas où il n'y a pas de contrats à terme liquides, recommandant l'utilisation d'une seule observation dans la plupart des scénarios.
La fréquence d'échantillonnage et l'étiquetage approprié des données ont également été abordés par de Prado. Il a proposé de baser la fréquence d'échantillonnage sur l'arrivée d'informations sur le marché plutôt que de s'appuyer sur des méthodes conventionnelles telles que des observations quotidiennes ou minutieuses. En utilisant des techniques telles que les barres en dollars qui échantillonnent en fonction du volume de transactions, on peut s'assurer que des quantités égales d'informations sont incluses dans l'échantillon. Un étiquetage approprié des observations, comme l'utilisation de la méthode Touch Barrier Labeling, permet de développer des stratégies conscientes des risques, en tenant compte de la dynamique des prix et de la possibilité d'être arrêté.
Le concept de méta-apprentissage, où un modèle d'apprentissage automatique prédit l'exactitude des prédictions d'un autre modèle, a été discuté comme un moyen d'atteindre la précision et le rappel. En composant deux modèles distincts, on peut équilibrer le compromis entre précision et rappel en utilisant la moyenne harmonique. De Prado a recommandé d'utiliser différents algorithmes d'apprentissage automatique pour des tâches distinctes afin d'optimiser les performances.
De Prado a souligné les défis de l'application de l'apprentissage automatique dans la finance, soulignant la nécessité pour les experts humains de filtrer les données avant d'utiliser des algorithmes d'apprentissage automatique. Les données financières sont intrinsèquement désordonnées et non-id, ce qui rend difficile de lier des observations spécifiques aux actifs. De plus, les changements constants des marchés financiers en raison des réglementations et des lois nécessitent une approche prudente et nuancée pour la mise en œuvre des algorithmes d'apprentissage automatique. Le simple fait de brancher des données financières dans un modèle d'apprentissage automatique n'est pas suffisant pour réussir en finance.
Aborder les problèmes de non-unicité et de surajustement était un autre aspect important de la présentation de de Prado. Il a proposé une méthodologie pour déterminer le caractère unique des observations, recommandant la suppression des observations qui contiennent des informations plus anciennes que celles partagées avec l'ensemble de test, un processus connu sous le nom de "purge". Cela permet de créer des modèles d'apprentissage automatique plus précis en s'alignant sur les hypothèses des techniques de validation croisée. De Prado a également mis en garde contre les dangers du surajustement, soulignant que les stratégies de backtesting répétées peuvent conduire à des faux positifs et à une utilité décroissante au fil du temps. Compte tenu du nombre d'essais impliqués dans la découverte de stratégies, il est crucial d'éviter le surajustement et les faux positifs. De Prado a conseillé de fixer un seuil élevé pour la performance des stratégies visant à atténuer les risques associés au surajustement.
Le concept de «fraise dégonflée» a été introduit par de Prado, illustrant que de nombreux fonds spéculatifs présentent une asymétrie négative et un excès d'aplatissement positif, même si les gestionnaires de fonds n'ont pas intentionnellement ciblé ces caractéristiques. Cela est principalement dû au fait que les gestionnaires de fonds sont évalués sur la base du ratio de Sharpe, et ces propriétés statistiques peuvent gonfler le ratio. De Prado a souligné l'importance de tenir compte de la taille de l'échantillon et du nombre d'essais impliqués dans la production d'une découverte lors de l'analyse des rendements. Il a mis en garde contre l'investissement dans des stratégies ayant une faible probabilité d'atteindre un véritable ratio de Sharpe supérieur à zéro.
La réalisation d'un équilibre entre l'ajustement du modèle et le surajustement a été soulignée par de Prado. Il a déconseillé de rechercher un ajustement parfait, car cela peut conduire à un excès de confiance et à un risque accru. Au lieu de cela, il a recommandé de trouver un moyen de préserver les souvenirs importants tout en appliquant efficacement des modèles statistiques. De Prado a également mis en garde contre l'utilisation de modèles trop compliqués, car ils peuvent entraver l'alimentation des données et la pollinisation croisée, entravant l'efficacité globale des algorithmes d'apprentissage automatique.
De Prado a abordé le phénomène dans l'industrie où certains traits ou mesures deviennent préférés, conduisant à une convergence des stratégies. En le comparant à l'élevage de chiens, où la préférence humaine et l'esthétique façonnent certains traits, il a expliqué comment l'utilisation de mesures spécifiques, telles que la combinaison du ratio de Sharpe et de l'asymétrie négative, est devenue privilégiée dans les fonds spéculatifs, même si elle n'était pas initialement ciblé. S'attaquer à ce phénomène s'avère difficile, car il se produit sans événement déclencheur spécifique.
En outre, de Prado a souligné l'importance d'utiliser des données récentes sur les prix lors des prévisions, car elles sont plus pertinentes pour l'avenir immédiat. Il a recommandé d'utiliser la décroissance exponentielle du poids pour déterminer la longueur de l'échantillon lors de l'utilisation de toutes les données disponibles. En outre, il a souligné l'importance de contrôler le nombre d'essais et d'éviter les environnements de travail isolés comme des pièges courants conduisant à l'échec des fonds d'apprentissage automatique. Il a noté que la finance diffère des autres domaines où l'apprentissage automatique a fait des progrès significatifs, et l'embauche de statisticiens n'est peut-être pas toujours l'approche la plus efficace pour développer des algorithmes de trading performants.
En résumé, la présentation de Marcos Lopez de Prado a mis en lumière les raisons pour lesquelles la plupart des fonds d'apprentissage automatique échouent dans le secteur financier. Il a souligné la nécessité d'une théorie bien formulée, d'une collaboration d'équipe, d'une spécialisation, d'une gestion et d'une différenciation appropriées des données financières, d'un échantillonnage et d'un étiquetage appropriés, de la résolution de problèmes tels que la non-unicité et le surajustement, et de l'intégration de l'expertise humaine dans la mise en œuvre d'algorithmes d'apprentissage automatique. En comprenant ces facteurs et en adoptant une approche prudente et nuancée, les praticiens peuvent augmenter les chances de succès dans le monde dynamique et complexe de la finance.
Irene Aldridge : "Risque en temps réel dans l'optimisation de portefeuille à long terme"
Irene Aldridge : "Risque en temps réel dans l'optimisation de portefeuille à long terme"
Irene Aldridge, présidente et directrice générale d'Able Alpha Trading, livre une discussion approfondie sur l'impact du trading à haute fréquence (HFT) sur les gestionnaires de portefeuille à long terme et les changements systémiques du marché qui affectent l'ensemble du secteur. Elle explore l'automatisation croissante de la finance, stimulée par les progrès du Big Data et de l'apprentissage automatique, et ses implications pour l'optimisation du portefeuille. En outre, Aldridge se penche sur les défis et les opportunités présentés par les données de volume intrajournalières et propose une approche étape par étape qui intègre l'identification des risques en temps réel à l'aide de mégadonnées. Elle préconise une stratégie d'optimisation de portefeuille plus nuancée qui intègre des facteurs microstructuraux et suggère l'utilisation de facteurs comme mesure défensive. Aldridge aborde également le cycle de vie de trois ans des stratégies quantitatives, le potentiel de la réalité virtuelle et de l'automatisation dans l'analyse des données, et l'application d'une matrice informatique dans l'optimisation de portefeuille.
Tout au long de sa présentation, Aldridge remet en question l'idée fausse selon laquelle le trading à haute fréquence n'a aucun impact sur les gestionnaires de portefeuille à long terme. Elle soutient que les changements systémiques du marché affectent toutes les stratégies d'investissement, quel que soit leur horizon temporel. S'appuyant sur son expertise en génie électrique, en développement de logiciels, en gestion des risques et en finance, Aldridge souligne l'importance d'explorer de nouveaux domaines tels que l'évaluation des risques en temps réel et l'optimisation du portefeuille.
Aldridge souligne l'évolution significative vers l'automatisation dans le secteur financier, notant que le trading manuel a cédé la place à des systèmes automatisés dans les domaines des actions, des changes, des titres à revenu fixe et des matières premières. Pour rester pertinents, les acteurs de l'industrie ont adopté les mégadonnées et les techniques d'apprentissage automatique. Cependant, elle reconnaît la résistance initiale de certains commerçants qui craignaient que l'automatisation ne rende leur expertise obsolète.
Le conférencier explore l'évolution des mégadonnées et son rôle dans l'optimisation du portefeuille. Elle souligne que la disponibilité de grandes quantités de données structurées et non structurées a révolutionné le paysage financier. Aldridge explique comment des techniques telles que la décomposition en valeurs singulières (SVD) permettent le traitement de grands ensembles de données pour extraire des informations précieuses. La SVD est de plus en plus utilisée pour automatiser l'allocation de portefeuille, dans le but d'incorporer autant de données que possible pour éclairer les décisions d'investissement.
Aldridge se penche sur le processus de réduction des dimensions des données à l'aide de la décomposition en valeurs singulières. En traçant les valeurs singulières dérivées de ce processus, les chercheurs peuvent identifier les vecteurs qui contiennent des informations importantes tout en traitant les vecteurs restants comme du bruit. Cette technique peut être appliquée à divers ensembles de données financières, notamment la capitalisation boursière, le bêta, les prix et la volatilité intrajournalière. L'ensemble de données réduit qui en résulte fournit des indications fiables à des fins de recherche et aide à identifier les facteurs cruciaux pour l'optimisation du portefeuille à long terme.
Le conférencier discute des facteurs communs utilisés par les analystes de portefeuille, tels que le prix, le risque de marché (bêta), la capitalisation boursière et le rendement des dividendes. L'activité institutionnelle est également un facteur important, et Aldridge met en évidence l'utilisation des mégadonnées pour analyser les données sur les tiques et détecter les modèles. La reconnaissance de l'activité institutionnelle fournit des signaux visibles aux acteurs du marché, ce qui entraîne une augmentation du volume et une exécution favorable.
Aldridge fait la distinction entre les stratégies HFT agressives et passives et leur impact sur la liquidité. Les stratégies HFT agressives, caractérisées par des annulations d'ordres, peuvent éroder la liquidité et contribuer au risque, tandis que les stratégies HFT passives, telles que la tenue de marché, peuvent réduire la volatilité en fournissant de la liquidité. Elle note la préférence pour le prix moyen pondéré en fonction du volume par les investisseurs institutionnels et l'utilisation de prix moyens pondérés dans le temps sur certains marchés, tels que les changes, où les informations sur le volume ne sont pas toujours disponibles.
Le conférencier aborde les défis posés par les données de volume intrajournalières, compte tenu de la multitude d'échanges, des intervalles de temps qui se rétrécissent et de la nécessité de déterminer la meilleure entreprise et la meilleure offre parmi plusieurs échanges. Malgré ces défis, Aldridge voit d'importantes opportunités d'innovation et de recherche supplémentaire dans le découpage et l'analyse des données de volume intrajournalier. Elle mentionne le processeur d'informations de sécurité (SIP) géré par la SEC, qui regroupe les ordres à cours limité de plusieurs bourses, mais reconnaît le défi permanent de concilier et de résoudre les problèmes entre différentes bourses.
Aldridge met en évidence les facteurs et les risques microstructurels inexplorés dans l'optimisation de portefeuille. Alors que les gestionnaires de portefeuille à long terme se concentrent traditionnellement sur les caractéristiques risque-rendement et négligent les facteurs microstructurels, Aldridge suggère de les intégrer comme intrants et de tirer parti de la richesse des données disponibles. Elle propose une approche étape par étape qui consiste à utiliser la décomposition de la valeur singulière pour prédire les performances en fonction des rendements précédents et à utiliser le Big Data pour identifier et traiter les risques en temps réel. Les algorithmes peuvent aider à identifier et à exploiter des complexités complexes dans les échanges, telles que les commandes ping, qui peuvent passer inaperçues pour les commerçants humains.
En défiant les limites de l'optimisation de portefeuille traditionnelle, Aldridge introduit une approche plus complète qui intègre des facteurs microstructuraux et d'autres dynamiques de marché. Elle met en évidence le potentiel perturbateur de facteurs tels que les ETF et les crashs éclair et souligne que les matrices de corrélation à elles seules peuvent ne pas suffire à analyser le risque. En tenant compte de facteurs microstructurels indépendants qui vont au-delà des mouvements de marché plus larges, Aldridge préconise une stratégie d'optimisation de portefeuille nuancée qui peut améliorer les rendements et améliorer les ratios de Sharpe. De plus amples détails sur son approche peuvent être trouvés dans son livre, et elle accueille les questions du public concernant le trading à haute fréquence.
Aldridge approfondit davantage la persistance du trading à haute fréquence au cours d'une journée et ses implications pour l'allocation de portefeuille à long terme. Elle illustre cela avec l'exemple du volume de transactions intrajournalières à haute fréquence de Google, qui présente une stabilité dans une certaine fourchette au fil du temps. Aldridge met en évidence les coûts inférieurs associés aux transactions à haute fréquence sur les actions à prix plus élevé et le pourcentage inférieur du volume des transactions à haute fréquence sur les penny stocks. De plus, elle note que la complexité du codage dissuade souvent les traders à haute fréquence de s'engager avec des actions à dividendes élevés. Les stratégies de trading haute fréquence agressives impliquent des ordres au marché ou des ordres à cours limités agressifs placés à proximité du prix du marché.
L'orateur explique le cycle de vie de trois ans d'une stratégie quantitative, mettant en lumière les défis auxquels sont confrontés les quants dans la production de stratégies réussies. La première année consiste généralement à apporter une stratégie réussie d'un emploi précédent et à gagner un bon bonus. La deuxième année est marquée par des tentatives d'innovation, mais beaucoup ont du mal à développer une stratégie réussie au cours de cette période. Au cours de la troisième année, ceux qui ont trouvé une stratégie réussie peuvent gagner un bon bonus, tandis que d'autres peuvent choisir de partir et d'apporter leur stratégie précédente à une nouvelle entreprise. Cela contribue à une concentration de stratégies de trading à haute fréquence similaires, qui peuvent être ajustées ou légèrement modifiées et exécutent souvent des transactions à peu près au même moment. Aldridge souligne que le trading à haute fréquence, comme d'autres formes d'automatisation, est bénéfique et ne doit pas être rejeté.
Aldridge conclut sa présentation en discutant du potentiel de la réalité virtuelle et de l'automatisation dans l'analyse des données. Elle aborde l'utilité des portefeuilles et des facteurs basés sur la version bêta, en utilisant l'exemple de l'achat d'une paire de chaussettes par rapport à l'achat d'un ordinateur Dell et comment les changements de bêta affectent leurs prix différemment. L'importance de normaliser les rendements et de traiter le caractère aléatoire des jours ouvrables est également soulignée. Aldridge suggère d'utiliser des facteurs comme forme de défense et souligne que l'utilisation de facteurs peut être une approche agréable.
Dans une section, Aldridge explique l'application d'une matrice informatique pour déterminer l'importance ou le coefficient de chaque action dans un portefeuille. La matrice intègre des techniques de covariance de variance et de réduction pour ajuster les rendements et obtenir un résultat plus précis. En identifiant les tendances des rendements des jours précédents, la matrice peut prédire les résultats futurs et optimiser le portefeuille. Bien que le modèle de jouet discuté représente un exemple de base, il illustre le potentiel d'utilisation d'une matrice informatique pour l'optimisation de portefeuille à long terme.
En résumé, la présentation d'Irene Aldridge fournit des informations précieuses sur l'impact du trading à haute fréquence sur les gestionnaires de portefeuille à long terme et sur l'évolution du paysage de l'industrie financière. Elle met l'accent sur le rôle de l'automatisation, du Big Data et de l'apprentissage automatique dans l'optimisation du portefeuille. Aldridge discute des défis et des opportunités présentés par les données de volume intrajournalières, préconise l'intégration de facteurs microstructuraux et propose une approche étape par étape pour l'identification des risques en temps réel. Ses idées contribuent à une compréhension plus nuancée de l'optimisation de portefeuille et mettent en évidence le potentiel de la réalité virtuelle et de l'automatisation pour l'analyse des données. L'approche globale d'Aldridge encourage les gestionnaires de portefeuille à adopter les avancées technologiques et à tirer parti des vastes quantités de données disponibles pour prendre des décisions d'investissement éclairées.
En outre, Aldridge souligne l'importance de prendre en compte les facteurs microstructuraux qui passent souvent inaperçus dans l'optimisation de portefeuille traditionnelle. En incorporant des facteurs tels que les FNB et les crashs éclairs dans l'analyse, les gestionnaires de portefeuille peuvent acquérir une compréhension plus précise de la dynamique du marché et des risques associés. Elle conteste l'idée que les matrices de corrélation suffisent à elles seules pour l'analyse des risques et propose une approche plus sophistiquée qui prend en compte des facteurs microstructuraux indépendants. Cette approche a le potentiel d'améliorer les rendements du portefeuille et d'améliorer la performance ajustée au risque.
Aldridge met également en lumière le monde complexe du trading à haute fréquence. Elle discute de la distinction entre les stratégies HFT agressives et passives, soulignant leur impact sur la liquidité et la volatilité du marché. Alors que les stratégies agressives impliquant des annulations d'ordres peuvent éroder la liquidité et augmenter le risque, les stratégies passives axées sur les ordres limités et la tenue de marché peuvent fournir de la liquidité et réduire la volatilité. Comprendre la dynamique du trading à haute fréquence et ses implications sur l'allocation de portefeuille est essentiel pour les gestionnaires de portefeuille à long terme.
En outre, Aldridge discute des défis et des opportunités associés aux données de volume intrajournalier. Avec de multiples échanges et des intervalles de temps de plus en plus courts, l'analyse et l'interprétation efficaces de ces données peuvent s'avérer complexes. Cependant, Aldridge y voit une opportunité d'innovation et de recherche plus approfondie. Elle mentionne le Security Information Processor (SIP) exploité par la SEC, qui regroupe les ordres limités de diverses bourses pour déterminer la meilleure entreprise et la meilleure offre. Cependant, elle reconnaît que concilier et résoudre les problèmes entre les différents échanges reste un défi.
La présentation d'Aldridge souligne également l'importance d'utiliser des facteurs comme forme de défense dans l'optimisation de portefeuille. En tenant compte de divers facteurs au-delà des caractéristiques traditionnelles de risque-rendement, les gestionnaires de portefeuille peuvent acquérir des connaissances plus approfondies et améliorer leur processus de prise de décision. Des facteurs tels que la capitalisation boursière, le bêta, le prix et la volatilité intrajournalière peuvent fournir des informations précieuses pour optimiser les portefeuilles à long terme.
Enfin, Aldridge aborde le potentiel de la réalité virtuelle et de l'automatisation dans l'analyse des données. Ces avancées technologiques offrent de nouvelles possibilités pour analyser des données financières complexes et acquérir une compréhension plus approfondie de la dynamique du marché. En exploitant la puissance de l'automatisation et en tirant parti des outils de réalité virtuelle, les gestionnaires de portefeuille peuvent améliorer leurs capacités d'analyse des données et prendre des décisions d'investissement plus éclairées.
En conclusion, la discussion d'Irene Aldridge sur l'impact du trading à haute fréquence et l'évolution du paysage financier fournit des informations précieuses aux gestionnaires de portefeuille à long terme. Son exploration de l'automatisation, du Big Data et de l'apprentissage automatique met en évidence le potentiel de transformation de ces technologies dans l'optimisation du portefeuille. En incorporant des facteurs microstructuraux, en utilisant des facteurs comme une forme de défense et en adoptant les avancées technologiques, les gestionnaires de portefeuille peuvent s'adapter à la dynamique changeante du marché et ouvrir de nouvelles opportunités pour atteindre une performance de portefeuille optimale à long terme.
Les bases du trading quantitatif
Les bases du trading quantitatif
Dans cette vidéo sur les bases du trading quantitatif, le trader algorithmique Shaun Overton discute des défis et des opportunités liés au trading algorithmique. Overton explique que la collecte, l'analyse et le trading de données sont les trois problèmes simples impliqués dans le trading algorithmique, bien que le processus puisse se compliquer en raison de la recherche de données de haute qualité et d'une analyse appropriée. Il peut être difficile de sélectionner la bonne plateforme avec de bonnes données et fonctionnalités pour atteindre les objectifs du trader, les plateformes les plus populaires étant MetaTrader, NinjaTrader et TradeStation, selon le type de trading que l'on préfère. Overton discute également de la dure réalité de la facilité avec laquelle il est possible de faire exploser des comptes lors de transactions sur le marché en direct et de l'importance de la gestion des risques. De plus, il explique comment les traders quantitatifs peuvent prédire des mouvements excessifs sur le marché et discute de l'impact des guerres de devises.
La vidéo "Basics of Quantitative Trading" sur YouTube couvre diverses stratégies de trading algorithmique, y compris l'analyse des sentiments et les stratégies à long terme basées sur les lignes de graphique ; cependant, les plus gros retours sont réalisés lors d'événements et de tendances à grande queue. Les participants à la vidéo discutent des différentes plates-formes de backtesting, des défis liés à l'intégration de plusieurs plates-formes d'analyse de trading et de l'intérêt croissant pour la formalisation et l'automatisation des stratégies de trading. Certains traders à long terme recherchent l'automatisation car ils sont dans le jeu depuis longtemps, et NinjaTrader pour les langages de programmation est recommandé mais a des limites.
Qu'est-ce qu'un quant trader ?
Qu'est-ce qu'un quant trader ?
"Qu'est-ce qu'un quant trader ?" est une vidéo dans laquelle Michael Halls-Moore plonge dans le monde du trading quantitatif, expliquant comment les mathématiques et les statistiques sont utilisées pour développer des stratégies de trading et analyser les inefficacités du marché. Alors que les fonds quantitatifs se concentrent principalement sur des stratégies à court terme, le conférencier souligne que des approches à basse fréquence et automatisées sont également utilisées. Les commerçants institutionnels donnent la priorité à la gestion des risques, tandis que les commerçants de détail sont motivés par les bénéfices. Une détection efficace du régime de marché est cruciale mais difficile en raison d'événements aléatoires sur le marché. Il est conseillé aux traders quantitatifs de ne pas s'appuyer uniquement sur un seul modèle, mais d'en rechercher et d'en tester constamment de nouveaux pour tenir compte des dynamiques de marché connues et inconnues. Malgré les risques encourus, les commerçants quantitatifs qui réussissent peuvent obtenir un rendement annuel impressionnant de 35 % sur les frais.
Dans la vidéo, Michael Halls-Moore donne une perspective perspicace sur le concept d'un « commerçant quantitatif ». Il explique que les traders quantitatifs utilisent des techniques mathématiques et statistiques dans le domaine de la finance, en utilisant des méthodes informatiques et statistiques. Leur travail englobe un large éventail d'activités, allant de la programmation de structures de négociation à la conduite de recherches approfondies et au développement de stratégies de négociation robustes. Bien que les règles d'achat et de vente jouent un rôle, elles ne sont pas le seul objectif, car les commerçants quantitatifs opèrent dans un système plus large où les générateurs de signaux ne sont qu'un élément.
Les fonds quantitatifs s'engagent généralement dans le trading à haute fréquence et s'efforcent d'optimiser la technologie et les microstructures au sein des actifs du marché. Les délais impliqués dans le trading quantitatif peuvent varier considérablement, allant de quelques microsecondes à plusieurs semaines. Les commerçants de détail ont une opportunité significative d'adopter des stratégies de style à fréquence plus élevée.
Contrairement à la croyance populaire, le trading quantitatif n'est pas uniquement axé sur le trading à haute fréquence et l'arbitrage. Il intègre également des stratégies à basse fréquence et automatisées. Cependant, en raison de leur approche scientifique consistant à capitaliser sur les inefficacités physiques du système, les fonds quantitatifs se concentrent principalement sur des stratégies à court terme. Le conférencier souligne l'importance d'avoir un mélange d'expériences scientifiques et commerciales pour prospérer dans le domaine du commerce quantitatif.
Une distinction notable entre les commerçants de détail et institutionnels réside dans leur approche de la gestion des risques. Les commerçants de détail sont principalement motivés par des motifs de profit, tandis que les commerçants institutionnels donnent la priorité à la gestion des risques, même si cela signifie sacrifier les rendements potentiels. Les traders institutionnels adoptent une mentalité axée sur le risque et mettent l'accent sur la diligence raisonnable, les tests de résistance et la mise en œuvre de polices d'assurance contre les risques pour atténuer efficacement les risques.
La gestion des risques implique diverses techniques, telles que l'ajustement de l'effet de levier en fonction des capitaux propres du compte à l'aide de cadres mathématiques tels que le critère de Kelly. Les traders plus conservateurs optent pour la réduction des tirages pour atteindre un taux de croissance contrôlé. Les principaux indicateurs de risque comme le VIX sont utilisés pour évaluer la volatilité future. Dans ces métiers, le système de gestion des risques a plus d'importance que le système d'entrée. Alors que les pertes d'arrêt sont utilisées dans le suivi des tendances, les stratégies de retour à la moyenne nécessitent de réévaluer et d'explorer différents scénarios et données historiques pour la planification du retrait. Préalablement à la mise en place des algorithmes de trading, des phases de backtesting sont menées pour gérer efficacement les facteurs de risques.
La vidéo explore l'importance de filtrer les stratégies de trading et d'utiliser le backtesting comme outil pour les filtrer plutôt que de les mettre directement en production. Il souligne l'importance de s'attendre à des baisses plus importantes au cours de la marche en avant et d'utiliser des mécanismes de filtrage pour déterminer la pertinence d'une stratégie de mise en œuvre. La conversation se penche ensuite sur la croyance de Nassim Nicholas Taleb dans les queues épaisses et explore comment la technologie d'apprentissage automatique peut être utilisée pour appliquer des stratégies de trading de gamme et de trading de tendance, permettant la détection du régime du marché.
La détection efficace du régime de marché est un aspect essentiel de la finance quantitative. Cependant, il pose des défis en raison de sa dépendance à des événements aléatoires, tels que les baisses de taux d'intérêt et les tendances du marché. Les entreprises plus sophistiquées suivent les données fondamentales et les intègrent dans leurs modèles pour améliorer la détection du régime du marché. Lors du trading, la sélection d'actions ou d'ETF dépend du marché spécifique, et choisir les bons actifs peut être une tâche complexe. L'orateur souligne qu'une combinaison de modèles mathématiques et de fondamentaux du marché est cruciale pour une défense efficace contre les événements Black Swan, car les périodes précédentes de forte volatilité peuvent fournir des informations sur la prévision de la volatilité future et des changements du marché.
La vidéo explore plus en détail les rendements potentiels et les risques associés au trading quantitatif. Les traders quantitatifs ont le potentiel de gagner un rendement annuel impressionnant de 35% sur les frais, en particulier lorsqu'ils sont associés à une formation solide, comme un doctorat, et à un processus de gestion efficace. Cependant, les quants à haute fréquence peuvent être confrontés à des défis lorsque des changements se produisent dans le matériel ou l'échange sous-jacent, ce qui peut entraîner des pannes du système.
Malgré les risques encourus, la réalisation d'un rendement constant de 15% à 20% en exploitant des opportunités rentables à long terme est considérée comme favorable. Les traders quantitatifs ne s'appuient pas sur un seul algorithme magique ou ne paniquent pas lorsqu'ils sont confrontés à des problèmes. Au lieu de cela, ils se penchent sur des propriétés statistiques qui peuvent être complexes à analyser, mais se préparent à l'avance pour relever les défis potentiels.
La vidéo souligne l'importance d'éviter de trop se fier à un modèle unique de trading quantitatif. Les modèles ne peuvent pas prédire avec précision tous les événements futurs, comme en témoignent les krachs historiques de Wall Street et les échecs d'investissement résultant des lacunes des modèles. Il est essentiel pour les traders quantitatifs de rechercher et de tester en permanence de nouveaux modèles, en évaluant leurs performances. Les périodes de tirage font partie intégrante du parcours commercial, et les traders doivent être prêts à les parcourir.
En conclusion, alors que certains commerçants peuvent devenir trop concentrés sur la microgestion de leurs modèles, il est essentiel de comprendre si un modèle tient compte de toutes les dynamiques du marché, y compris les inconnues inconnues. Les traders quantitatifs doivent adopter une approche multidimensionnelle, combinant des modèles mathématiques avec les fondamentaux du marché pour acquérir une compréhension globale du comportement du marché. En affinant et en diversifiant constamment leurs stratégies, les traders quantitatifs peuvent augmenter leurs chances de succès dans un paysage financier en constante évolution.
PyCon Canada 2015 - Karen Rubin : Construire une stratégie de négociation quantitative (Discours principal)
PyCon Canada 2015 - Karen Rubin : Construire une stratégie de négociation quantitative (Discours principal)
Poursuivant la discussion, Karen Rubin se penche sur les conclusions et les idées de son étude sur les femmes PDG des entreprises Fortune 1000. L'analyse révèle que les femmes PDG génèrent un rendement de 68 %, tandis que les hommes PDG génèrent un rendement de 47 %. Cependant, Karen souligne que ses données ne démontrent pas encore que les femmes PDG surpassent leurs homologues masculins. Elle considère cette étude comme un concept intrigant au sein des entreprises à haut revenu et à forte capitalisation boursière.
Motivée par ses découvertes, Karen souligne l'importance de la diversité dans l'industrie de la finance et de la technologie. Elle encourage davantage de femmes à rejoindre le domaine et à participer à l'élaboration des stratégies d'investissement. Elle pense que l'intégration d'idées telles que l'investissement dans les femmes PDG peut contribuer à la création d'un fonds diversifié et inclusif.
Élargissant la discussion, Karen aborde d'autres facteurs qui peuvent influencer le succès des PDG, notamment leur sexe, la méthode d'embauche (interne ou externe) et même leur mois de naissance. Elle reconnaît la théorie selon laquelle les entreprises peuvent nommer des femmes PDG lorsque l'organisation fonctionne mal, puis les remplacer par des PDG masculins pour récolter les bénéfices de la restructuration. Cependant, Karen n'a pas été en mesure d'arbitrer cette théorie jusqu'à présent. De plus, elle note que les cours des actions connaissent souvent une baisse après l'annonce d'un PDG, bien qu'elle ne sache pas si cette tendance diffère entre les femmes et les hommes PDG.
En conclusion, Karen souligne que l'élaboration d'une stratégie de trading quantitative pour les PDG implique de prendre en compte divers facteurs et de mener une analyse approfondie. Bien que son étude fournisse des informations précieuses sur la performance des femmes PDG, elle souligne la nécessité de poursuivre les recherches et l'exploration pour acquérir une compréhension plus complète de la dynamique des sexes dans le leadership exécutif et de son impact sur les résultats d'investissement.
Webinaire sur l'apprentissage automatique pour le trading quantitatif avec le Dr Ernie Chan
Webinaire sur l'apprentissage automatique pour le trading quantitatif avec le Dr Ernie Chan
Le Dr Ernie Chan, une figure éminente de l'industrie financière, partage ses idées et ses expériences avec l'apprentissage automatique dans le trading. Il commence par réfléchir à ses premières tentatives d'application de l'apprentissage automatique au trading et reconnaît que cela n'a pas donné de bons résultats au départ. Le Dr Chan souligne l'importance de comprendre les limites de l'apprentissage automatique dans le trading, en particulier dans le trading des contrats à terme et des indices, où les données peuvent être insuffisantes.
Cependant, il souligne le potentiel de l'apprentissage automatique pour générer des stratégies de trading rentables lorsqu'il est appliqué à des actions technologiques individuelles, des données de carnet de commandes, des données fondamentales ou des sources de données non traditionnelles comme les actualités. Pour remédier aux limites de la disponibilité des données et du biais d'espionnage des données, le Dr Chan suggère d'utiliser des techniques de rééchantillonnage telles que le suréchantillonnage ou le bagging. Ces techniques peuvent aider à élargir l'ensemble de données, mais il est essentiel de préserver l'autocorrélation en série dans les données de séries chronologiques lors de leur utilisation pour des stratégies de trading.
La sélection des fonctionnalités joue un rôle essentiel dans le succès des applications d'apprentissage automatique dans le trading. Le Dr Chan souligne l'importance de réduire le biais d'échantillonnage des données en sélectionnant des caractéristiques ou des prédicteurs pertinents. Il explique que même si de nombreuses personnes pensent qu'il est préférable d'avoir plus de fonctionnalités, dans le commerce, un ensemble de données riche en fonctionnalités peut conduire à une autocorrélation erronée et à de mauvais résultats. Il discute de trois algorithmes de sélection de caractéristiques : la sélection de caractéristiques vers l'avant, les arbres de classification et de régression (CART) et la forêt aléatoire, qui aident à identifier les variables les plus prédictives.
Le Dr Chan se penche sur l'algorithme de classification des machines à vecteurs de support (SVM), qui vise à prédire les rendements futurs sur une journée et leur nature positive ou négative. SVM trouve un hyperplan pour séparer les points de données et peut nécessiter des transformations non linéaires pour une séparation efficace. Il aborde également d'autres approches d'apprentissage automatique, telles que les réseaux de neurones, mais souligne leurs limites dans la capture des fonctionnalités pertinentes et leur inadéquation au trading en raison de la nature non stationnaire des marchés financiers.
Le webinaire souligne également l'importance d'une fonction cible personnalisée dans une stratégie de trading. Le Dr Chan recommande des techniques telles que la régression par étapes, les arbres de décision et la régression par ensemble pour développer des modèles prédictifs. Il souligne l'importance de réduire la racine carrée du nombre de transactions pour obtenir une grande précision dans la protection des rendements. Le ratio de Sharpe est présenté comme une référence efficace pour évaluer l'efficacité de la stratégie, un ratio de deux ou plus étant considéré comme favorable.
Le Dr Chan fournit des informations précieuses sur l'application de l'apprentissage automatique dans le secteur financier, soulignant son potentiel dans certains domaines tout en mettant en garde contre ses limites. Il souligne l'importance de la sélection des fonctionnalités, du rééchantillonnage des données et de la sélection d'une fonction cible appropriée pour des applications d'apprentissage automatique réussies dans le commerce quantitatif.