Trading Quantitatif - page 26

 

Trading algorithmique sur les marchés de matières premières



Trading algorithmique sur les marchés de matières premières

Sunil Lani, vice-président adjoint du NCDEX (National Commodity and Derivatives Exchange), profite de l'occasion pour se plonger dans le monde du trading algorithmique sur les marchés des matières premières, en se concentrant spécifiquement sur les matières premières agricoles. NCDEX, étant la plus grande bourse agricole en Inde, propose une gamme variée d'environ 20 produits de base pour le commerce.

Lani commence par présenter les trois styles de trading populaires couramment utilisés sur les marchés des matières premières : couverture, arbitrage et trading directionnel. Il souligne que la couverture est une stratégie d'investissement utilisée pour atténuer le risque associé à un investissement principal. Dans le contexte du NCDEX, les agriculteurs couvrent souvent leurs actifs agricoles sous-jacents pour minimiser l'exposition au risque.

Ensuite, l'orateur déplace la discussion vers deux types de stratégies de trading répandues sur les marchés des matières premières : la couverture et l'arbitrage. Lani souligne l'importance des actifs sous-jacents hautement corrélés dans les stratégies de couverture. Pour le trading d'arbitrage, il se penche sur deux approches spécifiques : le spread calendaire et le trading de paires, notant que ce dernier partage des similitudes avec les stratégies de couverture. Lani souligne l'importance de sélectionner des matières premières hautement corrélées et cointégrées pour le trading par paires, suggérant l'application du test de T Fuller pour garantir la validité des corrélations.

De plus, Lani donne un aperçu des différentes étapes impliquées dans le trading algorithmique. Il explique que le processus commence par l'identification et le filtrage des scripts ou instruments appropriés pour appliquer le concept de trading. Par la suite, le modèle est visualisé, suivi d'un backtesting rigoureux et d'une optimisation des paramètres ou du modèle lui-même. Les prochaines étapes impliquent le trading sur papier et éventuellement la transition vers le trading en direct, où de l'argent réel est en jeu.

Poursuivant sa discussion, Lani se concentre sur les premières étapes du trading algorithmique. Il souligne l'importance de réfléchir à des idées de trading et de finaliser une logique de trading qui s'aligne sur les objectifs du trader. Les considérations clés incluent la détermination de la fréquence des transactions, la sélection du segment approprié pour la négociation et l'établissement des périodes de backtesting. Pour illustrer les défis de la compréhension des données pour les stratégies commerciales, l'orateur présente des données sur la production intérieure brute (PIB) de l'Inde dans divers secteurs. Il convertit les données en représentations graphiques, facilitant une meilleure compréhension et suggère d'examiner les corrélations avec les mouvements de prix. De plus, Lani présente des représentations visuelles de données agricoles historiques, soulignant l'importance d'analyser les données sous plusieurs angles.

Le conférencier discute ensuite des ressources nécessaires au trading algorithmique sur les marchés des matières premières. Il classe les stratégies de trading en deux domaines principaux : l'arbitrage et le momentum. Des techniques telles que le trading par paires, l'analyse de corrélation, les moyennes mobiles et la distribution de probabilité sont couramment utilisées. L'infrastructure est un aspect crucial du trading algorithmique, y compris la connectivité à un courtier via une API et l'hébergement de l'algorithme dans le cloud ou sur site. Lani souligne également l'importance de la visualisation des données et des indicateurs techniques, qui peuvent être réalisés à l'aide d'outils tels qu'Excel, Tableau, Power BI et TradingView.

Lani explore en outre divers outils et plates-formes adaptés au trading algorithmique sur les marchés des matières premières. Il mentionne que les non-programmeurs ou semi-programmeurs optent souvent pour des plateformes comme Metatrader et Interactive Brokers. À des fins de programmation pure, Python apparaît comme le principal langage, avec des plateformes de trading algorithmique basées sur Python telles que Quantopian, Blueshift, QuanTX et Zerodha qui gagnent en popularité. En outre, le conférencier met en évidence les bibliothèques essentielles pour le traitement des données et les backtesting, notamment Pandas, Numpy, Beautifulsoup, Backtrader, ainsi que les bibliothèques d'analyse des sentiments telles que Stream Python, Feedparser, Peopie et NLP.

Dans le segment suivant, Lani explique le processus de génération d'une idée commerciale et de conception d'un modèle utilisant les produits agricoles comme exemple. Étant donné que les matières premières agricoles ont tendance à être moins volatiles que les actions ou le Forex, il propose d'appliquer une stratégie de retour à la moyenne en utilisant les bandes de Bollinger comme indicateur, précisément fixées à deux écarts-types de la fourchette de prix moyenne. Les critères de filtrage pour sélectionner une marchandise liquide impliquent d'en choisir une avec un volume d'au moins 1080, et Lani recommande de négocier Jana dans le NCDX. Pour visualiser le modèle, Lani suggère d'utiliser investing.com pour dessiner les bandes de Bollinger, avec différents niveaux indiquant les points d'achat et de vente.

En mettant l'accent sur le backtesting, Lani souligne son importance dans la vérification de la logique d'un modèle de trading algorithmique utilisant des données historiques. Cette étape est cruciale pour éviter les pertes potentielles lorsque le modèle est déployé dans un environnement réel. Lani explique les étapes du backtesting, qui incluent le téléchargement de données à partir d'un portail ouvert, l'importation de bibliothèques pertinentes, l'écriture de fonctions de support, la génération de signaux d'achat et de vente, la visualisation du résultat et l'évaluation du rendement généré par la stratégie. Il suggère également de prendre en compte des paramètres tels que les rendements, le prélèvement maximal, le profit maximal et le stop-loss pendant le processus de backtesting. Lani conseille d'utiliser des fonctions de backtesting personnelles au lieu de s'appuyer uniquement sur des bibliothèques obtenues à partir de plateformes comme Github.

L'orateur explique ensuite les différents paramètres qu'une fonction prend en compte pour générer des signaux d'achat et de vente basés sur des trames de données, des types de stratégie, des critères d'entrée et de sortie et un flux positionnel. Les traders peuvent configurer le prix d'ouverture ou de fermeture pour leurs calculs, ainsi que définir des stop-loss et des pourcentages cibles. Lani discute également d'une fonction de rapport statistique et d'une autre fonction qui crée des niveaux en utilisant l'écart type pour un indicateur choisi. Enfin, la fonction principale invoque ces autres fonctions pour renvoyer des signaux d'achat et de vente en fonction de la stratégie choisie et générer un résumé.

À l'avenir, Lani montre comment générer des rapports de backtesting commerciaux en utilisant les compétences de position de la pratique BV. La sortie comprend une trame de données contenant tous les échanges, les frais de transaction et les bords de glissement. La fonction de backtesting est invoquée et les rapports sont générés. Ces rapports fournissent des statistiques et des représentations graphiques de la sortie, présentant les rendements en pourcentage, les détails des transactions et les rendements cumulés sur une période de temps spécifiée. Lani analyse le rapport et suggère de fixer un stop-loss autour de -1,5 pour éviter des pertes supérieures à -2% ou -3%. Le profit maximum obtenu à partir des résultats du backtesting était de 8%, indiquant que le stop-loss peut être fixé à un maximum de 8% ou 9%.

L'orateur aborde ensuite le processus d'optimisation d'un algorithme. Lani explique qu'une approche de l'optimisation consiste à créer un autre algorithme qui exécute l'algorithme d'origine plusieurs fois en utilisant différents ensembles de paramètres. Pour illustrer cela, il donne un exemple où la période de rétrospection pour une période de retour en arrière est optimisée. En créant une liste de diverses valeurs pour la période rétrospective et en utilisant une fonction de combinaison, une liste complète de tous les ensembles de paramètres peut être générée. Lani souligne l'importance d'optimiser les algorithmes pour améliorer leurs performances sur les marchés des matières premières.

Poursuivant la discussion sur l'optimisation, Lani explique le processus d'utilisation de trois listes pour évaluer chaque paire par la méthode du coude avec différents paramètres de backtesting. Les résultats du backtesting sont stockés dans une trame de données appelée DF optimiseur, permettant l'identification de la combinaison qui donne le maximum de retours. Les variables optimisées sont ensuite stockées dans le rôle optimisé. Lani met en garde contre le surajustement des données pendant le processus d'optimisation et souligne l'importance d'exécuter les mêmes paramètres sur la période suivante pour garantir leur exactitude. Enfin, l'orateur télécharge le rapport pour examiner les résultats.

Lani présente ensuite le code utilisé pour optimiser les paramètres de trading et partage les statistiques qui en résultent, y compris les rendements, les rendements moyens, le tirage maximal et le ratio gains-pertes. Les paramètres optimisés ont donné un rendement de 22,8 %, une amélioration significative par rapport aux 9 % obtenus avec la combinaison de paramètres précédente. Lani souligne l'importance du trading sur papier pour tester les algorithmes sans risquer de l'argent réel et insiste sur le besoin de diversification, de gestion de portefeuille et de gestion des risques lors de la transition vers le trading en direct. Il conclut en notant les similitudes entre le processus de développement du trading algorithmique et le cycle de vie du développement de produits logiciels, soulignant l'importance d'exécuter toutes les étapes avec diligence pour assurer le succès du projet.

  • 00:00:00 Sunil Lani, vice-président adjoint chez NCDEX, discute du trading algorithmique sur les marchés des matières premières, en particulier les matières premières agricoles. NCDEX est la plus grande bourse agricole en Inde et propose environ 20 produits de base à négocier. Lani explique qu'il existe trois styles de trading populaires en matière de matières premières : la couverture, l'arbitrage et le trading directionnel. La couverture est un investissement pour atténuer le risque d'un investissement primaire, et dans NCDEX, les agriculteurs se couvrent contre leurs propres actifs sous-jacents pour minimiser le risque.

  • 00:05:00 L'orateur discute de deux types de stratégies de trading sur le marché des matières premières : la couverture et l'arbitrage. L'orateur souligne l'importance des actifs sous-jacents fortement corrélés dans la couverture. Pendant ce temps, dans l'arbitrage, l'orateur se penche sur deux façons de négocier : le spread calendaire et le trading de paires, ce dernier étant similaire à la couverture. L'orateur souligne que les matières premières choisies pour le trading par paires doivent être fortement corrélées et cointégrées, et recommande d'appliquer le test de T Fuller pour s'en assurer. De plus, le conférencier donne un aperçu des différentes étapes du trading algorithmique, qui comprend l'identification et le filtrage des scripts ou des instruments pour appliquer le concept de trading, la visualisation du modèle, le backtesting, l'optimisation des paramètres ou du modèle, le trading papier et le trading en direct.

  • 00:10:00 L'orateur discute des premières étapes du trading algorithmique, en commençant par un brainstorming d'idées et en finalisant une idée de logique de trading. Ils mentionnent la nécessité d'identifier la fréquence des transactions, le segment à utiliser pour la négociation et les périodes de back-testing. L'orateur présente ensuite des données sur la production intérieure brute (PIB) des différents secteurs de l'Inde pour démontrer la difficulté de comprendre les données pour les stratégies commerciales. Ils convertissent les données en une représentation graphique pour donner une meilleure compréhension et suggèrent d'examiner les corrélations avec le prix. Le conférencier présente ensuite des représentations visuelles des données agricoles au fil du temps pour démontrer comment les données peuvent être interprétées différemment et l'importance de les analyser de multiples façons.

  • 00:15:00 L'orateur discute des ressources nécessaires au trading algorithmique sur les marchés des matières premières. Il divise les stratégies de trading en deux domaines principaux, qui incluent l'arbitrage et le momentum, avec des techniques telles que le trading de paires, la corrélation, les moyennes mobiles et la distribution de probabilité. L'un des aspects les plus importants du trading algorithmique est l'infrastructure, y compris la connexion à un courtier via une API et l'hébergement de l'algorithme dans le cloud ou sur site. De plus, des outils tels qu'Excel, Tableau, Power BI et TradingView peuvent être utilisés pour la visualisation des données et l'application d'indicateurs techniques.

  • 00:20:00 L'orateur discute de divers outils et plates-formes pouvant être utilisés pour le trading algorithmique sur les marchés des matières premières. Pour les non-programmeurs ou les semi-programmeurs, Metatrader et Interactive Brokers sont des options populaires, tandis que Python est le principal langage de programmation pour les outils de programmation purs. En particulier, les plateformes de trading algorithmique basées sur Python telles que Quantopian, Blueshift, QuanTX et Zerodha sont discutées en détail. L'orateur met également en évidence les bibliothèques de traitement de données et de back-test populaires telles que Pandas, Numpy, Beautifulsoup et Backtrader, et les bibliothèques d'analyse des sentiments telles que Stream Python, Feedparser, Peopie et NLP.

  • 00:25:00 L'orateur explique comment trouver une idée de trading et concevoir un modèle en utilisant un exemple de matières premières agricoles, qui sont relativement moins volatiles que les actions et le Forex. L'idée est d'appliquer une stratégie de retour à la moyenne à l'aide d'un indicateur appelé bandes de Bollinger, fixé à deux écarts-types de la fourchette de prix moyenne. Les critères de filtrage incluent la sélection d'une marchandise liquide avec un volume d'au moins 1080, pour laquelle l'orateur suggère d'échanger Jana dans le NCDX. Le modèle peut être visualisé à l'aide d'investing.com en dessinant les bandes de Bollinger, avec différents niveaux indiquant les points d'achat et de vente.

  • 00:30:00 L'orateur discute du processus de backtesting d'un modèle de trading algorithmique sur les marchés des matières premières. Le backtesting est important pour vérifier la logique à l'aide de données historiques et éviter de perdre de l'argent si le modèle fonctionne mal dans l'environnement réel. Divers paramètres tels que les rendements, le drawdown maximum, le profit maximum et le stop loss doivent être pris en compte lors du backtesting. L'orateur explique également les étapes du backtesting, notamment le téléchargement de données à partir d'un portail ouvert, l'importation de bibliothèques, l'écriture de fonctions de support, la génération de signaux d'achat et de vente, la visualisation du résultat et l'évaluation du rendement généré par la stratégie. L'orateur mentionne également l'utilisation de ses propres fonctions de backtesting au lieu des bibliothèques de Github.

  • 00:35:00 L'orateur explique les différents paramètres qu'une fonction prend en compte pour renvoyer des signaux d'achat et de vente en fonction des trames de données, des types de stratégie, des critères d'entrée et de sortie et du flux positionnel. La fonction permet aux traders de configurer le prix d'ouverture ou de fermeture pour leurs calculs, ainsi que les stop loss et les pourcentages cibles. L'orateur discute également d'une fonction qui génère des rapports statistiques et d'une fonction qui crée des niveaux en utilisant l'écart type pour un indicateur choisi. Enfin, la fonction principale invoque les autres fonctions pour renvoyer des signaux d'achat et de vente en fonction de la stratégie choisie et générer un résumé.

  • 00:40:00 L'orateur montre comment générer des rapports de backtesting commerciaux à l'aide des compétences de positionnement de la pratique BV. La sortie comprend une trame de données avec tous les échanges, les frais de transaction et les bords de glissement. La fonction de backtesting est invoquée et les rapports générés. Les rapports incluent des statistiques et des représentations graphiques de la sortie qui montrent le pourcentage de retours, la transaction et les retours cumulés sur une période de temps. Le conférencier analyse le rapport et conseille de fixer le stop-loss autour de -1,5 pour éviter d'encourir des pertes de -2% et -3%. Le profit maximum obtenu était de 8% ce qui signifie que le stop-loss peut être fixé à 8% ou 9% maximum.

  • 00:45:00 L'orateur discute du processus d'optimisation d'un algorithme. Ils expliquent qu'une façon d'optimiser un algorithme consiste à créer un autre algorithme qui exécutera l'algorithme d'origine plusieurs fois en utilisant différents ensembles de paramètres. L'orateur donne un exemple de ce processus dans lequel ils optimisent la période de rétrospection pour une période de retour en arrière. Ils créent une liste de différentes valeurs pour la période rétrospective et utilisent une fonction de combinaison pour créer une liste complète de tous les ensembles de paramètres. Le conférencier insiste sur l'importance d'optimiser les algorithmes pour améliorer leurs performances sur les marchés des matières premières.

  • 00:50:00 L'orateur discute du processus d'utilisation de trois listes pour exécuter chaque paire à travers la méthode du coude avec différents paramètres pour vérifier les résultats du backtesting, en les stockant dans une trame de données appelée optimiseur DF. Ils vérifient la combinaison qui conserve les rendements maximaux et stockent les variables optimisées dans le rôle optimisé. Le processus d'optimisation doit veiller à ne pas surajuster les données. Ils soulignent l'importance d'exécuter les mêmes paramètres sur la période suivante pour s'assurer que les paramètres d'optimisation sont corrects. Enfin, l'orateur télécharge le rapport pour voir les résultats.

  • 00:55:00 L'orateur passe en revue le code utilisé pour optimiser les paramètres de trading et les statistiques qu'il a produites, y compris les rendements, les rendements moyens, le drawdown maximum et le ratio gain-perte. Les paramètres optimisés ont donné un rendement de 22,8 %, une amélioration significative par rapport aux 9 % de la combinaison précédente. Ils soulignent l'importance du trading sur papier pour tester l'algorithme sans investir d'argent et la nécessité d'une diversification, d'un portefeuille et d'une gestion des risques lors de la mise en service. Ils notent également que le processus de développement du trading algorithmique est similaire au cycle de vie du développement de produits logiciels.

  • 01:00:00 L'orateur explique comment les étapes du trading algorithmique peuvent être comparées à celles du développement de logiciels, la formulation de la stratégie de trading étant similaire à l'étape de planification et d'exigence, et la cartographie du trading papier et du trading de simulation à l'assurance qualité. L'orateur souligne que toutes les étapes sont importantes et que la mauvaise exécution de l'une d'entre elles peut entraîner l'échec de l'ensemble du projet.
Algorithmic Trading in Commodity Markets
Algorithmic Trading in Commodity Markets
  • 2020.02.14
  • www.youtube.com
In this webinar "Algorithmic Trading in Commodity Markets", presented by Sunil Guglani, AVP, NCDEX, we go through the following concepts:- Stages of Algorith...
 

Prédire les tendances des marchés boursiers à l'aide de l'IA et de la programmation Python



Prédire les tendances des marchés boursiers à l'aide de l'IA et de la programmation Python

Cette session de webinaire propose un didacticiel d'apprentissage pratique axé sur la prévision des tendances à l'aide de l'IA sur le marché boursier. Les participants participeront activement à la création d'un modèle d'arbre de classification à l'aide d'un cahier Jupyter. L'objectif principal est de développer un arbre de classification qui peut servir d'outil pour établir des règles de négociation basées sur les rendements futurs positifs ou négatifs anticipés.

L'utilisation d'un modèle d'arbre de décision dans le trading est une technique d'apprentissage automatique essentielle qui offre une expérience d'apprentissage immersive et interactive. Au cours de la session, les participants auront l'opportunité de travailler directement sur un notebook Python aux côtés d'un instructeur.

Le webinaire vise à couvrir les domaines clés suivants :

  • Acquérir une compréhension des concepts sous-jacents et de l'intuition derrière divers indicateurs et apprendre leur application pratique
  • Travailler avec les données des marchés boursiers américains pour générer des indicateurs de trading essentiels

La session enregistrée se penche sur la façon dont le modèle d'arbre de décision peut être exploité dans le trading pour extraire des règles de trading précieuses. Ces règles servent de base pour prendre des décisions éclairées sur le moment d'acheter ou de vendre des titres.

Tout au long de la vidéo, les participants acquerront des connaissances sur :

  • Utilisation de l'intelligence artificielle (IA) et du langage de programmation Python pour prédire les tendances des marchés boursiers
  • Visualiser efficacement les données pour obtenir des informations
  • Construire des règles de négociation basées sur les rendements futurs à l'aide d'un modèle d'arbre de décision
  • Comprendre les variables prédictives et les variables cibles, comprendre la logique derrière chaque indicateur technique et les mettre en œuvre efficacement
  • Explorer une gamme d'indicateurs de trading
  • Appliquer les concepts appris aux données du monde réel des marchés boursiers américains pour développer les indicateurs de trading nécessaires

Pour profiter pleinement de ce webinaire, les participants doivent posséder :

  • Connaissances techniques liées à l'IA et à l'apprentissage automatique
  • Expérience préalable dans le commerce
  • Une solide compréhension du marché boursier et de sa dynamique

En ce qui concerne les variables, les variables prédictives dans ce contexte font référence aux indicateurs techniques utilisés pour prédire les tendances du marché. D'autre part, la variable cible signifie la tendance attendue pour le jour suivant, en particulier si elle sera positive ou négative.

Predict Trends In Stock Markets Using AI And Python Programming
Predict Trends In Stock Markets Using AI And Python Programming
  • 2019.09.06
  • www.youtube.com
This session is a hands-on learning tutorial to Predict Trends using AI in the stock market, where you will work directly on a Jupyter Notebook to create a c...
 

Stratégies quantitatives de gestion de portefeuille Par Prodipta Ghosh - 23 juillet 2019



Stratégies quantitatives de gestion de portefeuille Par Prodipta Ghosh - 23 juillet 2019

Prodipta Ghosh, vice-présidente de la gestion quantitative de portefeuille, souligne qu'il n'existe pas de stratégie unique pour la négociation d'actions en raison de la présence d'incertitudes sur les marchés financiers, de la nature dynamique du marché au fil du temps et des objectifs variables et le goût du risque des individus. Il souligne que même avec une vision ou un modèle parfait du monde, il serait impossible d'apporter des réponses aux questions des commerçants car chacun évolue dans un contexte unique. Par conséquent, aucune stratégie parfaite n'existe pour qui que ce soit dans le monde.

Au cours de sa présentation, Prodipta Ghosh se penche sur quatre stratégies de gestion de portefeuille quantitatives. Ces stratégies incluent l'utilisation des bandes de Bollinger, l'utilisation d'une stratégie de croisement de moyenne mobile simple, l'analyse du modèle de chandelier doji et l'incorporation de l'indice de force relative (RSI). Si un ratio de Sharpe élevé peut théoriquement suggérer la meilleure stratégie, les performances passées ne garantissent pas toujours les résultats futurs. Par conséquent, il est crucial de construire un portefeuille qui englobe diverses stratégies et actifs pour atténuer les risques et éviter des baisses importantes. Ghosh démontre les avantages d'une allocation égale du capital aux quatre stratégies, montrant comment un portefeuille diversifié peut résister à la volatilité du marché et éviter des pertes substantielles.

Prodipta Ghosh fournit une explication des principes fondamentaux de la gestion de portefeuille et la distingue de l'investissement dans une seule action. La gestion de portefeuille consiste à développer une stratégie pour plusieurs stratégies ou actifs, en tenant compte des risques, des incertitudes, du passage du temps et des contextes spécifiques. La valeur d'une stratégie est dérivée des rendements sous-jacents multipliés par les positions, tandis que la valeur du portefeuille est déterminée par le flux pondéré des rendements sous-jacents. Pour optimiser la gestion de portefeuille, un problème mathématique est résolu en définissant une fonction U qui dépend de la valeur du portefeuille P et en trouvant les poids W qui maximisent U. Différentes stratégies d'optimisation, telles que l'optimisation moyenne-variance, l'optimisation de Kelly et la pénalité de risque l'optimisation, peut être utilisée en fonction de la définition de U et de l'approche d'optimisation.

Le conférencier discute ensuite des stratégies de gestion de portefeuille quantitatives et du rôle des problèmes d'optimisation dans le processus. Il explore les différentes contraintes qui peuvent être spécifiées dans un problème d'optimisation, telles que la limitation de la gamme d'un portefeuille, et les types de portefeuilles qui peuvent être construits, y compris ceux basés sur des stratégies alpha, des portefeuilles factoriels ou des collections d'actions individuelles. L'objectif est de définir une condition de maximisation qui se traduit par un portefeuille avec une valeur maximale ou une fonction de la valeur du portefeuille. De plus, l'orateur aborde la question de savoir si un portefeuille équipondéré est raisonnable, ce qui dépend de circonstances spécifiques et peut être considéré comme un problème d'optimisation avec une pénalité sur le carré des erreurs.

Prodipta Ghosh se penche sur le concept de risque et d'utilité dans la gestion de portefeuille, soulignant les défis liés à l'estimation des rendements attendus et des risques. Il présente la théorie moderne du portefeuille et l'utilité quadratique comme approches pour maximiser les rendements tout en minimisant les risques. L'orateur utilise l'exemple du paradoxe de Saint Pittsburgh pour illustrer comment la prise de décision humaine peut s'écarter des moyennes mathématiques.

La relation entre utilité et risque est expliquée par Prodipta Ghosh, qui souligne leur importance dans la construction d'un portefeuille solide. Il démontre le concept de prime de risque, qui quantifie la différence entre le paiement ou le rendement attendu d'un investissement risqué et le montant qu'un individu est prêt à accepter pour un certain paiement. De plus, il explique qu'une fonction d'utilité est une représentation mathématique de la richesse qui indique la valeur d'un dollar supplémentaire, aidant à déterminer les montants appropriés à investir. Comprendre l'interaction entre l'utilité et le risque permet aux investisseurs de développer des portefeuilles qui trouvent un équilibre entre le risque et le rendement.

Le conférencier aborde la notion d'aversion au risque dans l'investissement, qui suggère que les investisseurs préfèrent certains investissements à ceux dont les rendements fluctuent. L'aversion au risque est une hypothèse courante dans la gestion quantitative de portefeuille, la prime de risque étant représentée par la lettre grecque Pi. Cette prime indique le montant qu'un investisseur est prêt à payer pour accepter un rendement fluctuant à moyenne nulle. L'orateur explique ensuite la fonction d'utilité quadratique et comment elle conduit à l'optimisation de la moyenne et de la variance d'un portefeuille. Construire un portefeuille basé sur la théorie moderne du portefeuille implique de trouver un équilibre entre la moyenne et la variance du portefeuille.

Prodipta Ghosh explique ensuite le processus d'optimisation de l'utilité attendue du portefeuille en trouvant un équilibre entre la moyenne et la variance. Il utilise Excel pour simuler les rendements de différents actifs et calcule la matrice de covariance, qui est ensuite utilisée pour déterminer les rendements, la variance et le risque du portefeuille en fonction de différentes pondérations. En faisant varier les pondérations et en calculant le rendement et la variance du portefeuille pour tous les scénarios possibles, un problème d'optimisation peut être résolu. Le graphique résultant présente le ratio de Sharpe, qui représente le rapport rendement/risque, pour chaque ensemble de pondérations.

Le concept de frontières efficientes dans la théorie moderne du portefeuille est ensuite introduit par Prodipta Ghosh. Il décrit la frontière efficiente comme la fourchette dans laquelle un portefeuille devrait se situer afin d'obtenir des rendements maximaux en fonction d'une tolérance au risque donnée. Il explique en outre que l'ajout d'un actif à faible risque, tel qu'un actif sans risque, ajoute une dimension intéressante au concept. Le ratio de Sharpe le plus élevé est identifié à partir du portefeuille tangent, qui est le portefeuille formé en combinant l'actif sans risque avec la frontière efficiente. La ligne reliant zéro au portefeuille tangent est appelée ligne de marché et présente un choix entre investir dans le portefeuille de marché ou opter pour un actif sans risque lors de la définition de l'allocation.

Prodipta Ghosh se penche sur le Capital Asset Pricing Model (CAPM), qui change la perspective du risque dans la finance en le mesurant comme une contribution au portefeuille de marché plutôt que comme un risque autonome. CAPM capture le taux de rendement requis pour un actif risqué, calculé comme le taux sans risque plus une contribution au portefeuille de marché en termes de risque multiplié par la différence entre le rendement du marché et le rendement sans risque. Ce concept fournit une base théorique pour l'investissement axé sur la valeur. Grâce à divers modèles, tels que les flux de trésorerie actualisés et les modèles de compression, les investisseurs peuvent estimer un prix équitable à l'aide du CAPM et capitaliser sur une meilleure compréhension du risque idiosyncrasique.

Le conférencier discute de diverses stratégies de gestion de portefeuille, avec un accent particulier sur l'investissement factoriel. L'investissement factoriel implique la prise en compte de plusieurs facteurs de risque, au-delà du seul risque de marché, lors de la construction d'un portefeuille. Chaque facteur comporte une prime qui lui est associée, ce qui conduit à différents styles d'investissement, y compris l'allocation factorielle, le timing factoriel ou un retour à l'investissement de valeur et à la sélection de titres. L'investissement factoriel aide à expliquer le risque idiosyncrasique et fournit une nouvelle interprétation de l'alpha et du bêta, où l'alpha et le bêta deviennent l'alpha total si le delta F dans l'équation est invariant dans le temps et positif.

Prodipta Ghosh souligne les principales différences entre l'investissement axé sur la valeur et l'investissement factoriel et examine quelle approche est la plus logique pour les commerçants de détail. Il note que l'investissement dans la valeur nécessite des recherches approfondies sur les entreprises individuelles et implique souvent une concentration dans le risque idiosyncratique, ce qui peut ne pas convenir aux petits commerçants de détail. D'autre part, l'investissement factoriel consiste à rechercher les facteurs de risque du marché et à les exploiter systématiquement pour allouer les investissements en fonction des rendements attendus. L'orateur aborde brièvement les distinctions entre la recherche discrétionnaire et la recherche quantitative, affirmant que la gestion quantitative peut offrir plus d'opportunités de surperformance si elle est utilisée correctement.

Le conférencier compare les investisseurs axés sur la valeur et les stratèges quantitatifs, notant que même si les investisseurs axés sur la valeur ont une probabilité de succès plus faible, ils ont le potentiel de générer des rendements substantiels. Les stratèges quantitatifs, en revanche, ont une probabilité de réussite plus élevée mais génèrent des rendements relativement faibles mais constants. La loi fondamentale de l'investissement décrit le ratio d'information comme le ratio de surperformance divisé par le risque du portefeuille, ce qui l'assimile au coefficient d'information ou au niveau de compétence multiplié par la racine carrée de n, où n représente le nombre de paris indépendants qui peuvent être faits. Les investisseurs quantitatifs peuvent avoir un nombre plus élevé de n, leur permettant d'optimiser un portefeuille factoriel. Ghosh développe également d'autres méthodes d'optimisation telles que les optimisations KD ou les optimisations de parité des risques, qui visent à maximiser la richesse terminale sur plusieurs périodes en accumulant de la richesse.

Prodipta Ghosh aborde ensuite la stratégie du portefeuille Kelly, soulignant sa domination à long terme en raison de sa concentration sur la maximisation de la richesse finale. Cependant, il prévient que la stratégie Kelly est également la plus agressive en termes de risque et peut ne pas convenir aux retraités ou aux personnes qui ne peuvent pas se permettre des risques à court terme. Il explique en outre la stratégie de parité des risques, qui vise à égaliser les contributions individuelles au risque et veille à ce que la somme des risques de tous les actifs reste équilibrée. Bien qu'il n'y ait aucune justification théorique à cette approche, elle est considérée comme une répartition raisonnable des risques. Au moment de choisir entre la stratégie de Kelly, la parité des risques et l'optimisation moyenne-variance, il faut tenir compte de leur appétit pour le risque et de la précision de leur modélisation, qui peut être améliorée grâce à la modélisation factorielle. En fin de compte, ces stratégies s'articulent autour de l'équilibre entre risque et rendement, en mettant fortement l'accent sur la mesure et la gestion efficaces du risque.

Prodipta Ghosh aborde ensuite le sujet des stratégies alpha et comment les combiner pour créer un portefeuille bien équilibré. Bien que les optimisations moyenne-variance puissent être utilisées pour les stratégies alpha, elles rencontrent un problème où toute l'allocation du portefeuille va à une seule meilleure stratégie basée uniquement sur des données historiques. Pour répondre à cette préoccupation, Ghosh introduit le concept de stratégies dans l'échantillon, où toutes les stratégies reçoivent un vote égal. Une autre approche est le portefeuille de changement de regret, qui utilise des techniques d'analyse des changements comme les modèles de Markov cachés ou l'analyse des points de changement pour répartir le capital entre différentes stratégies alpha. Une technique notable est l'approche sans regret, qui résout le problème de l'exploration par rapport à l'exploitation en explorant systématiquement chaque stratégie alpha pour identifier celle qui a le plus de potentiel avant d'y investir massivement.

Prodipta Ghosh souligne qu'il existe de nombreuses ressources disponibles pour une exploration plus approfondie de l'optimisation de portefeuille, y compris des plateformes comme Wikipedia et le cours récemment lancé par Contra sur la gestion quantitative de portefeuille. Il mentionne plusieurs opportunités d'apprentissage et de croissance dans l'industrie grâce aux programmes de Contra, tels que leur portail d'apprentissage interactif à votre rythme et Blue Shift, qui offre des backtests gratuits. Ghosh exprime sa gratitude au public pour sa participation et l'encourage à visiter le site Web de Contra pour obtenir des informations et des ressources supplémentaires.

  • 00:00:00 Prodipta Ghosh, vice-président de la gestion quantitative de portefeuille, explique qu'il n'y a pas de stratégie unique pour la négociation d'actions car les incertitudes existent sur les marchés financiers, le marché change avec le temps et les individus ont des objectifs différents et appétences au risque. Il souligne que même avec une vision ou un modèle parfait du monde, il ne serait pas possible de trouver des réponses au type de questions posées par les commerçants car chacun a un contexte différent. Par conséquent, il n'y a pas de stratégie parfaite pour qui que ce soit dans le monde.

  • 00:05:00 Prodipta Ghosh discute de quatre stratégies de gestion de portefeuille quantitatives, notamment l'utilisation des bandes de Bollinger, une stratégie de croisement de moyenne mobile simple, un modèle de chandelier doji et l'indice de force relative (RSI). Si en théorie la meilleure stratégie est celle avec un ratio de Sharpe élevé, les performances passées ne sont pas toujours garantes des résultats futurs. Par conséquent, la constitution d'un portefeuille de stratégies et d'actifs différents est cruciale pour éviter les pertes importantes et atténuer les risques. En allouant équitablement le capital aux quatre stratégies, Ghosh démontre comment un portefeuille diversifié peut éviter des pertes importantes face à la volatilité des marchés.

  • 00:10:00 Prodipta Ghosh explique les bases de la gestion de portefeuille et en quoi elle diffère de l'investissement dans une seule action. La gestion de portefeuille implique la création d'une stratégie pour plusieurs stratégies ou actifs, qui se préoccupe des risques et des incertitudes, du passage du temps et du contexte. La valeur d'une stratégie est déterminée par les rendements sous-jacents multipliés par les positions. D'autre part, la valeur du portefeuille est le flux sous-jacent pondéré de rendements. La gestion de portefeuille résout un problème mathématique en définissant une fonction U, qui est une fonction de la valeur du portefeuille P, et en trouvant les poids W qui satisfont la condition de maximisation pour maximiser U. Selon la façon dont U est défini et comment l'optimisation est effectuée, il peut être une variété de possibilités pour les stratégies d'optimisation, telles que l'optimisation moyenne-variance, l'optimisation de Kelly et l'optimisation de la pénalité de risque.

  • 00:15:00 Le conférencier discute des stratégies de gestion quantitative de portefeuille et de la façon dont les problèmes d'optimisation y jouent un rôle. Il parle des types de contraintes que l'on peut spécifier dans un problème d'optimisation, telles que la limitation de la plage d'un portefeuille, et des différents types de portefeuilles qui peuvent être construits, y compris ceux basés sur des stratégies alpha, des portefeuilles factoriels ou une collection de portefeuilles individuels. actions. L'objectif est de définir une condition de maximisation qui se traduit par un portefeuille avec une valeur maximale ou une fonction de la valeur du portefeuille. L'orateur aborde également la question de savoir si un portefeuille équipondéré a du sens, ce qui dépend de circonstances spécifiques et peut être considéré comme un problème d'optimisation avec une pénalité au carré des erreurs.

  • 00:20:00 Prodipta Ghosh discute du concept de risque et d'utilité dans la gestion de portefeuille. Il explique que même s'il peut sembler simple d'estimer les rendements et les risques attendus, en réalité, cela peut être assez délicat. Il introduit le concept de la théorie moderne du portefeuille et de l'utilité quadratique, qui visent à maximiser les rendements tout en minimisant les risques. Il utilise également l'exemple du paradoxe de Saint Pittsburgh pour illustrer comment les humains ne prennent pas toujours des décisions basées sur des moyennes mathématiques.

  • 00:25:00 Prodipta Ghosh explique la relation entre l'utilité et le risque, et comment elles conduisent à un bon portefeuille. Il démontre le concept de prime de risque, qui mesure la différence entre le paiement ou le rendement attendu d'un investissement risqué et le montant qu'une personne serait prête à payer pour un certain paiement. Il explique également qu'une fonction d'utilité est une fonction mathématique de la richesse qui nous indique combien vaut un dollar supplémentaire et aide à déterminer le montant à payer. En comprenant la relation entre l'utilité et le risque, les investisseurs peuvent construire un bon portefeuille qui équilibre le risque et le rendement.

  • 00:30:00 L'orateur discute du concept d'aversion au risque dans l'investissement, ce qui signifie que les investisseurs préfèrent certains investissements à ceux qui fluctuent. L'aversion au risque est une hypothèse courante dans la gestion quantitative de portefeuille, et la prime de risque est la valeur d'une lettre grecque appelée Pi, qui représente le montant qu'un investisseur est prêt à payer pour accepter un rendement fluctuant à moyenne nulle. L'orateur explique ensuite la fonction d'utilité quadratique et comment elle conduit à l'optimisation de la moyenne et de la variance d'un portefeuille. Construire un portefeuille basé sur la théorie moderne du portefeuille implique de trouver un équilibre entre la moyenne et la variance du portefeuille.

  • 00:35:00 Prodipta Ghosh explique le processus d'optimisation de l'utilité attendue du portefeuille en équilibrant la moyenne et la variance. Il utilise Excel pour simuler les rendements de différents actifs et calculer la matrice de covariance, qui est ensuite utilisée pour calculer les rendements, la variance et le risque du portefeuille en fonction de différentes pondérations. En faisant varier les pondérations et en calculant le rendement et la variance du portefeuille pour tous les cas possibles, un problème d'optimisation peut être résolu. Le graphique résultant montre le ratio de Sharpe, qui est le rapport rendement/risque, pour chaque ensemble de pondérations.

  • 00:40:00 Prodipta Ghosh explique le concept de frontières efficientes dans la théorie moderne du portefeuille. Il explique comment la frontière efficiente est la zone où un portefeuille devrait se situer pour obtenir des rendements maximaux en fonction d'une tolérance au risque donnée. Il explique en outre que si un actif à risque de prêt est ajouté, tel qu'un actif sans risque, le concept devient plus intéressant et le ratio de Sharpe le plus élevé est sélectionné dans le portefeuille tangent. Il décrit également la ligne reliant zéro au portefeuille tangent comme la ligne de marché et explique comment cela devient un choix entre acheter le portefeuille de marché et acheter un actif sans risque et définir les allocations.

  • 00:45:00 Prodipta Ghosh explique le modèle de tarification des immobilisations (CAPM). CAPM change le concept de risque en finance, mesurant le risque comme une contribution au portefeuille de marché plutôt qu'un risque autonome. Grâce à l'utilisation d'équations mathématiques, CAPM capture le taux de rendement requis pour un actif risqué, qui est le taux sans risque plus une contribution au portefeuille de marché en termes de risque multiplié par la différence entre le rendement du marché et le taux sans risque. retour. Ce concept fournit une base théorique pour l'investissement axé sur la valeur. Grâce à divers modèles, notamment des modèles de flux de trésorerie actualisés et de compression, les investisseurs estiment un prix équitable à l'aide du CAPM et capitalisent sur leur meilleure compréhension du risque idiosyncratique.

  • 00:50:00 Prodipta Ghosh discute de diverses stratégies de gestion de portefeuille, en se concentrant sur l'investissement factoriel. L'investissement factoriel implique de prendre en compte plusieurs facteurs de risque plutôt que le seul risque de marché lors de la création d'un portefeuille. Ghosh explique que chaque facteur a une prime qui lui est associée et cela conduit à différents styles d'investissement, y compris l'allocation des facteurs, le timing des facteurs, ou simplement revenir à l'investissement dans la valeur et à la sélection des actions si tout est déballé. L'investissement factoriel aide à expliquer le risque idiosyncrasique et fournit une nouvelle interprétation de l'alpha et du bêta, l'alpha et le bêta devenant l'alpha total si le delta F dans l'équation est invariant dans le temps et positif avec le bêta.

  • 00:55:00 Prodipta Ghosh discute des principales différences entre l'investissement axé sur la valeur et l'investissement factoriel, et celle qui a le plus de sens pour un commerçant de détail. Ghosh note que l'investissement dans la valeur nécessite un niveau élevé de recherche sur les entreprises individuelles et implique généralement une concentration de risques idiosyncratiques, ce qui peut ne pas convenir aux petits commerçants de détail. D'autre part, l'investissement factoriel consiste à rechercher les facteurs de risque du marché et à les sonder systématiquement pour déterminer les facteurs afin d'allouer les investissements en fonction du rendement attendu. Ghosh aborde également brièvement les différences entre la recherche discrétionnaire et la recherche quantitative, affirmant que la gestion quantitative peut offrir plus d'opportunités de surperformance si elle est utilisée correctement.

  • 01:00:00 Prodipta Ghosh explique la différence entre les investisseurs axés sur la valeur et les stratèges quantitatifs. Alors que les investisseurs axés sur la valeur ont une faible probabilité de succès, mais peuvent générer des multi-baggers, les stratèges quantitatifs ont une forte probabilité de succès, mais génèrent des rendements relativement faibles mais constants. La loi fondamentale de l'investissement décrit le ratio d'information comme un rapport de surperformance divisé par le risque du portefeuille, ce qui équivaut au coefficient d'information ou au niveau de compétence multiplié par la racine carrée de n, où n est le nombre de paris indépendants pouvant être pris. Par conséquent, un investisseur quantitatif peut avoir un nombre plus élevé de n, et c'est pourquoi il peut optimiser un portefeuille d'usine. En outre, Ghosh explique d'autres méthodes d'optimisation telles que les optimisations KD ou les optimisations de parité des risques, qui tentent de maximiser la richesse terminale sur plusieurs périodes en accumulant de la richesse.

  • 01:05:00 L'orateur explique la stratégie du portefeuille Kelly et sa domination à long terme en raison de sa concentration sur la maximisation de la richesse finale. Cependant, c'est aussi le plus agressif en termes de risque, ce qui signifie qu'il ne convient pas aux retraités ou aux personnes qui ne peuvent pas se permettre des risques à court terme. L'orateur discute également de la stratégie de parité des risques qui assimile les contributions individuelles au risque et exige que la somme des risques de tous les actifs soit égale. Il n'y a aucune justification théorique à cela, mais cela est considéré comme une répartition raisonnable des risques. Au moment de choisir entre Kelly, la parité des risques et l'optimisation moyenne-variance, il convient de tenir compte de leur appétit pour le risque et de la précision de leur modélisation, qui peut être améliorée à l'aide de la modélisation factorielle. Ces stratégies visent à équilibrer les risques et les rendements, l'accent étant mis sur la mesure et la gestion des risques étant plus critiques.

  • 01:10:00 L'orateur aborde le sujet des stratégies alpha et comment les combiner pour créer un bon portefeuille. Alors que les optimisations moyenne-variance peuvent être utilisées pour les stratégies alpha, il y a un problème où toute l'allocation dans le portefeuille va à une seule meilleure stratégie, qui est juste basée sur des données historiques. Une façon de résoudre ce problème consiste à utiliser des stratégies en échantillon, où toutes les stratégies ont un vote égal. Une autre approche est le portefeuille de changement de regret, qui utilise des techniques d'analyse du changement telles que les modèles de Markov cachés ou l'analyse des points de changement pour répartir le capital entre différentes stratégies alpha. Une technique particulière est appelée sans regret, qui est un problème d'exploration contre d'exploitation, où l'objectif est d'explorer chaque stratégie alpha et de déterminer laquelle a le plus de potentiel avant de s'y attaquer à fond.

  • 01:15:00 Le conférencier discute de diverses approches d'optimisation de portefeuille, y compris l'utilisation de la pondération exponentielle et d'un taux d'apprentissage pour équilibrer l'exploitation et l'exploration. Il mentionne également qu'il existe de nombreuses ressources disponibles sur le sujet, y compris Wikipedia et le cours récemment lancé par Contra sur la gestion de portefeuille quantitative. De plus, l'orateur parle de plusieurs opportunités d'apprentissage et de croissance dans l'industrie grâce aux programmes de Contra, y compris leur portail d'apprentissage interactif à votre rythme et le changement bleu, qui offre des backtests gratuits. Il conclut en remerciant le public pour sa participation et en l'encourageant à visiter le site Web de Contra pour plus d'informations.
Quantitative Portfolio Management Strategies By Prodipta Ghosh - July 23, 2019
Quantitative Portfolio Management Strategies By Prodipta Ghosh - July 23, 2019
  • 2019.07.24
  • www.youtube.com
Session Outline:- Difference between buying a stock and creating a portfolio?- How should one make investment decisions?- How to optimize a portfolio for bet...
 

Trading algorithmique | Est-ce bon pour vous et comment commencer



Trading algorithmique | Est-ce bon pour vous et comment commencer

Mesdames et messieurs, je voudrais vous présenter Nathan, le co-fondateur d'Elle Foam Advisory, qui partagera des informations précieuses sur le monde fascinant du trading algorithmique. Nathan commence sa présentation en définissant le trading algorithmique et en soulignant son importance dans le secteur financier. Il explique que le trading algorithmique implique l'utilisation d'algorithmes informatiques pour exécuter des transactions automatiquement, et qu'il joue un rôle crucial sur les marchés modernes.

Nathan poursuit en discutant de la nature évolutive du trading algorithmique et de la manière dont sa définition peut varier en fonction de l'emplacement géographique et des cadres réglementaires. Aux États-Unis, toute forme de trading systématique relève du trading algorithmique. Cependant, dans d'autres régions, il est spécifiquement considéré comme un trading algorithmique lorsque des algorithmes informatiques déterminent de manière autonome les paramètres de commande. Cette distinction met l'accent sur la diversité des approches et des perspectives dans le domaine.

L'orateur procède ensuite à faire la lumière sur les tendances actuelles de l'industrie en matière de trading algorithmique. Il met en évidence la prévalence croissante des commerçants de bricolage (Do-It-Yourself) qui utilisent des stratégies algorithmiques. En outre, Nathan présente des données qui démontrent la croissance significative de la part de marché du trading algorithmique en Asie, aux États-Unis et en Inde. Malgré cette croissance, il reconnaît que la participation des détaillants au trading algorithmique reste relativement faible et promet d'expliquer ce phénomène dans les diapositives à venir.

À l'avenir, Nathan explore l'impact du trading algorithmique sur le marché du travail. Il explique comment l'automatisation remplace les traders humains, et les entreprises recherchent désormais des codeurs pour développer des stratégies de trading sophistiquées et exploiter la puissance des machines. Le conférencier met l'accent sur quatre avantages clés du trading automatique par rapport au trading humain : la disponibilité, le temps de réaction, l'évolutivité et la capacité d'apprendre et de s'améliorer. Les machines peuvent surveiller en permanence les risques, exécuter des transactions rapidement, s'adapter efficacement aux changements du marché et apprendre de leurs expériences plus efficacement que les traders humains.

Abordant la faible participation des détaillants au trading algorithmique, Nathan explique plusieurs raisons à cet écart. Premièrement, le trading algorithmique nécessite une combinaison de connaissances techniques, y compris le codage et les statistiques, avec une solide compréhension de la finance et de la dynamique du marché. Deuxièmement, l'accès aux données de marché pertinentes est crucial pour le backtesting et le développement de stratégies robustes. Enfin, la transition du trading manuel au trading algorithmique peut être difficile sans les conseils de praticiens du marché expérimentés qui possèdent une expertise pratique dans le domaine. Malgré ces obstacles, Nathan souligne les avantages indéniables du trading algorithmique, tels que l'évolutivité, la gestion efficace des risques et l'élimination de l'erreur humaine, ce qui en fait une option attrayante pour les traders.

Nathan présente ensuite au public le cours EPAct proposé par Point Density. Il discute de la difficulté de trouver une plate-forme qui offre un support complet pour le trading algorithmique, englobant les conseils des praticiens du marché, les connaissances techniques et le contenu à jour. Le cours EPAct vise à combler ce fossé en offrant un contenu riche créé par des professionnels de l'industrie qui est continuellement mis à jour pour refléter les dernières tendances. Le cours fournit également un soutien dédié de la part de la faculté et adopte une approche axée sur le marché, ce qui en fait une ressource idéale pour les débutants qui s'aventurent dans le trading algorithmique et ceux qui cherchent à faire progresser leur carrière dans ce domaine.

Élaborant davantage sur le contenu du cours, Nathan décrit les modules couverts dans le programme de trading algorithmique. Le cours commence par un module d'introduction qui établit une base avec les statistiques de base, la théorie des probabilités et l'application de modèles financiers. Il progresse ensuite pour couvrir les bases de Python et les statistiques avancées, y compris les modèles gaussiens utilisés pour comprendre des stratégies complexes. Le cours comprend également des sessions sur la création de CV, la mise en place d'un bureau de négociation personnel et la réalisation d'entretiens simulés pour des stages auprès de plus de 100 entreprises partenaires. Tout au long du cours, l'instructeur fournit une assistance personnelle aux étudiants, en veillant à ce que toutes les questions ou difficultés soient traitées rapidement. De plus, rejoindre le cours EPAct offre des avantages exclusifs, y compris l'accès aux événements et fonctionnalités de la communauté, qui seront discutés plus en détail dans les sections à venir.

Poursuivant sa présentation, Nathan plonge dans les détails de chaque module du cours de trading algorithmique. Le cours commence par le module des éléments constitutifs, qui jette les bases de la compréhension des effets sur l'équité et des stratégies futures. Les étudiants participent à des exercices pratiques pour créer diverses stratégies de trading. Le programme se penche ensuite sur la microstructure et les implémentations du marché, explorant les subtilités des idées de backtesting sur des données historiques à l'aide de différentes API et courtiers. L'apprentissage automatique est également présenté comme un domaine émergent dans le trading algorithmique. L'importance du trading et des opérations frontales est soulignée, avec un module dédié axé sur la mise en place d'une infrastructure de trading algorithmique. Le cours couvre également le trading d'options, l'optimisation de portefeuille et la gestion des risques. Enfin, les étudiants entreprennent un projet et, après avoir réussi l'examen, reçoivent un certificat vérifié, validant leur expertise en trading algorithmique.

Nathan attire ensuite l'attention du public sur le programme de trading algorithmique proposé par QuantInsti. Il souligne qu'à la fin du programme, les participants reçoivent un certificat d'impact vérifié après avoir suivi un cours complet de plus de 300 heures. La faculté comprend des professionnels renommés de l'industrie qui sont accessibles et offrent une expérience pratique dans différentes classes d'actifs et rôles. Le cours couvre divers aspects allant de la préparation du CV à l'accès aux API et aux réseaux de courtiers pour une mise en œuvre transparente. De plus, l'équipe de QuantInsti assiste les participants avec des opportunités de collecte de fonds, ce qui en fait un choix idéal pour ceux qui recherchent une formation complète en trading algorithmique.

Suite à la discussion de Nathan, Nadine monte sur scène pour éclairer le public sur les avantages de faire partie de la communauté EPAT. Elle met l'accent sur l'orientation tout au long de la vie offerte aux membres de la communauté, ainsi que sur la possibilité de se connecter avec d'autres étudiants de plus de 165 pays. Des événements et des sessions exclusifs, un accès gratuit et subventionné aux courtiers et l'accès à des outils de backtesting comme BlueShift font partie des privilèges de la communauté. En outre, EPAT ajoute une dimension quantitative fondamentale à l'ensemble des compétences existantes d'un individu, améliorant ainsi son profil professionnel. Notamment, le programme EPAT est reconnu dans le cadre du régime de formation financière, et les professionnels en activité à Singapour peuvent bénéficier d'un remboursement de 2 000 dollars singapouriens.

En conclusion de la présentation, Ben Magnano partage son parcours personnel dans le trading algorithmique. Il raconte ses premières difficultés avec le day trading en 2005 jusqu'à ce qu'il trouve QuantInsti, où il a reçu une formation rigoureuse sur les fondamentaux du trading quantitatif et algorithmique. Ben souligne l'importance d'apprendre Python et d'être capable d'écrire ses propres programmes, obtenant finalement son certificat de trader quantitatif. Cette réalisation lui a ouvert des portes, menant à une opportunité en tant que consultant en recherche chez WorldQuant, où il continue d'affiner ses compétences en codage et de se tenir au courant des dernières tendances de l'industrie, telles que l'intelligence artificielle.

Dans les derniers instants de la vidéo, l'orateur reconnaît l'énorme croissance du trading algorithmique et comment il est de plus en plus préféré par les traders qui cherchent à minimiser le besoin d'une surveillance constante. L'orateur exprime sa gratitude pour l'analyse exceptionnelle fournie par les présentateurs, reconnaissant les précieuses informations partagées tout au long de la présentation. À la fin de la vidéo, l'orateur résume le programme ePAD, conçu pour doter les participants de compétences prêtes pour l'industrie dans le domaine quantitatif et FinTech, en s'assurant qu'ils sont bien préparés pour prospérer dans le domaine du trading algorithmique.

  • 00:00:00 Dans cette section, l'hôte présente Nathan, le co-fondateur d'Elle Foam Advisory, qui discutera du trading algorithmique. Nathan commence par définir ce qu'est le trading algorithmique et pourquoi il est important. Il parle également des tendances de l'industrie et des perspectives de carrière dans le trading algorithmique. Enfin, Nathan explique comment le programme Quantity peut aider les individus à démarrer ou à construire une carrière dans le trading algorithmique. Il conclut en assurant à l'auditoire qu'il répondra à leurs questions tout au long de la présentation.

  • 00:05:00 Dans cette section, l'orateur discute de la définition du trading algorithmique et de ses différences en fonction de la géographie et de la réglementation. Aux États-Unis, tout trading systématique est considéré comme un trading algorithmique, tandis que dans d'autres régions, il ne peut être considéré comme algorithmique que si un ordinateur détermine automatiquement les paramètres de l'ordre. Le conférencier note que le trading algorithmique évolue rapidement et a contribué à une montée en puissance du trading réalisé par les commerçants DIY. L'orateur présente également des données qui montrent que la part de marché du trading algorithmique a considérablement augmenté en Asie, aux États-Unis et en Inde, mais la participation des détaillants au trading algorithmique reste faible. L'orateur promet d'expliquer pourquoi c'est le cas dans les diapositives à venir.

  • 00:10:00 Dans cette section, l'orateur discute de l'essor du trading algorithmique et de son impact sur le marché du travail. Il explique comment le trading algorithmique est en train de s'automatiser et de remplacer les traders humains, et comment les entreprises embauchent désormais des codeurs pour développer leurs stratégies et laisser les machines trader. L'orateur met en évidence quatre principaux avantages du trading automatique par rapport au trading humain, tels que la disponibilité, le temps de réaction, l'évolutivité et la capacité d'apprendre et de s'améliorer. Il soutient que les machines peuvent surveiller les risques, prendre des transactions et réagir aux changements du marché plus rapidement et plus efficacement que les commerçants humains.

  • 00:15:00 Dans cette section, l'orateur discute des raisons pour lesquelles la participation des détaillants au trading algorithmique est encore faible malgré sa popularité et ses avantages croissants. Premièrement, le trading algorithmique nécessite des connaissances techniques telles que le codage et les statistiques en plus de la finance et de la compréhension du marché. Deuxièmement, l'accès aux données de marché pertinentes pour le backtesting et l'élaboration de stratégies est crucial. Enfin, la transition du trading manuel au trading algorithmique peut être difficile sans les conseils d'un praticien du marché qui a de l'expérience dans le domaine. Néanmoins, les avantages du trading algorithmique tels que l'évolutivité, la gestion des risques et l'élimination des erreurs humaines en font une option attrayante pour les traders.

  • 00:20:00 Dans cette section, l'orateur discute des avantages de l'utilisation du cours EPAct de Point Densitiy pour ceux qui s'intéressent au trading algorithmique. Ils soulignent la difficulté de trouver une plate-forme qui combine les composants nécessaires au trading algorithmique, tels que les conseils des praticiens du marché, les connaissances techniques et le contenu mis à jour. Le cours EPAct vise à combler ce fossé en fournissant un contenu riche construit par des praticiens du marché et constamment mis à jour pour refléter les tendances actuelles. De plus, le cours offre un soutien dédié de la part de la faculté et une approche axée sur le marché, ce qui en fait une excellente ressource pour ceux qui débutent avec le trading algorithmique ou qui cherchent à construire une carrière dans le domaine.

  • 00:25:00 Dans cette section, l'orateur discute d'un cours sur le trading algorithmique et du contenu couvert dans le cours. Le cours commence par un module d'introduction où les étudiants de divers horizons peuvent créer une base avec des statistiques de base, la théorie des probabilités et l'application de modèles financiers. Le cours passe aux bases de Python et aux statistiques avancées telles que les modèles gaussiens, qui sont utilisés pour comprendre des stratégies plus complexes. Le cours comprend également la création de CV, la mise en place de votre propre bureau de négociation et la conduite d'entretiens simulés pour des stages auprès de plus de 100 entreprises partenaires. L'instructeur du cours aide personnellement les étudiants en cas de questions ou de difficultés, en veillant à ce que les doutes soient dissipés. L'orateur mentionne également les avantages exclusifs de rejoindre la communauté mondiale du trading algorithmique, tels que les événements et les fonctionnalités de la communauté, qui seront abordés dans les sections suivantes.

  • 00:30:00 Dans cette section, l'orateur aborde les différents modules qui composent le cours de trading algorithmique. Le cours commence par les blocs de construction et passe aux effets d'équité et aux stratégies futures, où les étudiants travailleront à la création de différentes stratégies dans un environnement pratique. La microstructure du marché et les implémentations sont également abordées, suivies d'un module sur les idées de back-testing sur les données historiques à l'aide de différentes API et courtiers. L'apprentissage automatique est également exploré dans un nouveau domaine. Le trading et les opérations frontales sont soulignés comme importants, avec un module couvrant la façon dont l'infrastructure de trading algorithmique est mise en place. Le cours comprend également un module sur le trading d'options, l'optimisation de portefeuille et la gestion des risques. Enfin, les étudiants travaillent sur un projet et, après avoir réussi l'examen, reçoivent un certificat vérifié.

  • 00:35:00 Dans cette section, l'orateur discute du programme de trading algorithmique proposé par QuantInsti, qui fournit un certificat d'impact vérifié après avoir suivi un cours de plus de 300 heures. La faculté comprend des noms bien connus dans l'industrie, qui sont accessibles et offrent une expérience pratique dans différentes classes d'actifs et rôles. Le cours couvre tout, de la préparation du CV à l'accès aux API et aux réseaux de courtiers pour une mise en œuvre facile. De plus, l'équipe de QuantInsti aide à la collecte de fonds, ce qui en fait un cours idéal pour ceux qui souhaitent apprendre le trading algorithmique.

  • 00:40:00 Dans cette section, Nadine discute des avantages de faire partie de la communauté EPAT qui comprend l'orientation tout au long de la vie, la possibilité de se connecter avec des étudiants de plus de 165 pays, des événements et des sessions exclusifs, un accès gratuit et subventionné aux courtiers, un accès aux outils de backtesting tels que BlueShift et à l'accès à vie au contenu le plus à jour. Il ajoute également une dimension quantitative fondamentale à votre ensemble de compétences existant. EPAT est reconnu dans le cadre du programme de formation financière et offre une prestation de 2 000 dollars singapouriens à titre de remboursement pour les professionnels travaillant à Singapour.

  • 00:45:00 Dans cette section, Ben Magnano discute de son parcours avec le trading algorithmique, à partir de 2005, alors qu'il se débattait avec le day trading. Il a finalement trouvé QuantInsti, où il a été initié aux bases et aux fondamentaux du trading quantitatif et algorithmique grâce à une formation et des enseignements rigoureux. Il a appris le python et a pu écrire son propre programme, recevant plus tard son certificat de trader quantitatif. Cela a conduit à une opportunité chez WorldQuant en tant que consultant en recherche, et il travaille toujours avec eux aujourd'hui, cherchant toujours à améliorer son style de codage et à se tenir au courant des dernières tendances de l'industrie, telles que l'intelligence artificielle.

  • 00:50:00 Dans cette section, le conférencier parle de la formidable croissance dans le domaine du trading algorithmique et de la façon dont il devient de plus en plus la méthode préférée des traders qui ne veulent pas passer leur journée à surveiller leurs transactions. Le conférencier rend également hommage aux analystes quantitatifs pour avoir concrétisé cette vision et exprime sa gratitude pour l'excellente analyse fournie par les présentateurs. La vidéo se termine par un bref résumé d'ePAD, un programme conçu pour préparer les participants à l'industrie dans le domaine quantique et FinTech.
Algorithmic Trading | Is It Right for You & How To Get Started
Algorithmic Trading | Is It Right for You & How To Get Started
  • 2019.06.26
  • www.youtube.com
Nitin Aggarwal is the Co-founder of Alphom Advisory, which focuses on High Frequency Trading Strategies. He was also one of the key members of iRage Options ...
 

Modèles de risque pour le trading quantitatif Par Zura Kakushadze - 16 mai 2019



Modèles de risque pour le trading quantitatif Par Zura Kakushadze - 16 mai 2019

Zura Kakushadze, dans sa discussion, se concentre sur les défis associés au calcul de l'inverse de la matrice de covariance pour optimiser des portefeuilles de 2 000 actions américaines. Il souligne que lorsque le nombre d'observations dans la série chronologique des rendements est inférieur au nombre d'actions dans le portefeuille, la matrice de covariance de l'échantillon devient singulière et ne peut pas être inversée. Même s'ils n'étaient pas singuliers, les éléments hors diagonale représentant les corrélations seraient très instables hors échantillon à moins qu'il n'y ait un nombre significativement plus élevé d'observations par rapport aux stocks, ce qui n'est généralement pas le cas dans les applications réelles.

Kakushadze explique que les modèles de risque pour les stratégies de trading quantitatives diffèrent des modèles de risque traditionnels en raison de périodes de détention plus courtes et d'alphas éphémères. De longues périodes rétrospectives ne sont pas souhaitables pour ces stratégies, et des méthodes alternatives de calcul de la matrice de covariance sont nécessaires. Une approche courante consiste à utiliser un modèle factoriel qui décompose le risque en risque factoriel et en risque spécifique. L'avantage du modèle factoriel est qu'il représente la grande matrice de covariance par une matrice de covariance factorielle beaucoup plus petite, ce qui le rend efficace en termes de calcul. Cependant, Kakushadze souligne qu'il y a encore des détails complexes qui doivent être traités dans le modèle factoriel.

Le conférencier discute en outre des défis associés au calcul de la volatilité pour chaque action et suggère de se concentrer sur la matrice de corrélation de l'échantillon plutôt que sur la matrice de covariance de l'échantillon. La matrice de corrélation d'échantillon est préférée en raison de problèmes tels que la singularité, l'instabilité et d'autres problèmes associés à la matrice de covariance. Kakushadze propose de factoriser les variances asymétriques et d'utiliser un modèle factoriel pour la matrice de corrélation au lieu de la matrice de covariance. La question de la détermination des facteurs de risque se pose et deux possibilités sont proposées : utiliser les composantes principales de la matrice de corrélation de l'échantillon ou utiliser des facteurs de style tels que la taille, le momentum et la volatilité.

Différents types de facteurs de risque adaptés au trading quantitatif sont explorés, y compris les facteurs de style et les classifications sectorielles. L'orateur souligne l'importance d'utiliser des facteurs à horizon court pertinents pour le trading et à exclure les facteurs à horizon plus long. Le risque de neutraliser par inadvertance les facteurs alpha souhaitables dans le modèle de risque est également discuté, en soulignant la nécessité d'une sélection et d'une pondération rigoureuses des facteurs de risque.

Kakushadze explique que les modèles de risque standardisés achetés auprès de fournisseurs sont incapables de supprimer les facteurs de risque indésirables ou de couvrir toutes les directions pertinentes de l'espace de risque d'un trader. Par conséquent, l'orateur suggère de créer un modèle de risque personnalisé à partir de zéro. Une approche consiste à utiliser des modèles de risque statistiques, qui impliquent de prendre une série chronologique de rendements avec une période rétrospective limitée et de créer des saturations factorielles basées sur les principales composantes de la matrice de corrélation de l'échantillon.

Le concept de rang effectif est introduit comme moyen de déterminer le nombre de composantes principales à utiliser comme facteurs de risque. Le rang effectif mesure la dimensionnalité effective d'une matrice et peut être calculé à l'aide de l'entropie spectrale. Cependant, les modèles de risque statistiques ont des limites en termes de nombre de facteurs de risque, car ils sont limités par le nombre d'observations, ce qui entraîne une couverture limitée de l'espace de risque. L'instabilité des composantes principales supérieures hors échantillon est également préoccupante.

L'instabilité des corrélations par paires hors échantillon et des éléments hors diagonale dans la matrice de corrélation est discutée. Kakushadze explique que les composantes principales supérieures calculées à partir d'une matrice de corrélation instable sont fréquemment mises à jour et instables, tandis que la première composante principale a tendance à être relativement stable. L'orateur se penche également sur la définition des facteurs de style adaptés aux stratégies de détention plus courtes et suggère de supprimer les corrélations statistiquement insignifiantes, telles que les actions en circulation, des stratégies de négociation intrajournalière.

Quatre facteurs communs utilisés dans les modèles de trading quantitatif à horizon court sont discutés : la direction (momentum), la volatilité, la liquidité et le prix. Kakushadze explique comment chaque facteur est défini et comment les rendements des facteurs peuvent être calculés à l'aide de la régression transversale. Le calcul du ratio de Sharpe annualisé pour chaque rendement de facteur est mis en évidence pour déterminer leur pertinence statistique et leur adéquation aux stratégies de trading.

L'orateur passe ensuite au test et à la vérification des saturations factorielles et de l'efficacité des facteurs de style dans la modélisation des risques. Le backtesting sur les transactions intrajournalières ou les transactions alpha plus courtes sur les résidus après avoir factorisé les rendements historiques à l'aide des saturations factorielles est suggéré comme un moyen de tester les saturations factorielles. La valeur des grands secteurs par rapport aux facteurs de style est mise en évidence, même au niveau le moins granulaire. Il est recommandé de construire des modèles de risque basés sur des industries ou des sous-industries à l'aide de classifications fondamentales de l'industrie, car ils couvrent une plus grande partie de l'espace de risque. La stabilité de la première composante principale hors échantillon affecte l'efficacité de ces modèles de risque.

La construction d'une matrice de saturation des facteurs pour un grand nombre de sous-industries est discutée, et des classifications hiérarchiques des industries sont proposées comme solution. Cette approche consiste à modéliser d'abord les sous-industries, puis à utiliser le niveau de granularité suivant des industries pour modéliser les facteurs de risque, en continuant jusqu'à ce que le problème soit réduit à une matrice plus petite pouvant être correctement calculée.

Le processus de réduction des problèmes étape par étape pour calculer les modèles de risque pour le trading quantitatif est expliqué. En calculant initialement une matrice de saturation des facteurs d'une taille inférieure, par exemple 10 sur 10, à la matrice de covariance de l'échantillon, Kakushadze construit un modèle à un facteur pour le facteur restant, qui est le marché. Cela réduit le problème d'une grande matrice à une plus petite. Il est suggéré d'inclure des facteurs de style dans cette construction, mais leur contribution peut être limitée par rapport à un plus grand nombre de facteurs de risque de diverses industries. Les facteurs de style peuvent ne pas être des substituts idéaux pour modéliser les corrélations entre les actions.

L'importance d'inclure une interception dans le processus de normalisation des facteurs de style est expliquée. L'orateur précise que le logarithme du prix, généralement utilisé comme facteur de style, est en fait le logarithme du prix divisé par un facteur de normalisation. Le facteur de normalisation est empirique et peut être personnalisé en fonction des préférences du trader. Alors que les facteurs basés sur l'industrie ont tendance à être des proxys fiables pour modéliser les corrélations, les combinaisons bilinéaires de facteurs de style sont considérées comme de mauvais proxys. Par conséquent, il est conseillé aux traders de se concentrer sur les facteurs sectoriels et de personnaliser leurs modèles en fonction de leur style de trading et des alphas de trading quantitatifs.

Le conférencier présente le concept d'hétérosis, qui combine des idées puissantes telles que des modèles de facteurs, des classifications d'industrie et des composants principaux dans une construction qui peut être très efficace dans la modélisation des risques. Les techniques de regroupement sont également discutées comme un moyen de construire des facteurs de risque à l'aide de schémas de regroupement à plusieurs niveaux qui peuvent remplacer les classifications fondamentales de l'industrie. Cependant, les algorithmes de clustering non déterministes peuvent produire des clusters différents à chaque fois qu'ils sont exécutés, ce qui entraîne du bruit dans le système. Pour réduire le bruit, un grand nombre de regroupements peuvent être moyennés ou d'autres techniques telles que la réduction de la dimensionnalité ou l'analyse en composantes principales peuvent être utilisées.

Différentes approches de regroupement dans les modèles de risque de trading quantitatif sont explorées. L'orateur explique que si le clustering k-means peut être non déterministe, les alternatives déterministes telles que le clustering hiérarchique peuvent être subjectives et plus lentes. L'orateur suggère d'utiliser les modèles de risque eux-mêmes pour l'agrégation au lieu de s'appuyer uniquement sur le regroupement. Dans le cas des k-moyennes, la nature non déterministe provient de l'initialisation des centres de cluster, mais trouver le minimum global n'est pas toujours nécessaire. Pour améliorer l'approche naïve consistant à utiliser les rendements historiques, il est proposé de normaliser les rendements par rapport aux volatilités historiques.

La normalisation des clusters et le clustering à plusieurs niveaux sont discutés pour le commerce quantitatif. Il est recommandé de procéder au regroupement en divisant les rendements par la variance au lieu de normaliser les rendements avec deux écarts-types pour optimiser les portefeuilles et améliorer les performances. Deux approches pour le clustering multi-niveaux sont présentées : ascendante, où le niveau le plus granulaire est créé en premier, suivi par des clusters de clustering successivement, et descendante, où le niveau le moins granulaire est créé en premier, suivi par des tickers de clustering successivement. Les algorithmes non déterministes comme les algorithmes hiérarchiques ne sont pas avantageux en termes de performances par rapport aux algorithmes déterministes, et l'intervenant suggère d'utiliser des techniques de clustering et d'agrégation.

L'orateur aborde la question de la détermination du nombre de clusters dans les modèles de risque basés sur le clustering. Les méthodes traditionnelles telles que la méthode du coude ou l'analyse de la silhouette sont mentionnées, mais elles ne fournissent pas toujours des résultats fiables. Au lieu de cela, l'orateur suggère d'utiliser une analyse de stabilité, qui consiste à créer plusieurs solutions de clustering et à mesurer la stabilité des clusters résultants. La stabilité peut être évaluée à l'aide de techniques telles que la stabilité des paires de clusters ou la stabilité du bootstrap.

Kakushadze souligne l'importance de la stabilité dans les modèles de risque basés sur le clustering, car des clusters instables peuvent conduire à des estimations de risque non fiables. Il suggère que les clusters stables devraient être utilisés pour la modélisation des risques, tandis que les clusters instables devraient être rejetés ou combinés avec d'autres clusters pour améliorer la stabilité. Le conférencier mentionne également l'utilisation de techniques d'apprentissage automatique, telles que le clustering hiérarchique utilisant des algorithmes d'apprentissage automatique, comme alternative aux méthodes de clustering traditionnelles.

La discussion passe ensuite à la construction de modèles de risque basés sur les clusters sélectionnés. L'orateur propose d'utiliser la matrice de corrélation de l'échantillon au sein de chaque grappe pour estimer les saturations factorielles. En décomposant la matrice de corrélation de l'échantillon de chaque grappe en ses valeurs propres et ses vecteurs propres, les saturations factorielles peuvent être obtenues. La matrice des saturations factorielles pour l'ensemble du portefeuille peut alors être construite en combinant les saturations factorielles de chaque groupe.

Le conférencier souligne l'importance de bien normaliser les saturations factorielles pour s'assurer qu'elles représentent les contributions au risque. Il suggère d'utiliser l'inverse des valeurs propres comme pondération pour les saturations factorielles afin d'atteindre la parité des risques. Cela garantit que chaque action contribue de manière égale au risque global du portefeuille. Le modèle de risque peut être encore amélioré en incluant des facteurs supplémentaires tels que des facteurs de style ou des facteurs sectoriels.

Zura Kakushadze discute des défis et des approches dans la construction de modèles de risque pour les stratégies de trading quantitatives. Il souligne l'importance d'aborder des questions telles que la singularité et l'instabilité dans la matrice de covariance, ainsi que de sélectionner des facteurs de risque et des techniques de regroupement appropriés. En combinant des modèles factoriels, des classifications sectorielles et des regroupements, les traders peuvent créer des modèles de risque personnalisés qui capturent efficacement les caractéristiques de risque de leurs portefeuilles.

  • 00:00:00 Le présentateur aborde la question du calcul de l'inverse de la matrice de covariance afin d'optimiser un portefeuille de 2 000 actions américaines, en utilisant des techniques telles que l'optimisation de la variance moyenne ou la maximisation du ratio de Sharpe. Il explique que si le nombre d'observations dans la série chronologique des rendements est inférieur au nombre d'actions dans le portefeuille, la matrice de covariance de l'échantillon sera singulière et ne pourra pas être inversée. Même s'ils n'étaient pas singuliers, les éléments hors diagonale (représentant des corrélations) seraient très instables hors échantillon à moins que le nombre d'observations ne soit bien supérieur au nombre d'actions dans le portefeuille, ce qui n'est généralement jamais le cas dans applications réelles.

  • 00:05:00 Zura Kakushadze explique en quoi les modèles de risque pour les stratégies de trading quantitatives diffèrent des modèles de risque traditionnels. Avec des périodes de détention plus courtes et des alphas éphémères, de longues périodes rétrospectives ne sont pas souhaitables pour ces stratégies, et un remplacement de la matrice de covariance de l'échantillon est nécessaire. Cela se fait généralement au moyen d'un modèle factoriel, qui décompose le risque en risque factoriel et en risque spécifique. Le modèle factoriel a l'avantage de modéliser la grande matrice par une matrice de covariance factorielle beaucoup plus petite, ce qui la rend efficace en termes de calcul. Cependant, il reste encore des détails diaboliques à régler.

  • 00:10:00 Zura Kakushadze discute des problèmes de calcul de la volatilité (Sigma) pour chaque action et explique que la matrice de corrélation de l'échantillon, plutôt que la matrice de covariance de l'échantillon, devrait être au centre de la modélisation en raison de sa singularité, de son instabilité et d'autres questions. Il suggère de factoriser les variances asymétriques et de modéliser via un modèle factoriel pour la matrice de corrélation, et non la matrice de covariance. La question de savoir quels devraient être les facteurs de risque se pose, et il suggère deux possibilités : utiliser certains des principaux composants de la matrice de corrélation de l'échantillon ou utiliser les facteurs dits de style, qui sont les propriétés mesurées des actions telles que la taille, le momentum, la volatilité, etc.

  • 00:15:00 Zura Kakushadze discute des différents types de facteurs de risque pouvant être utilisés dans le trading quantitatif, y compris les facteurs de style et les classifications sectorielles. Il souligne le problème de l'utilisation de facteurs de style à horizon plus long dans le trading à court terme, car ils peuvent créer du bruit dans l'optimisation et générer des transactions supplémentaires sans alpha derrière eux. Il est important de se concentrer sur les facteurs à horizon court qui sont pertinents pour le trading et d'exclure les facteurs à horizon plus long. Un autre problème est la neutralisation alpha par inadvertance, où un facteur du modèle de risque qu'il est souhaitable d'être long peut être neutralisé par inadvertance, de sorte qu'une attention particulière doit être accordée à la sélection et à la pondération des facteurs de risque.

  • 00:20:00 L'orateur explique comment les modèles de risque optimisés peuvent neutraliser le facteur alpha souhaitable sur lequel les traders quantitatifs veulent être longs. Les modèles de risque standardisés achetés auprès de fournisseurs sont incapables de supprimer les facteurs de risque indésirables du modèle factoriel ou de la matrice de covariance et ne peuvent pas couvrir les directions pertinentes de l'espace de risque du trader. Par conséquent, l'orateur suggère qu'un modèle de risque personnalisé devrait être construit à partir de zéro. Une façon de créer un modèle de risque personnalisé consiste à utiliser des modèles de risque statistiques, ce qui implique de prendre une série chronologique de rendements avec une période rétrospective limitée et de créer des saturations factorielles basées sur les K premières composantes principales de la matrice de corrélation de l'échantillon.

  • 00:25:00 Zura Kakushadze discute du classement effectif comme moyen de déterminer le nombre de composants principaux à utiliser comme facteurs de risque dans une matrice de saturation des facteurs. Le rang effectif est défini comme la dimensionnalité effective d'une matrice et peut être calculé à l'aide de l'entropie spectrale pour déterminer la dimensionnalité effective d'une matrice de corrélation d'échantillon. La limitation de l'utilisation des modèles de risque statistiques est que le nombre de facteurs de risque est limité par le nombre d'observations, ce qui entraîne la couverture d'une partie relativement petite de l'espace de risque. L'instabilité hors échantillon est également un problème avec les composants principaux plus élevés de la matrice de corrélation de l'échantillon.

  • 00:30:00 Zura Kakushadze parle de l'instabilité des corrélations par paires hors échantillon et de son lien avec l'instabilité des éléments hors diagonale dans la matrice de corrélation. Il explique que les composantes principales supérieures qui sont calculées à partir de cette matrice de corrélation instable sont mises à jour fréquemment et sont instables, tandis que la première composante principale est relativement stable. Kakushadze explique également comment définir les facteurs de style pertinents pour les stratégies de détention plus courtes, telles que la capitalisation boursière et le log du prix, et comment les actions en circulation peuvent être abandonnées car elles ont des corrélations statistiquement insignifiantes avec l'alpha dans les stratégies de trading intrajournalier.

  • 00:35:00 Zura Kakushadze discute de quatre facteurs communs qui sont utilisés dans les modèles de trading quantitatif à court terme : direction (momentum), volatilité, liquidité et prix. Il explique comment définir chacun de ces facteurs et comment calculer leurs rendements factoriels à l'aide de la régression transversale. Kakushadze souligne également l'importance de calculer le ratio de Sharpe annualisé pour chaque rendement de facteur afin de déterminer leur pertinence statistique et leur adéquation aux paris dans une stratégie de trading.

  • 00:40:00 L'orateur discute des moyens de tester et de vérifier les saturations factorielles et l'efficacité des facteurs de style dans la modélisation des risques. Une façon de tester les saturations factorielles consiste à exécuter des backtests sur des transactions intrajournalières ou des transactions alpha plus courtes sur les résidus après avoir factorisé les rendements historiques à l'aide des saturations factorielles. L'orateur présente également des données de backtests, soulignant la valeur des grands secteurs par rapport aux facteurs de style, même au niveau le moins granulaire. L'orateur suggère ensuite de construire des modèles de risque basés sur des industries ou des sous-industries en utilisant des classifications sectorielles fondamentales telles que Bix ou GICS, car elles couvrent une plus grande partie de l'espace de risque que les facteurs de style. L'efficacité de ces modèles de risque dépend de la stabilité de la première composante principale hors échantillon.

  • 00:45:00 Zura Kakushadze discute de la construction d'une matrice de saturation des facteurs et du défi de la calculer correctement pour un grand nombre de sous-industries. Il suggère des classifications hiérarchiques de l'industrie comme solution où le problème est réduit à une matrice plus petite en utilisant une approche d'intégration des risques de poupée russe. Cela implique d'abord de modéliser les sous-industries, puis de modéliser ces facteurs de risque en utilisant le niveau de granularité suivant des industries et ainsi de suite jusqu'à ce que le problème soit réduit à une matrice plus petite qui peut être correctement calculée.

  • 00:50:00 Zura Kakushadze discute du processus de réduction des problèmes par étapes pour calculer des modèles de risque pour le trading quantitatif. En calculant une matrice de chargements de facteurs 10 sur 10 à la matrice de covariance de l'échantillon, Kakushadze peut construire un modèle à un facteur pour le facteur restant qui est le marché, réduisant le problème de 2000 par 2000 à un par un. Il suggère d'inclure des facteurs de style dans cette construction, mais note que leur contribution peut être limitée par rapport à un plus grand nombre de facteurs de risque de diverses industries. De plus, les facteurs de style peuvent ne pas être de bons substituts pour modéliser les corrélations dans les corrélations par paires entre les actions.

  • 00:55:00 Zura Kakushadze explique pourquoi une interception doit être incluse dans le processus de normalisation des facteurs de style. L'ordonnée à l'origine est nécessaire car le logarithme du prix, qui est généralement utilisé comme facteur de style, n'est pas réellement le logarithme du prix mais le logarithme du prix divisé par un facteur de normalisation. Cette normalisation est une question empirique et peut être personnalisée selon les préférences du trader. Alors que les facteurs basés sur l'industrie ont tendance à être des proxys fiables pour modéliser les corrélations, les combinaisons bilinéaires de facteurs de style sont des proxys plutôt médiocres. Ainsi, les traders doivent se concentrer sur les facteurs sectoriels et personnaliser leurs modèles en fonction de leur modèle de trading et des alphas de trading quantitatifs.

  • 01:00:00 L'orateur discute du concept d'hétérosis, qui est la combinaison d'idées puissantes telles que les modèles factoriels, les classifications industrielles et les principaux composants dans une construction qui peut être assez puissante dans la modélisation des risques. Il explique que les techniques de regroupement peuvent également être utilisées pour construire des facteurs de risque grâce à des schémas de regroupement à plusieurs niveaux qui peuvent remplacer les classifications fondamentales de l'industrie. Cependant, un problème avec le clustering est qu'il est non déterministe et peut générer différents clusterings à chaque fois qu'il est exécuté, ce qui entraîne du bruit dans le système. Pour réduire le bruit, on peut soit abroger un grand nombre de regroupements, soit utiliser d'autres techniques telles que la réduction de dimensionnalité ou l'analyse en composantes principales.

  • 01:05:00 L'orateur discute des différentes approches de regroupement dans les modèles de risque de trading quantitatif. Ils expliquent que si les k-means peuvent être non déterministes, l'utilisation d'alternatives déterministes telles que le regroupement hiérarchique peut être subjective et plus lente. De plus, l'orateur suggère d'utiliser les modèles de risque eux-mêmes pour agréger au lieu de clusters. Lors de l'utilisation de k-means, le locuteur note que l'initialisation des centres pour chaque cluster est ce qui cause la nature non déterministe de l'algorithme, mais trouver le minimum global n'est pas toujours nécessaire. Pour améliorer l'approche naïve consistant à utiliser les rendements historiques, l'orateur suggère de normaliser les rendements par rapport aux volatilités historiques.

  • 01:10:00 Zura Kakushadze discute de la normalisation des clusters et du clustering à plusieurs niveaux pour le trading quantitatif. Il suggère que le regroupement devrait être effectué en divisant les rendements par la variance plutôt qu'en normalisant les rendements avec deux écarts-types pour optimiser les portefeuilles et améliorer les performances. Kakushadze propose deux méthodes de clustering à plusieurs niveaux : ascendant, où le niveau le plus granulaire est créé en premier, puis regroupe successivement les clusters, et descendant, où le niveau le moins granulaire est créé en premier, puis regroupe successivement les tickers. De plus, les algorithmes non déterministes tels que les algorithmes hiérarchiques ne sont pas avantageux en termes de performances lorsqu'ils sont comparés aux algorithmes déterministes, et Kakushadze suggère d'utiliser des techniques de regroupement et d'agrégation.

  • 01:15:00 L'orateur discute des moyens possibles de fixer le nombre de clusters dans un modèle commercial. Une option consiste à utiliser des heuristiques basées sur le classement effectif pour déterminer le nombre de clusters nécessaires. Alternativement, on pourrait conserver le nombre de clusters comme hyperparamètres et les optimiser grâce à des backtests hors échantillon. De plus, il existe une méthode discutée pour aligner les clusters produits par différentes courses de k-means et regrouper ces centres alignés via k-means pour générer un alignement des courses de k-means d'origine en k clusters. Cette méthode peut entraîner un nombre de clusters inférieur à ce qui était prévu, mais peut toujours fournir un modèle utile avec moins de clusters.

  • 01:20:00 L'orateur discute de différentes manières d'agréger les modèles de risque dans le trading quantitatif. Une approche consiste à aligner les clusters à l'aide de k-means et à supprimer les clusters vides pour éliminer les clusters bruyants, qui peuvent être appliqués comme algorithme de clustering. Bien que le processus d'alignement lui-même soit non déterministe, il produit un résultat moins bruyant et suffisant. Une autre méthode consiste à agréger les modèles de risque eux-mêmes en calculant la matrice de covariance du modèle sur la base d'un seul k-means, qui est un modèle factoriel. Cependant, la matrice de covariance factorielle correspondante peut être singulière en raison de petites valeurs de p et d'un grand nombre de clusters, limitant la couverture de l'espace de risque. En agrégeant un grand nombre de modèles de risque uniques basés sur k-means, beaucoup plus de directions dans l'espace de risque sont couvertes, ce qui donne un modèle de risque non factorisé avec une couverture plus large.

  • 01:25:00 Zura Kakushadze discute des différentes manières de modéliser les risques et de l'approche la plus performante. Il explique que les modèles de risque statistiques basés sur les principaux composants sont les moins performants car ils ne couvrent qu'une petite partie de l'espace de risque. Les modèles de risque d'apprentissage automatique tels que le clustering fonctionnent nettement mieux car ils découvrent des relations entre les rendements qui n'existent pas au niveau linéaire. Cependant, ils sous-performent toujours les modèles de risque hétérotiques basés sur la classification fondamentale de l'industrie. Les humains battent toujours les machines dans cet aspect parce que les classifications fondamentales de l'industrie sont basées sur une analyse approfondie de nombreux facteurs, malgré les appels de jugement incorrects occasionnels. On ne sait pas si un algorithme d'apprentissage automatique sera un jour capable de surpasser les humains dans la modélisation des risques.

  • 01:30:00 L'orateur encourage les téléspectateurs à se plonger dans le backtesting et à acquérir une expérience pratique des stratégies de trading discutées dans la vidéo. Ils fournissent des liens vers des documents et du code source qui peuvent être utilisés pour optimiser et adapter les stratégies aux styles de trading individuels. De plus, les organisateurs mentionnent les initiatives de Condensity, y compris un programme de certification et un portail d'apprentissage à votre rythme, visant à devenir une puissance mondiale de connaissances et de technologie dans le commerce algorithmique et quantitatif.
Risk Models For Quant Trading By Zura Kakushadze - May 16, 2019
Risk Models For Quant Trading By Zura Kakushadze - May 16, 2019
  • 2019.05.17
  • www.youtube.com
Learn about using Risk Modelling for the purpose of Quant Trading from none other than the renowned personality, Dr. Zura Kakushadze. Zura is the President a...
 

Forex Trading pour les débutants | Trading algorithmique sur les marchés des changes par le Dr Alexis Stenfors



Forex Trading pour les débutants | Trading algorithmique sur les marchés des changes par le Dr Alexis Stenfors

Dr. Alexis Stenfors plonge dans une analyse complète du marché des changes (FX), avec un accent particulier sur la liquidité et son importance. Il commence par souligner l'immense taille du marché des changes et son échelle comparative par rapport au marché boursier mondial. Malgré les crises potentielles ou les catastrophes naturelles, la liquidité sur le marché des changes a tendance à rester robuste.

Le Dr Stenfors met en lumière la nature concurrentielle du marché professionnel des changes, notant sa portée internationale. Il n'est pas possible de négocier une seule paire de devises sur ce marché sans négocier simultanément une autre paire de devises. Cette caractéristique distingue le marché des changes du marché boursier, où l'achat d'actions est plus courant et plus simple. En outre, les banques centrales peuvent intervenir sur le marché des changes en influençant la valeur d'une devise par des actions telles que la planche à billets ou une intervention directe, alors que de telles interventions sont moins courantes sur le marché boursier. De plus, le marché des changes fonctionne sans réglementation, sans disjoncteurs et sans transparence, ce qui rend difficile l'accès à des données fiables à des fins de recherche.

Le cœur de la liquidité sur le marché des changes est expliqué par le Dr Stenfors, qui souligne l'importance des relations et des conventions entre les banques. Contrairement aux marchés boursiers et boursiers traditionnels, les teneurs de marché sur le marché des changes ne peuvent pas indiquer de prix ou fournir de liquidités à moins qu'ils ne sachent qu'une autre partie est prête à rendre la pareille. Sur le marché des swaps de change, les spreads bid-ask des concurrents ont tendance à se regrouper autour de chiffres spécifiques, et curieusement, les concurrents citent souvent exactement les mêmes spreads plutôt que d'offrir des spreads variés.

Les conventions de marché dans l'industrie du trading forex sont discutées par le Dr Stenfors, en se concentrant sur les conventions basées sur les prix et les volumes. Ces conventions dictent un comportement commercial approprié et facilitent des relations solides entre les banques et les clients. Les enquêtes indiquent que seul un petit pourcentage de commerçants suivent les conventions principalement à des fins lucratives, tandis que la majorité les perçoit comme un moyen de favoriser les relations et de maintenir une image positive sur le marché. L'essor du trading algorithmique a entraîné des changements dans ces conventions, le trading algorithmique représentant plus de 70 % des transactions sur des plateformes comme EBS.

Les implications du trading algorithmique pour le marché des changes sont débattues par le Dr Stenfors. Les partisans soutiennent que le trading à haute fréquence peut améliorer l'efficacité du marché, réduire les coûts de transaction et améliorer la liquidité. Cependant, les sceptiques soutiennent que les algorithmes sont mal adaptés pour adhérer aux conventions qui ont été conçues à l'origine pour les relations humaines. Les commerçants utilisant des plates-formes électroniques peuvent être confrontés à des défis lorsque le marché évolue rapidement alors qu'ils tentent d'exécuter des transactions. La liquidité est désormais perçue comme complexe et difficile à appréhender. Malgré des points de vue divergents sur les algorithmes, les deux parties conviennent que la liquidité FX subit des changements qui nécessitent un examen plus approfondi. Le Dr Stenfors présente les données d'une plateforme de trading indiquant une répartition égale entre le trading humain et algorithmique en 2010.

Examinant le volume et la liquidité du marché des changes, le Dr Stenfors se concentre sur la paire de devises euro-dollar à titre d'exemple. Il révèle que sur trois jours de bourse, le montant total des ordres à cours limité pour l'euro dollar était de 1,8 billion, avec un écart étroit de seulement 0,08 %. Cela indique un marché très liquide avec des spreads serrés. Cependant, moins d'un pour cent de tous les ordres à cours limité ont en fait abouti à des transactions, et la durée de vie médiane des ordres à cours limité n'était que de 2,5 secondes. Ces résultats suggèrent que si le marché peut sembler liquide, sa véritable liquidité pourrait être moins importante qu'il n'y paraît. Le Dr Stenfors pose la question de savoir si la liquidité peut être rapidement accessible et effectue un test pour déterminer si le marché réagit rapidement aux tentatives d'accords.

Le Dr Stenfors partage ses recherches sur l'impact des soumissions d'ordres à cours limité sur la liquidité sur le marché des changes. En analysant 1,4 million de soumissions d'ordres à cours limité, il découvre qu'un nouvel ordre à cours limité ajoute immédiatement de la liquidité à l'autre côté du carnet d'ordres, ce qui profite aux traders à haute fréquence. Cependant, la liquidité disparaît en 0,1 seconde, ce qui suggère que le trading algorithmique ne contribue qu'à la liquidité à court terme. Le Dr Stenfors souligne un changement significatif dans la volonté de soutenir la liquidité sur le marché des changes au cours de la dernière décennie, soulignant l'importance de prendre en compte divers aspects de la liquidité, tels que la liquidité basée sur les prix, la liquidité basée sur le volume, la liquidité basée sur la communauté et liquidité basée sur la rapidité lors de l'analyse du marché.

Le concept de différents types d'ordres dans le trading forex et leurs implications éthiques sont expliqués par le Dr Stenfors. Il explique que les commandes fractionnées sont utilisées pour diviser les commandes importantes en plus petites afin d'empêcher d'autres commerçants d'annuler leurs commandes et de dissimuler les commandes riches en informations. Cependant, les commandes à la cuillère, qui créent une fausse impression de l'état du marché, sont généralement illégales sur la plupart des marchés. En revanche, les ordres ping, visant à extraire des informations cachées sur le marché, sont moins controversés mais sujets à interprétation. Le Dr Stenfors présente également sa définition conservatrice des ordres fractionnés, révélant qu'ils représentaient 15 à 20 % des ordres euro dollar et dollar yen parmi les cinq paires de devises examinées.

Le Dr Stenfors se penche sur l'utilisation des ordres fractionnés et leur agressivité sur le marché des changes. Contrairement à la croyance populaire, les ordres importants présentent souvent une forte agression, et les ordres fractionnés servent non seulement à masquer des montants plus importants, mais également à permettre aux traders algorithmiques de soumettre des ordres plus agressifs. Cependant, la réponse du marché aux ordres fractionnés est beaucoup plus prononcée par rapport aux ordres humains typiques, et les algorithmes s'adaptent rapidement à cette stratégie, ce qui rend les ordres fractionnés moins efficaces. La discussion aborde également l'usurpation d'identité et le ping, indiquant que les principales paires de devises comme l'euro dollar et le dollar yen sont très sensibles aux informations, ce qui les rend susceptibles d'être usurpées, tandis que le ping est utilisé pour extraire des informations cachées en testant le marché avec des commandes et en observant les réactions. .

Le Dr Stenfors présente un proxy qu'il a développé pour analyser la prévalence du "ping" sur divers marchés des changes. Un ordre ping est annulé avant que tout changement de marché ne se produise, ce qui en fait un indicateur potentiel de l'activité ping. À l'aide d'une base de données complète, le Dr Stenfors estime qu'environ 10 % des commandes sur les marchés euro-dollar et jaune peuvent être des commandes ping potentielles. Cependant, sur des marchés comme l'euro suédois et le dollar rouble, ce pourcentage augmente considérablement, atteignant respectivement 50% et 80%. Notamment, le ping semble être plus important sur les marchés moins négociés sur la plate-forme. Le Dr Stenfors suggère que l'étude de la liquidité nécessite la prise en compte de diverses stratégies et durées de vie des ordres, car la fonction de tenue de marché, en particulier sur le marché FX pop, est de plus en plus réalisée par des algorithmes.

Le Dr Stenfors discute de la nature évolutive de la liquidité sur le marché des changes et souligne la nécessité d'une gamme plus large de mesures pour l'évaluer. Il souligne l'impact des barrières dans les stratégies de commande, telles que les scissions, l'usurpation d'identité et le ping. Bien que ces problèmes aient été largement étudiés sur les marchés boursiers, leurs effets sur la liquidité du forex peuvent être considérablement différents, malgré la taille plus importante du marché des changes. Le Dr Stenfors recommande aux commerçants de rester conscients de ces complexités, quelles que soient leurs méthodes de soumission des commandes, et fournit des ressources supplémentaires à ceux qui souhaitent approfondir leur exploration.

Le Dr Alexis Stenfors propose une analyse détaillée du marché des changes, en se concentrant spécifiquement sur la liquidité et ses différentes dimensions. Ses recherches mettent en évidence les caractéristiques uniques du marché des changes, notamment sa taille, sa nature concurrentielle et sa portée internationale. Il souligne l'importance des conventions de marché, les implications du trading algorithmique et l'impact des différents types d'ordres sur la liquidité. À travers ses études, le Dr Stenfors révèle les complexités et la nature évolutive de la liquidité forex, soulignant la nécessité d'une évaluation et d'une compréhension complètes de ce marché dynamique.

  • 00:00:00 Le Dr Alexis Stenfors discute du marché des changes (FX) et, en particulier, de l'importance de la liquidité. Il met en évidence la taille du marché des changes et sa taille comparée au marché boursier mondial. Il note également à quel point la liquidité en général est très bonne, même en temps de crise ou de catastrophe naturelle. Le Dr Stenfors poursuit ensuite en discutant de la nature concurrentielle du marché des changes dans le cadre professionnel et de son caractère international, ce qui signifie qu'on ne peut pas échanger une seule paire de devises sans échanger autre chose également.

  • 00:05:00 Le Dr Alexis Stenfors explique les caractéristiques uniques du marché Forex qui le différencient du marché boursier. Le marché Forex a une symétrie parfaite dans la mesure où l'achat d'une devise implique automatiquement la vente d'une autre, alors que le marché boursier est orienté vers l'achat d'actions. De plus, les banques centrales peuvent intervenir sur le marché du Forex en régulant la valeur d'une monnaie en imprimant de la monnaie ou en intervenant directement, alors qu'elles n'interviennent généralement pas sur le marché boursier. Le marché Forex est également un marché non réglementé sans disjoncteurs, et c'est un marché OTC, ce qui rend très opaque et difficile l'accès aux données à des fins de recherche.

  • 00:10:00 Le Dr Alexis Stenfors explique le cœur de la liquidité sur le marché des changes et les différents types de liquidité en fonction de la tarification, du volume et de la vitesse. La liquidité du marché repose sur des relations et des conventions entre les banques, ce qui est différent des marchés boursiers et boursiers traditionnels. Les teneurs de marché sont incapables de coter des prix ou de fournir des liquidités sans savoir qu'une autre partie est là pour les remettre. Sur le marché des swaps de change, l'écart acheteur-vendeur pour les prix des concurrents a tendance à se regrouper autour de certains chiffres, et la partie intéressante est que les concurrents citent souvent exactement les mêmes écarts plutôt que des écarts différents.

  • 00:15:00 Le Dr Alexis Stenfors discute de l'importance des conventions de marché dans l'industrie du trading forex, y compris les conventions basées sur les prix et les volumes. Ces conventions concernent le comportement commercial approprié et le maintien de bonnes relations entre les banques et les clients. Les enquêtes montrent que seul un petit pourcentage de commerçants suivent les conventions pour réaliser un profit, tandis que la majorité y voit un moyen de favoriser les relations et de maintenir une bonne image sur le marché. Avec l'essor du trading algorithmique, ces conventions évoluent, avec une augmentation significative du trading algorithmique sur des plateformes comme EBS, où il représente désormais plus de 70% des échanges.

  • 00:20:00 Le Dr Alexis Stenfors discute des implications du trading algorithmique pour le marché des changes. Alors que certains soutiennent que le trading à haute fréquence peut conduire à un marché plus efficace avec des coûts de transaction inférieurs et une meilleure liquidité, d'autres soutiennent que les algorithmes ne conviennent pas pour suivre les conventions destinées aux relations humaines. Les commerçants qui utilisent des plates-formes de négociation électroniques peuvent être déçus lorsque le marché évolue dès qu'ils essaient de négocier, et la liquidité est désormais considérée comme compliquée et difficile à cerner. Indépendamment de leur position sur les algorithmes, les deux parties conviennent que la liquidité des devises change et doit être examinée plus attentivement. Le Dr Stenfors présente les données d'une plateforme de trading qui était à 50 % humaine et à 50 % algorithmique en 2010.

  • 00:25:00 Le Dr Alexis Stenfors discute du volume et de la liquidité du marché des changes, en utilisant l'exemple de la paire de devises euro dollar. Il note que pendant trois jours de bourse, le montant total des ordres à cours limité pour l'euro dollar était de 1,8 billion, avec un écart de seulement 0,08 %, ce qui en fait un marché très liquide avec des écarts serrés. Cependant, il poursuit en expliquant que seulement moins d'un pour cent de tous les ordres à cours limité ont réellement abouti à une transaction, et que la durée de vie médiane des ordres à cours limité n'était que de 2,5 secondes, ce qui suggère que même si le marché semble liquide, il peut être moins liquide qu'il n'y paraît. . Il se pose alors la question de savoir si la liquidité peut être tirée rapidement et effectue un test pour vérifier si le marché bouge dès qu'une transaction est tentée.

  • 00:30:00 Le Dr Alexis Stenfors discute de ses recherches sur l'impact des soumissions d'ordres à cours limité sur la liquidité sur le marché des changes. Il a analysé 1,4 million de soumissions d'ordres à cours limité et a constaté qu'un nouvel ordre à cours limité ajoute immédiatement de la liquidité à l'autre côté du carnet d'ordres à cours limité, ce qui est bénéfique pour les traders à haute fréquence. Cependant, la liquidité disparaît après 0,1 seconde, ce qui est cohérent avec l'idée que le trading algorithmique n'est bon pour la liquidité qu'à très court terme. En outre, il souligne qu'il y a eu un changement significatif dans la volonté de soutenir la liquidité sur le marché des changes au cours des dix dernières années. Par conséquent, il est important de prendre en compte la liquidité basée sur les prix, la liquidité basée sur le volume, la liquidité basée sur la communauté et la liquidité basée sur la vitesse lors de l'analyse du marché.

  • 00:35:00 Le Dr Alexis Stenfors explique le concept des différents types d'ordres dans le trading forex et leurs implications éthiques. Il explique que les commandes fractionnées sont utilisées pour décomposer les commandes importantes en plus petites afin d'empêcher d'autres commerçants d'annuler leurs commandes et de masquer la commande riche en informations. Cependant, les commandes à la cuillère sont illégales sur la plupart des marchés car elles créent une fausse impression de l'état du marché. Les ordres Ping sont destinés à extraire des informations cachées sur le marché et ne sont pas considérés comme controversés, mais leur importance varie selon l'interprétation. La section parle également de la définition conservatrice du Dr Stenfors des ordres fractionnés, qui a abouti à 15-20% pour l'euro dollar et le dollar yen dans les cinq paires de devises examinées.

  • 00:40:00 Le Dr Alexis Stenfors discute de l'utilisation des ordres fractionnés et de leur agressivité sur le marché des changes. Contrairement à la croyance populaire, les ordres importants sont souvent très agressifs et les ordres fractionnés sont utilisés non seulement pour masquer des montants plus importants, mais également pour permettre aux traders algorithmiques de soumettre des ordres plus agressifs. Cependant, la réaction à une commande fractionnée est beaucoup plus forte qu'à une commande humaine typique, et les algorithmes s'en rendent compte rapidement, ce qui rend ces stratégies de fractionnement de commande moins efficaces. Le Dr Stenfors aborde également le sujet de l'usurpation d'identité et du ping, expliquant que, contrairement à la croyance commune, les principales paires de devises telles que l'euro dollar ou le dollar yen sont extrêmement sensibles aux informations, ce qui les rend très sensibles à l'usurpation d'identité, tandis que le ping est utilisé pour extraire des informations cachées en tâtant le terrain avec des ordres et en observant les réactions.

  • 00:45:00 Le Dr Alexis Stenfors discute d'un proxy qu'il a créé pour analyser l'importance du "ping" sur différents marchés des changes. Un ordre ping est un ordre qui est annulé avant qu'un changement ne se produise sur le marché, ce qui en fait un ordre ping potentiel. Le Dr Stenfors a utilisé une base de données pour déterminer le nombre de commandes pouvant être des commandes ping potentielles et a constaté qu'il était d'environ 10 % sur les marchés euro-dollar et jaune et jusqu'à 50 % sur l'euro suédois et 80 % sur le rouble dollar. Le fait intéressant ici est que le ping semble être plus important sur les marchés les moins négociés de la plate-forme. Cela signifie que les échanges de roubles sur la plate-forme sont très importants, mais qu'il n'y a pas d'échanges réels, et près de 80 % sont probablement des ordres de ping de commerçants algorithmiques. Le Dr Stenfors a suggéré que si vous étudiez la liquidité, il existe de nombreuses façons de l'étudier, et une chose importante est d'examiner différentes stratégies et de déterminer la durée de vie de l'ordre, en tant que fonction de création de marché, en particulier dans le FX pop. marché, tend à se faire de plus en plus par des algorithmes.

  • 00:50:00 Le Dr Alexis Stenfors discute de l'évolution de la liquidité du marché des changes et de la nécessité d'un plus large éventail de mesures pour l'évaluer. Il met également en évidence l'impact des barrières sur les stratégies de commande, qui peuvent entraîner des scissions, des usurpations d'identité et des pings. Bien que ces problèmes aient fait l'objet de nombreuses recherches sur les marchés boursiers, leur impact sur la liquidité du marché des changes peut être très différent, malgré sa taille plus importante. Le Dr Stenfors recommande que les commerçants soient conscients de ces complexités, quelle que soit la manière dont ils soumettent les commandes, et fournit des ressources pour ceux qui souhaitent en savoir plus.
Forex Algo Trading | Algo Trading In FX Markets for Beginners | Dr. Alexis Stenfors
Forex Algo Trading | Algo Trading In FX Markets for Beginners | Dr. Alexis Stenfors
  • 2019.01.31
  • www.youtube.com
Join Dr. Alexis Stenfors, Economist, as he unveils the fascinating world of Forex Algo Trading in this insightful video. Discover why the FX market is a uniq...
 

Développez et backtestez vos stratégies de trading | Tutoriel complet



Développez et backtestez vos stratégies de trading | Tutoriel complet

La vidéo commence par présenter un quant expérimenté qui fournira des conseils sur le développement et l'exécution de stratégies de trading à l'aide de Blueshift, une plateforme basée sur le cloud. Blueshift propose des ensembles de données complets, y compris les marchés boursiers américains et indiens, ainsi que des données Forex détaillées. La session couvre les stratégies systématiques, une introduction à Python, une introduction à Blueshift, la création de modèles réutilisables pour le backtesting, les indicateurs techniques, la construction d'une stratégie simple à l'aide d'un seul indicateur et la gestion des stratégies de portefeuille. Il est important de noter que la session n'offre pas de recommandations commerciales ni ne prétend fournir des stratégies infaillibles.

L'orateur met en évidence les différentes approches des styles de trading, tels que les styles fondamentaux, techniques et quantitatifs, et comment ils traitent les tendances, signifient la réversion, les évasions et portent de manière unique. La conception d'une stratégie de trading systématique implique la sélection de titres, la génération de signaux d'achat et de vente, le calcul de portefeuilles cibles, l'exécution de transactions et l'amélioration continue du processus. L'orateur explique les entrées requises pour les stratégies systématiques, y compris les données de prix et leurs transformations, les informations fondamentales et non marchandes, et les règles/logiques de négociation. Ces règles peuvent être développées sur la base de l'hypothèse d'un trader ou via des techniques basées sur les données telles que l'apprentissage automatique et l'intelligence artificielle.

L'orateur souligne l'importance de tester les stratégies de trading par le biais de backtesting et de forward testing. Le backtesting aide les traders à vérifier la validité de leurs hypothèses, tandis que les tests avancés protègent contre les biais et les pièges tels que les biais d'exploration de données, les biais de survie, la modélisation de l'impact sur le marché et les biais d'anticipation. Une plate-forme de backtesting flexible est essentielle pour ajuster et modifier les stratégies, et la gestion des risques et la création de portefeuilles sont cruciales car toutes les stratégies ne fonctionnent pas bien sur tous les marchés. Le conférencier fournit une brève introduction à l'utilisation du code basé sur Python dans la plate-forme Blueshift pour la création et le test de stratégies.

La vidéo explique les quatre fonctions essentielles requises pour le backtesting des stratégies de trading sur Blueshift. Ces fonctions sont "initialize", qui définit les paramètres initiaux, "before_trading_start", appelé avant chaque session de trading, "handle_data", exécuté à chaque nouvelle arrivée de barre de prix, et "analyze", utilisé pour l'analyse de la stratégie. L'orateur montre l'ordre dans lequel ces fonctions sont appelées et comment les commerçants peuvent positionner leur code dans chaque fonction. La section se termine par une introduction de base à l'utilisation de Python dans la plate-forme Blueshift.

Pour les téléspectateurs qui ne connaissent pas Python, la vidéo propose une introduction aux bases de Python. Il couvre les variables, les chaînes, les nombres entiers, les flottants et les structures de données comme les dictionnaires et les listes. La création de fonctions et de classes en Python est également introduite. La vidéo se penche ensuite sur le flux de travail Blueshift, expliquant les étapes « initialiser », « before_trading_start », « handle_data » et « analyser ». L'utilité des fonctions de planification et de commande est mise en évidence.

Le présentateur discute des trois principales fonctions de commande dans Blueshift. La première fonction, "order_percent_target", permet aux traders de prendre des positions sur les actifs sous-jacents en fonction du poids du portefeuille cible. La deuxième fonction, "get_open_orders", fournit le nombre de commandes en attente, et la troisième fonction, "cancel_order", permet l'annulation des commandes. Le présentateur insiste sur l'importance de contrôler l'environnement commercial et démontre des fonctions telles que "set_commission", "set_slippage" et "set_account_currency". Les objets "contexte" et "données" dans Blueshift sont expliqués, montrant leur rôle dans la capture de l'état de l'algorithme et l'accès aux données. Un exemple illustre l'accès au portefeuille et aux données pour une simple stratégie d'achat et de conservation à l'aide de la fonction "historique". Le concept de planification à l'aide de la fonction "schedule" est introduit, permettant aux utilisateurs de définir quand des fonctions spécifiques doivent être appelées.

Le didacticiel se concentre sur la création d'un modèle pour rationaliser le développement de la stratégie et éviter le code répétitif. Les bibliothèques d'indicateurs techniques comme TLE et les bibliothèques standard comme Pandas et Numpy sont importées. L'univers des titres est réduit aux principaux indices, et la variable "contexte" est initialisée comme un dictionnaire pour stocker les paramètres de la stratégie. Ces paramètres incluent l'indicateur rétrospectif, les seuils d'achat/vente, les périodes moyennes mobiles, le RSI, les bandes B, l'ATR et la fréquence des transactions. Ce modèle vise à minimiser le code passe-partout et à normaliser les paramètres pour des modifications faciles.

L'orateur introduit une variable pour contrôler le trading et créer un portefeuille avec des pondérations pour chaque instrument de l'univers. Ils ont mis la commission et le glissement à zéro à des fins de démonstration. La fonction "handle_data" est définie pour exécuter le trading toutes les 15 minutes. La fonction "run_strategy" devient la fonction principale d'exécution de la stratégie. Il récupère les prix passés et calcule les pondérations avant le rééquilibrage à l'aide de la fonction "context.universe.prices". La fonction de « rééquilibrage » parcourt tous les titres de l'univers et passe des ordres pour atteindre les pondérations cibles. Une fonction anonyme est définie pour imprimer le portefeuille de contexte et les pondérations, et une classe "conseiller" est créée pour calculer l'objet de pondération.

Le conférencier explique comment définir les entrées pour la classe "conseiller", y compris le nom et la fonction de signal, et comment passer l'univers de sélection de titres. Ils couvrent l'initialisation et le stockage des performances du conseiller, ainsi que la définition de la fonction principale qui appelle la fonction signal pour générer des signaux d'achat/vente. L'orateur insiste sur la définition de la fonction de signal à partir d'indicateurs techniques, souvent exprimés comme des fonctions pondérées des prix passés. Ils recommandent de se référer aux articles théoriques d'experts comme Cliff Asness d'AQR Capital Management.

Les indicateurs techniques et leur corrélation avec le marché sont discutés sur la base d'une analyse statistique utilisant une analyse en composantes principales. Les indicateurs techniques agissent comme des filtres sur les prix ou les rendements passés, capturant les tendances à long ou à court terme en filtrant les données à haute ou basse fréquence. Cependant, les indicateurs techniques peuvent être des prophéties auto-réalisatrices et sont sensibles à certains types d'algorithmes de trading qui peuvent conduire à une chasse au momentum ou au stop-loss. Il est important d'avoir un portefeuille de différents indicateurs lors du développement et du backtesting des stratégies de trading.

L'instructeur explique l'importation de la bibliothèque d'analyse technique et répertorie les indicateurs techniques disponibles. En utilisant l'exemple des bandes de Bollinger, l'instructeur démontre la fonction "Bbands" pour récupérer la valeur de la dernière ligne. D'autres fonctions telles que RSI, MACD, support de Fibonacci, résistance, etc., sont également présentées. L'instructeur explique la fonction "get_price" et la fonction "handle_data", qui vérifie s'il est temps de trader pour chaque période. La fonction "run_strategy" recherche des arguments appropriés à l'aide de la fonction "advisor_compute_signal_price", suivie de la fonction "rebalance" pour passer des commandes pour des pourcentages cibles. Enfin, la fonction "analyser" est utilisée pour l'analyse de la stratégie.

Le conférencier se concentre sur la gestion de portefeuilles stratégiques pour améliorer les bénéfices de trading algorithmique. Au lieu de s'appuyer sur une seule stratégie, il est recommandé d'exécuter plusieurs stratégies simultanément ou à différentes périodes. Quatre méthodes de gestion des portefeuilles stratégiques sont abordées : la création d'un comité, l'utilisation d'un modèle de changement de régime, l'allocation dynamique et l'investissement factoriel. Le calcul de la moyenne peut améliorer la stabilité du signal. Le code de la stratégie prévoit l'ajout d'un mandataire chargé de sélectionner les conseillers et d'allouer le capital. L'agent utilise une fonction de pondération pour mettre à jour les pondérations des conseillers, ce qui affecte la fonction de rééquilibrage.

Le conférencier explique comment définir et peser les portefeuilles en fonction du nombre de conseillers, avec une répartition égale pour chacun. Ils démontrent la création de conseillers experts distincts et d'un agent pour répartir le capital entre eux. Un backtest utilisant QuickBacktest montre des performances considérablement améliorées par rapport aux cas individuels. L'orateur insiste sur l'importance du drawdown dans une stratégie de trading et suggère de s'intéresser au ratio de Sortino et à la stabilité de la courbe des pertes et profits. Le portefeuille d'intrants moyens pondérés égaux améliore considérablement les performances, mais il y a place pour d'autres améliorations.

Le conférencier présente le concept de "trading sans regret", qui consiste à déterminer la stratégie d'investissement la plus performante dans un marché difficile à prévoir. Plutôt que de compter sur un seul investissement, la stratégie consiste à faire varier les pondérations de chaque investissement. Le conférencier recommande d'utiliser l'algorithme de gradient exponentiel pour déterminer les pondérations, en les ajustant en fonction de la réponse du portefeuille aux scénarios de marché. Le critère de Kelly est également suggéré pour l'allocation du capital, maximisant le rendement par rapport à la variance en fonction du mouvement brownien géométrique.

L'orateur explique la sortie des poids et comment ils diffèrent pour différents conseillers. Ils testent un signal aléatoire qui reçoit idéalement moins d'allocation par rapport aux autres signaux s'il est véritablement aléatoire. L'orateur discute de la fonction d'agent, qui prend une liste de conseillers et un paramètre de taux d'apprentissage, et calcule la fonction de pondération. Il parcourt la liste des conseillers, calcule le signal du conseiller, les agrège par secteur et met à jour les poids de contexte en fonction du poids calculé. La section se termine par des directives sur le développement de stratégies, notamment en évitant le surajustement, en vérifiant l'effet de levier du compte et en fournissant une liste de stratégies de démonstration à explorer par les téléspectateurs.

L'orateur discute de différentes méthodes de tests prospectifs, telles que le trading sur papier ou le trading avec une petite quantité de capital sur les marchés en direct. Ils mentionnent que BlueShift ne prend actuellement pas en charge la torche PI ou Jupiter Notebook, mais prévoit de prendre en charge Keras et TensorFlow. La plate-forme ne se limite pas aux marchés indiens et peut accéder aux données sur les actions américaines et indiennes ainsi qu'aux données FX. L'orateur note que BlueShift n'a pas d'outils de débogage intégrés pour le moment mais envisage de les ajouter à l'avenir.

L'orateur parle de backtesting d'options et mentionne que la plupart des plates-formes qui le proposent ne sont pas fiables ou nécessitent un nettoyage et une organisation approfondis des données. Ils notent également que les gravitons indiens ne prennent en charge que les contrats à terme liquides et n'autorisent pas les flux de données tiers. La période minimale recommandée pour le backtesting dépend de la fréquence des transactions, et bien que des données d'une minute pour les marchés indiens soient disponibles, les cycles d'optimisation ne sont pas efficaces en raison des limitations technologiques. BlueShift n'a pas de frais et il n'y a aucune restriction sur le nombre de backtests simultanés, tant que le trafic du site Web peut les gérer. Le backtesting pour PSA et l'utilisation de packages Python sont possibles, mais il existe une liste restreinte de packages disponibles pour des raisons de sécurité.

Le conférencier explique que le backtesting est une étape cruciale dans le développement et l'évaluation des stratégies de trading. Il aide à déterminer si une stratégie est viable et rentable avant de la déployer sur des marchés en direct. Ils soulignent l'importance de prendre en compte les coûts de transaction, le glissement et d'autres facteurs réels lors du backtesting pour garantir des résultats réalistes.

Le conférencier présente la plate-forme BlueShift, qui fournit un environnement de backtesting et de déploiement de stratégies de trading. BlueShift prend en charge le backtesting sur les marchés boursiers indiens, américains et forex. Les utilisateurs peuvent écrire et tester leurs stratégies à l'aide de Python et tirer parti de diverses fonctions et bibliothèques intégrées. La plate-forme permet également aux utilisateurs de négocier leurs stratégies sur papier ou de négocier avec du capital réel, selon leurs préférences.

L'orateur insiste sur l'importance des tests prospectifs, qui consistent à déployer une stratégie avec un faible capital sur les marchés en direct. Cela permet de valider les performances et le comportement de la stratégie dans des conditions en temps réel. Ils mentionnent que BlueShift prend actuellement en charge les tests avancés pour les marchés indiens et que les utilisateurs peuvent échanger sur papier avec un capital virtuel pouvant atteindre 1 crore (10 millions) de roupies indiennes.

Le backtesting d'options est également discuté, l'orateur mentionnant que de nombreuses plates-formes existantes pour le backtesting d'options ne sont pas fiables ou nécessitent un nettoyage et une préparation approfondis des données. Ils notent que BlueShift ne prend pas actuellement en charge le backtesting des options, mais pourrait envisager de l'ajouter à l'avenir.

En ce qui concerne la disponibilité des données, l'orateur mentionne que BlueShift fournit des données historiques pour les marchés boursiers indiens, américains et forex. Cependant, ils notent que l'optimisation des stratégies avec des données d'une minute pour les marchés indiens peut ne pas être efficace en raison de limitations technologiques.

L'orateur précise que BlueShift n'a aucun frais pour le backtesting ou l'utilisation de la plateforme. Les utilisateurs peuvent effectuer autant de backtests qu'ils le souhaitent, tant que le trafic du site Web peut gérer la charge. Ils mentionnent également que BlueShift a une liste restreinte de packages Python disponibles pour des raisons de sécurité, mais les utilisateurs peuvent toujours tirer parti des packages populaires tels que pandas et numpy.

L'orateur souligne l'importance d'un backtesting et d'un testing approfondis dans le développement de stratégies. Ils encouragent les utilisateurs à tirer parti de la plate-forme BlueShift pour tester et déployer leurs stratégies de trading, tout en gardant à l'esprit les limites et les considérations discutées lors de la présentation.

  • 00:00:00 L'hôte présente un quant chevronné qui guidera les téléspectateurs sur la façon de développer et d'exécuter des stratégies de trading à l'aide de Blueshift, une plate-forme basée sur le cloud pour le développement de stratégies. Le quant décrit Blueshift comme ayant des ensembles de données qui incluent les marchés boursiers américains et indiens, ainsi que le Forex trompé avec des données de niveau infime. La session couvrira de brefs points sur les stratégies systématiques, une courte introduction à Python, une introduction à Blueshift, la création d'un modèle réutilisable pour les tests en amont, des indicateurs techniques, la création d'une stratégie simple à l'aide d'un seul indicateur technique et la gestion d'une stratégie de portefeuille dans différents façons. La session ne porte pas sur les recommandations commerciales ou sur les meilleures stratégies qui fonctionnent toujours.

  • 00:05:00 L'orateur a mentionné que différents styles de trading, tels que fondamental, technique et quantitatif, traitent la tendance, la réversion moyenne, les cassures et le portage de différentes manières. Ils ont également discuté de la manière de concevoir une stratégie de trading systématique, qui implique de sélectionner l'univers des titres, de générer des signaux d'achat et de vente, de calculer des portefeuilles cibles, d'exécuter la stratégie et d'améliorer continuellement le processus. De plus, l'orateur a expliqué les intrants pour développer des stratégies systématiques, comme les prix et leurs transformations, les informations fondamentales et non marchandes, et les règles ou logiques de trading, qui peuvent être développées par l'hypothèse d'un trader ou en laissant les données indiquer les règles à l'aide de l'apprentissage automatique. et l'intelligence artificielle.

  • 00:10:00 L'orateur discute de l'importance de tester les stratégies de trading, y compris le backtesting et le forward testing. Le backtesting permet aux traders d'établir si leur hypothèse est correcte en testant leurs stratégies, tandis que les tests avancés protègent contre les biais, tels que les biais d'exploration de données, les biais de survie, la modélisation de l'impact sur le marché et les biais d'anticipation. L'orateur souligne la nécessité d'une plate-forme de backtesting flexible pour ajuster et modifier les stratégies, mais souligne également l'importance de la création de portefeuille et de la gestion des risques, car toutes les stratégies ne fonctionnent pas bien sur tous les marchés. Enfin, l'orateur donne une brève introduction à l'utilisation du code basé sur Python dans la plate-forme Blue Shift pour créer et tester des stratégies de trading.

  • 00:15:00 Le conférencier explique les quatre fonctions différentes nécessaires au backtesting des stratégies de trading à l'aide d'une plateforme spécifique. La première fonction est initialize, utilisée pour configurer les paramètres initiaux du backtesting. Le second est appelé avant le début de la négociation, qui est appelé tous les jours avant l'ouverture de la séance de négociation. La troisième fonction est gérer les données, appelée à chaque nouvelle arrivée de barre de prix, et la fonction finale est appelée analyser. L'orateur montre également l'ordre dans lequel chaque fonction est appelée en fonction d'un ensemble de données sélectionné et comment on peut déterminer où mettre son code dans chaque fonction. La section se termine par une brève introduction à l'utilisation de Python pour le codage.

  • 00:20:00 Les bases de Python sont expliquées pour ceux qui ne connaissent peut-être pas le langage. L'utilisation de variables, de chaînes, d'entiers et de flottants est discutée, ainsi que des structures de données telles que des dictionnaires et des listes. La création de fonctions et de classes en Python est également introduite. La vidéo explique ensuite les quatre étapes du flux de travail Blueshift : initialize, before_trading_start, handle_data et analyze. L'utilité des fonctions de planification et de commande est également expliquée.

  • 00:25:00 Le présentateur discute des trois principales fonctions de commande utilisées dans Blue Shift, une plateforme de trading. La première fonction est la cible de pourcentage d'ordre, qui est utilisée pour prendre des positions sur les actifs sous-jacents dans le poids de votre portefeuille cible. La deuxième fonction est d'obtenir des ordres ouverts, qui fournit le nombre d'ordres qui doivent être exécutés, et la troisième fonction est d'annuler l'ordre. De plus, le présentateur explique l'importance de contrôler votre environnement de trading et donne des exemples de la façon de le mettre en œuvre à l'aide de fonctions telles que définir la commission, définir le glissement et définir la devise du compte. Le présentateur explique également le contexte et les objets de données dans Blue Shift, comment ils sont utilisés pour capturer l'état de l'algorithme et accéder aux données, et fournit un exemple de la façon d'accéder à votre portefeuille et à vos données dans une stratégie simple d'achat et de conservation à l'aide de la fonction historique. Enfin, le présentateur introduit le concept de planification à l'aide de la fonction de planification, qui peut être utilisée pour définir quand appeler une fonction en termes de jours et d'heure.

  • 00:30:00 Le didacticiel se concentre sur la création d'un modèle à utiliser par les commerçants afin d'éviter le code répétitif. Le didacticiel importe des bibliothèques d'indicateurs techniques telles que TLE et des bibliothèques standard pour Pandas et Numpy. L'univers est alors réduit à deux indices majeurs, et la variable de contexte est initialisée comme un dictionnaire pour stocker les paramètres des stratégies en un seul endroit. Les paramètres incluent l'indicateur rétrospectif, le seuil d'achat et de vente, et les périodes pour les moyennes mobiles rapides et lentes, le RSI, les bandes B et l'ATR, et la fréquence des transactions. Ce modèle est utile pour minimiser le code passe-partout et normaliser les paramètres pour des modifications faciles.

  • 00:35:00 L'orateur ajoute une variable pour contrôler le trading et créer un portefeuille de pondérations pour chaque instrument de l'univers. Ils ont mis la commission et le glissement à zéro à des fins de démonstration. La fonction handle_data est définie pour garantir que le trading a lieu toutes les 15 minutes. La fonction run_strategy est créée en tant que fonction principale pour exécuter la stratégie. La fonction appelle context.universe.prices pour obtenir les prix passés des contrats à terme sélectionnés et calculer les pondérations avant le rééquilibrage. La fonction de rééquilibrage est utilisée pour parcourir tous les titres de l'univers et passer un ordre pour atteindre les pondérations cibles. L'orateur définit également une fonction anonyme pour imprimer le portefeuille de contexte et les poids à la fin et crée une classe appelée conseiller pour calculer l'objet de poids.

  • 00:40:00 L'orateur explique comment définir les entrées pour la classe des conseillers, y compris le nom et la fonction de signal, et comment transmettre l'univers de sélection des actions. Ils expliquent également comment initialiser et stocker les performances du conseiller, ainsi que définir la fonction principale qui appellera la fonction de signal pour générer des signaux d'achat ou de vente d'actions. L'orateur insiste sur l'importance de définir la fonction de signal à partir d'indicateurs techniques, qui peuvent s'exprimer sous forme de fonctions pondérées des prix passés. Ils recommandent également de consulter des articles théoriques d'experts dans le domaine, tels que Cliff Asness d'AQR Capital Management.

  • 00:45:00 L'orateur discute des indicateurs techniques et de leur corrélation avec le marché sur la base d'une analyse statistique par le biais d'une analyse en composantes principales. Les indicateurs techniques peuvent être considérés comme un type de filtre sur les prix passés ou les rendements passés, filtrant les données à haute ou basse fréquence pour capter les tendances à long ou à court terme. Cependant, les indicateurs techniques peuvent être des prophéties auto-réalisatrices, ce qui les rend utiles pour gagner de l'argent mais soumis à certaines catégories d'algorithmes de trading qui peuvent entraîner une chasse au momentum ou au stop-loss. De plus, ce n'est pas parce qu'un indicateur de momentum montre un momentum que cela signifie nécessairement que le marché est en mouvement. Par conséquent, disposer d'un portefeuille d'indicateurs différents peut s'avérer utile lors du développement et du backtesting de stratégies de trading.

  • 00:50:00 L'instructeur explique l'importation de la bibliothèque d'analyse technique et la liste des indicateurs techniques disponibles. Ils utilisent l'exemple de la fonction Bollinger Bands appelant la fonction de bibliothèque "Bbands" pour renvoyer la valeur de la dernière ligne et afficher d'autres fonctions telles que RSI, MACD, support de Fibonnaci, résistance, etc. L'instructeur explique également la fonction "gate price" et le fonction 'handle data' qui est appelée pour chaque période pour vérifier s'il est temps de trader. La fonction « exécuter la stratégie » recherche ensuite les arguments appropriés à l'aide de la fonction « conseiller calcule le prix du signal », suivie de la fonction « rééquilibrer » parcourant tous les titres de l'univers pour passer un ordre afin d'atteindre le pourcentage cible. Enfin, la fonction 'analyze' est utilisée pour analyser la stratégie backtestée.

  • 00:55:00 L'orateur discute de la gestion des portefeuilles de stratégie pour améliorer les bénéfices du trading algorithmique. Au lieu de s'appuyer sur une seule stratégie, l'orateur suggère d'exécuter plusieurs stratégies simultanément ou à différentes périodes de temps. Le conférencier propose quatre méthodes de gestion des portefeuilles stratégiques : la création d'un comité, le modèle de changement de régime, l'allocation dynamique et l'investissement factoriel. En prenant une moyenne, nous pouvons améliorer la stabilité de notre signal. Le code de la stratégie consiste à ajouter un agent chargé de choisir les conseillers et d'allouer le capital. L'agent utilise une fonction de pesée pour mettre à jour les poids de chaque conseiller, qui sont pris en compte dans la fonction de rééquilibrage.

  • 01:00:00 Le conférencier explique comment ils définissent et pèsent les portefeuilles en fonction du nombre de conseillers, avec une répartition égale pour chacun d'eux. Ils montrent comment créer des conseillers experts distincts, puis créer un agent pour répartir le capital entre eux. Ils exécutent un backtest à l'aide de QuickBacktest, qui montre une amélioration significative des performances par rapport aux cas individuels. L'orateur souligne l'importance du drawdown dans une stratégie de trading et recommande de s'intéresser au ratio de Sortino et à la stabilité de la courbe des pertes et profits. Dans l'ensemble, le portefeuille d'intrants moyens pondérés égaux a considérablement amélioré les performances, mais l'orateur indique qu'il y a encore place à l'amélioration.

  • 01:05:00 L'orateur discute d'un concept appelé "trading sans regret" qui consiste à essayer de déterminer quelle stratégie d'investissement est la plus performante sur un marché où il est difficile de prédire les tendances futures. La stratégie consiste à faire varier les pondérations de chaque investissement plutôt que de compter sur un investissement pour surperformer les autres. Le conférencier recommande d'utiliser l'algorithme du gradient exponentiel pour déterminer la pondération, qui ajuste le poids en fonction de la réponse du portefeuille aux scénarios de marché. Le conférencier suggère également d'utiliser les critères de Kelly pour allouer le capital et maximiser le rendement par rapport à la variance, basés sur le mouvement brownien géométrique, pour déterminer la pondération.

  • 01:10:00 L'orateur explique la sortie des pondérations et comment elles diffèrent pour différents conseillers. Ils testent ensuite un signal aléatoire qui devrait idéalement recevoir moins d'allocation par rapport aux autres signaux si la fonction est vraiment aléatoire. L'orateur parle également de la fonction d'agent qui prend une liste de conseillers et un paramètre de taux d'apprentissage et calcule la fonction de poids. Il parcourt la liste des conseillers, calcule le signal du conseiller, les additionne par secteur et renvoie le poids calculé aux poids de contexte. L'orateur conclut ensuite la section avec quelques lignes directrices sur le développement de stratégies, notamment en évitant le surajustement et en vérifiant l'effet de levier du compte, et fournit une liste de stratégies de démonstration que les téléspectateurs peuvent explorer.

  • 01:15:00 L'orateur discute des différentes manières de tester à terme, y compris le trading sur papier ou le trading avec une petite quantité de capital sur un marché réel. Ils mentionnent également que BlueShift ne prend pas en charge la torche PI ou le notebook Jupiter pour le moment, mais prévoit de prendre en charge Keras et TensorFlow. De plus, la plate-forme ne se limite pas aux marchés indiens et peut accéder aux données sur les actions américaines et indiennes et aux données FX. L'orateur note également que BlueShift n'a pas d'outils de débogage intégrés pour le moment, mais envisage de les ajouter à l'avenir.

  • 01:20:00 L'orateur discute du backtesting des options et explique que la plupart des plateformes qui le proposent ne sont pas fiables ou nécessitent beaucoup de nettoyage et d'organisation des données. Ils mentionnent également que les gravitons indiens ne prennent en charge que les contrats à terme liquides et n'autorisent aucune alimentation de données tierces. La période minimale recommandée pour le backtesting dépend de la fréquence des transactions, et bien que des données d'une minute pour les marchés indiens soient disponibles, les cycles d'optimisation ne sont pas efficaces en raison d'un manque de technologie et d'une préférence pour l'optimisation des paramètres en fonction des rendements attendus. Blue Shift n'a pas de frais et il n'y a aucune restriction sur le nombre de backtests distincts qui peuvent être exécutés simultanément, tant que le trafic du site Web peut les accueillir. Il est également possible de faire des backtests pour PSA et d'utiliser des packages Python, bien qu'il existe une liste restreinte de packages disponibles pour des raisons de sécurité.
Python Trading Strategies | Create Trading Strategies And Backtest | Portfolio Management Techniques
Python Trading Strategies | Create Trading Strategies And Backtest | Portfolio Management Techniques
  • 2018.08.29
  • www.youtube.com
Check out this comprehensive tutorial on Python Trading Strategies and Portfolio Management Techniques. In this step-by-step guide, you'll learn how to creat...
 

Stratégies de trading Forex | Développer et tester des idées de trading | Tutoriel complet sur les effets



Stratégies de trading Forex | Développer et tester des idées de trading | Tutoriel complet sur les effets

Au cours de ce webinaire informatif, le conférencier donne un aperçu complet de Quantiacs BlueShift, une puissante plateforme de développement de stratégie pour la recherche systématique de stratégies de trading et le backtesting. La plateforme offre une gamme de caractéristiques et de fonctionnalités qui en font un outil idéal pour les commerçants.

BlueShift est une plate-forme basée sur le cloud, ce qui signifie que les utilisateurs peuvent y accéder de n'importe où, ce qui leur permet de développer et d'analyser des stratégies en déplacement. Il fournit aux utilisateurs des ensembles de données financières intégrés, ce qui facilite l'accès aux données de marché pertinentes pour le développement de stratégies.

Alors que le webinaire se concentre principalement sur le marché des changes (FX), la plate-forme BlueShift prend également en charge le trading d'actions et de contrats à terme sur divers marchés. Il souligne que la propriété intellectuelle des stratégies de backtesting développées sur la plateforme appartient entièrement à l'utilisateur, garantissant confidentialité et propriété.

L'orateur se penche sur la nature du marché des changes, soulignant son statut de plus grand marché décentralisé avec un volume de transactions quotidien stupéfiant d'environ 5 000 milliards de dollars. Dans ce volume, environ 300 milliards de dollars peuvent être attribués au commerce de détail. L'orateur discute de plusieurs facteurs qui différencient le marché des changes du marché des actions, tels qu'un effet de levier plus élevé, des opportunités de vente à découvert plus faciles et une volatilité relativement plus faible.

Pour comprendre ce qui motive le marché des changes, l'orateur souligne l'importance des facteurs macroéconomiques tels que la balance des paiements, les taux d'intérêt, l'inflation, la croissance économique et les politiques budgétaires. Ils mentionnent également que les flux d'entreprises et de couverture, ainsi que les changements politiques et géopolitiques soudains, peuvent avoir un impact considérable sur le marché. Cependant, il est important de noter qu'il n'existe pas de méthodologie standard ou largement acceptée pour évaluer le marché des changes. L'orateur évoque brièvement des méthodes telles que la parité de pouvoir d'achat et le taux de change effectif réel, avec des techniques plus avancées préférées par les grandes institutions et le Fonds monétaire international (FMI). En outre, l'orateur souligne l'importance des marchés de financement à court terme pour stimuler la liquidité et déterminer les coûts de roulement au jour le jour.

Lorsqu'il s'agit de développer et de tester des stratégies de trading forex, l'orateur présente diverses approches. Les modèles économiques, tels que le modèle monétaire et le modèle de taux de change d'équilibre comportemental, utilisent des méthodes économétriques pour analyser les données. Les modèles basés sur les données, y compris les prévisions de séries chronologiques, les séries chronologiques non linéaires et les réseaux de neurones, sont également discutés comme des options viables pour le trading forex de courte durée. La plateforme BlueShift se présente comme une interface conviviale qui facilite le développement et le test de stratégies. Les utilisateurs peuvent entrer des ensembles de données, un capital de départ et des descriptions de métadonnées, entre autres détails. La plate-forme fournit des outils pour des backtests complets ainsi que des backtests rapides. Construit sur l'API Zipline de Python, BlueShift propose un modèle de stratégie standard permettant aux utilisateurs de commencer leur processus de développement.

L'orateur développe la structure de base des stratégies de trading forex et les fonctions clés requises pour le backtesting. Ils expliquent la fonction "initialize", qui définit les paramètres Baptist et les paramètres de comptabilité. La fonction "before trading start" est appelée une fois par jour au début de la séance de trading, suivie de la fonction "handle data", qui est appelée toutes les minutes pour le mini dataset. Enfin, la fonction "stratégie" est planifiée à l'aide de l'API pour une heure et une date précises, et les règles sont définies par l'utilisateur. Après avoir exécuté un backtest rapide, les utilisateurs peuvent accéder à l'onglet Baptist pour afficher différents ensembles de données, y compris la courbe d'équité, les feuilles de détachement et d'autres statistiques.

La feuille de détachement, expliquée par l'orateur, fournit un ensemble de rapports pour analyser les stratégies de trading. Il comprend des paramètres tels que le rapport Omega maximal, le rapport Sortino, l'asymétrie, l'aplatissement, la stabilité de la série chronologique, etc. L'orateur présente le flux de travail à l'aide de BlueShift, qui consiste à initialiser, à parcourir "avant le début de la négociation" et à "gérer les données", et à utiliser diverses fonctions de l'API telles que la planification, la définition des commissions, la définition du glissement et la définition de la devise du compte. L'orateur mentionne la disponibilité d'un modèle standard pour les stratégies de trading forex.

L'orateur mentionne la disponibilité d'un modèle standard pour les stratégies de trading forex dans la plateforme BlueShift. Ce modèle fournit un point de départ aux utilisateurs pour développer leurs stratégies en définissant leurs règles d'entrée et de sortie, les paramètres de gestion des risques et d'autres options de personnalisation.

La plate-forme BlueShift propose également une large gamme d'indicateurs techniques intégrés, notamment des moyennes mobiles, des oscillateurs et des indicateurs de suivi de tendance, qui peuvent être utilisés pour créer des règles et des signaux de trading. Les utilisateurs peuvent combiner ces indicateurs avec leur propre logique personnalisée pour créer des stratégies uniques et personnalisées.

Pour valider et évaluer la performance d'une stratégie de trading, le conférencier insiste sur l'importance de mener des backtestings rigoureux. BlueShift permet aux utilisateurs de tester leurs stratégies en utilisant des données historiques pour simuler des scénarios de trading réels. La plate-forme fournit des mesures de performance complètes, y compris la rentabilité, l'analyse des pertes, les rendements ajustés au risque et divers ratios tels que le ratio Sharpe, le ratio Sortino et le ratio Calmar.

Une fois qu'une stratégie a été testée et validée, l'orateur suggère que la prochaine étape consiste à la déployer dans un environnement de trading réel. BlueShift fournit une intégration avec plusieurs courtiers, permettant aux utilisateurs d'exécuter leurs stratégies directement à partir de la plateforme. Cette intégration transparente assure une transition en douceur du développement de la stratégie au trading en direct.

L'orateur conclut le webinaire en soulignant les avantages de l'utilisation de BlueShift pour le développement et le backtesting de stratégies forex. La plateforme offre une interface conviviale, un accès à divers ensembles de données financières et un ensemble complet d'outils et d'indicateurs. Il permet aux traders de développer, tester et déployer leurs stratégies de trading forex avec facilité et efficacité.

Le webinaire fournit un aperçu détaillé de la plateforme BlueShift, de ses capacités et de son application dans le développement de stratégies de trading forex. Il offre des informations précieuses sur le marché des changes, différentes approches de modélisation et l'importance d'un backtesting robuste. Les traders qui cherchent à améliorer leurs stratégies de trading forex peuvent trouver BlueShift comme un outil précieux dans leur arsenal.

  • 00:00:00 Le conférencier donne un aperçu de Quantiacs BlueShift, qui est une plateforme de développement de stratégie pour la recherche systématique de stratégies de trading et le backtesting. Il comprend des ensembles de données financières intégrés et est disponible sur le cloud, afin que les utilisateurs puissent développer et analyser des stratégies en déplacement, où qu'ils se trouvent. Le webinaire se concentre principalement sur FX mais couvre également les actions et les contrats à terme sur divers marchés, et la propriété intellectuelle des stratégies de backtesting développées appartient entièrement à l'utilisateur. L'orateur poursuit en décrivant le marché des changes, qui est le marché décentralisé le plus important avec un volume quotidien d'environ 5 000 milliards, dont 300 milliards de volume de détail. Les facteurs qui le différencient du marché des actions comprennent un effet de levier plus élevé, une vente à découvert facile et un niveau de volatilité plus faible, dont l'orateur a discuté en détail.

  • 00:05:00 L'orateur discute des moteurs du marché Forex, en mettant en évidence les facteurs macroéconomiques tels que la balance des paiements, les taux, l'inflation, la croissance économique et la politique budgétaire. Les flux d'entreprises et de couverture, ainsi que des événements importants tels que des changements politiques et géopolitiques soudains, peuvent également avoir un impact significatif sur le marché. L'orateur note qu'il n'existe pas de méthodologie standard ou largement acceptée pour évaluer le marché Forex, bien que certaines méthodes incluent la parité de pouvoir d'achat et le taux de change effectif réel, les méthodes plus avancées étant préférées par les grandes institutions et le FMI. L'orateur souligne également l'importance des marchés de financement à court terme, car ils stimulent la liquidité et déterminent les coûts de refinancement au jour le jour.

  • 00:10:00 L'orateur discute de différentes approches pour développer et tester des stratégies de trading forex. Une approche consiste à utiliser des modèles économiques tels que le modèle monétaire et le modèle de taux de change d'équilibre comportemental, qui utilisent tous deux des méthodes économétriques pour analyser les données. D'autres modèles basés sur les données tels que les prévisions de séries chronologiques, les séries chronologiques non linéaires et les réseaux de neurones peuvent également être utilisés pour le trading forex de courte durée. Le conférencier présente ensuite la plate-forme BlueShift, qui fournit aux utilisateurs une interface conviviale pour développer et tester leurs stratégies de trading en permettant aux utilisateurs de saisir des ensembles de données, un capital de départ et des descriptions de métadonnées, entre autres, puis fournit des outils pour une utilisation complète. backtest et exécuter un backtest rapide. La plate-forme est construite sur l'API Zipline de Python et fournit un modèle de stratégie standard pour les utilisateurs.

  • 00:15:00 L'orateur discute de la structure de base des stratégies de trading forex et des fonctions clés requises pour le backtesting. La première fonction est appelée "initialiser", qui définit les paramètres Baptist et les paramètres de comptabilité. La deuxième fonction est "avant le début de la négociation", qui est appelée une fois par jour au début de la séance de négociation, suivie de "gérer les données", qui est appelée toutes les minutes pour le mini ensemble de données. Enfin, la fonction "stratégie" est planifiée à l'aide de l'API pour une heure et une date précises, et les règles sont définies par l'utilisateur. Après avoir exécuté un Baptist rapide, l'utilisateur peut accéder à l'onglet Baptist pour afficher différents ensembles de données, y compris la courbe d'équité, les feuilles de détachement et d'autres statistiques.

  • 00:20:00 L'orateur discute de la feuille de détachement et de son utilité pour fournir un ensemble de rapports d'analyse des stratégies de trading. La feuille de déchirure comprend des paramètres tels que le rapport Omega maximal, le rapport Sortino, l'asymétrie, l'aplatissement, la stabilité des séries chronologiques, etc. L'orateur explique également le flux de travail utilisant Blueshift, qui commence par l'initialisation, le passage avant le début de la négociation, la gestion des données et l'utilisation des fonctions API utiles telles que la fonction de planification, la définition des commissions, la définition du glissement et la définition de la devise du compte. Pour le marché des changes, un modèle standard est disponible pour commencer, qui comprend des paramètres pour les stratégies et importe des données telles que le PIB, l'inflation, les taux courts et les taux longs du module financier de Zip Line.

  • 00:25:00 L'orateur explique comment mettre en place un modèle de base pour développer des stratégies de trading forex. Ils expliquent l'importance de maintenir les paramètres dans un emplacement central, de définir l'univers et d'utiliser une fonction planifiée pour calculer les rollovers. Ils détaillent également comment définir les commissions et les glissements et redéfinissent la manière de calculer les rollovers et les indicateurs techniques. Ils mentionnent la bibliothèque d'analyse technique comme une ressource utile pour accéder aux indicateurs techniques intégrés. Enfin, ils soulignent que l'exécution du backtest peut être annulée à tout moment et suggèrent d'utiliser ce modèle de base pour commencer à développer des stratégies plus complexes.

  • 00:30:00 L'orateur discute des stratégies systématiques sur le forex et comment elles tournent autour de la recherche et de l'exploitation systématique de facteurs. Les facteurs de risque, tels que la valeur, le momentum, le portage et les stratégies défensives, sont les quatre facteurs de base du trading forex. La valeur se concentre sur le classement des devises en termes de valorisation, tandis que le momentum s'appuie sur la différence entre les séries chronologiques et le momentum transversal pour être long sur les titres les mieux classés et court sur ceux classés en bas. Les stratégies de portage exploitent la différence de taux d'intérêt entre les paires de devises. Enfin, les stratégies défensives supposent que les devises à faible risque sont sous-évaluées tandis que les devises à haut risque sont surévaluées, et elles se concentrent sur les rendements ajustés au risque.

  • 00:35:00 Le présentateur montre comment développer et tester diverses idées de trading à l'aide de la plateforme BlueShift. Plus précisément, il introduit une nouvelle fonction appelée report de la fonction de signal, qui calcule le différentiel de taux pour chaque paire de devises dans l'univers commercial et les trie pour prendre des positions longues pour les chiffres les plus élevés, des positions courtes pour les chiffres les plus bas et des positions 0 pour les autres. La même approche est appliquée aux facteurs de momentum et de valeur, et une stratégie de panier de facteurs est également créée en combinant les trois stratégies précédentes. Le présentateur souligne que l'effort requis pour développer différentes stratégies est minime, car il s'agit principalement de définir les fonctions de signal pertinentes et de les appeler aux endroits appropriés dans la fonction de rééquilibrage.

  • 00:40:00 L'orateur explique comment différentes stratégies de trading Forex peuvent être créées avec un minimum de travail à l'aide d'un modèle qui effectue la majeure partie du travail automatiquement. L'orateur partage également un spectre de stratégies qui trace le type de stratégies qui peuvent être explorées en fonction de son style de trading, qu'il s'agisse d'un quant, d'un day trader technique ou d'un trader fondamental. Sur l'axe horizontal, le spectre montre la genèse de ses bénéfices, qu'il s'agisse d'un marché en tendance, d'un marché minéral, d'une cassure ou d'un marché de portage, qui est presque plat. L'orateur poursuit ensuite en expliquant différentes stratégies de trading pour chaque style de trading, telles que les stratégies de type momentum, les séries chronologiques et les stratégies transversales, et l'arbitrage statistique, entre autres.

  • 00:45:00 L'orateur discute de l'importance de combiner l'analyse fondamentale, technique et quantitative lors du trading Forex. Ils expliquent que si les analyses techniques et quantitatives sont généralement plus faciles à déployer et à créer la confiance dans les stratégies systématiques, la plus grande valeur d'un style de trading fondamental provient du trading basé sur les événements. L'orateur décrit ensuite le cycle de conception d'une stratégie de trading systématique, qui comprend la sélection d'un univers, la génération d'un signal, le choix d'un portefeuille cible et l'analyse des performances pour une amélioration continue. Ils évoquent également l'importance d'éviter les erreurs de back-testing, telles que le biais d'anticipation, et d'utiliser une plate-forme robuste comme Blueshift pour un back-testing uniforme.

  • 00:50:00 L'orateur discute des différentes étapes impliquées dans la création d'une stratégie de trading Forex, en commençant par la phase d'idéation puis en passant à la phase de backtesting. Il insiste sur l'importance de créer des stratégies non corrélées puisque deux
    les stratégies valent toujours mieux qu'une. L'orateur mentionne également différentes méthodes d'allocation du capital-risque telles que les critères LE, les stratégies équipondérées et les stratégies pondérées par le momentum. De plus, il fournit un exemple de stratégie utilisant l'indicateur technique des bandes de Bollinger et montre les statistiques impressionnantes des résultats du backtest. Il conclut en soulignant l'importance de mesurer la stabilité du rendement de la stratégie dans le temps pour assurer la cohérence et éviter le surajustement.

  • 00:55:00 L'orateur discute de diverses stratégies de trading qu'ils ont développées, y compris une stratégie basée sur le momentum et une stratégie commerciale basée sur la corrélation. Ils proposent également un modèle "FX Daily" qui calcule divers indicateurs techniques au début de chaque journée et les utilise pour décider d'opter pour une position longue ou courte. L'orateur insiste sur l'importance de back-tester les stratégies de manière scientifique et d'éviter les pièges de l'optimisation où une stratégie peut bien fonctionner en back-testing mais échouer en live trading. L'objectif devrait être d'optimiser les performances en direct tournées vers l'avenir plutôt que de tester les performances en amont sur la base d'un petit ensemble de variations.

  • 01:00:00 L'orateur discute de la question de la sur-optimisation lors du développement et du backtesting des idées de trading. Une optimisation excessive peut entraîner une diminution du ratio de Sharpe, entraînant un trading en direct inefficace. L'orateur propose quatre options pour lutter contre ce problème. Une suggestion consiste à utiliser des stratégies adaptatives qui réagissent aux changements du marché. Une autre suggestion consiste à utiliser des solutions statistiques telles que l'analyse des points de changement ou des modèles de Markov cachés pour inverser les stratégies en fonction des changements sur le marché. La troisième suggestion est de faire une recherche sur les facteurs stables pour identifier les facteurs qui ont été prouvés théoriquement et empiriquement pour fournir des métiers rentables. Enfin, le conférencier recommande d'utiliser des tests hors échantillon, ce qui implique de tester le modèle sur des données qui n'ont pas été utilisées dans le processus d'optimisation pour s'assurer que le modèle n'est pas surajusté.

  • 01:05:00 La vidéo traite de l'importance d'extraire et d'isoler les facteurs qui peuvent conduire à des rendements stables et cohérents dans le trading forex. L'un de ces facteurs est le momentum, qui a une base empirique solide et peut être une bonne stratégie sur n'importe quel marché, à l'exception des crashs occasionnels du momentum. La vidéo parle également des techniques de validation, telles que la validation croisée, qui peuvent être difficiles sur le marché des changes car elles rompent la continuité de la série chronologique. Au lieu de cela, les traders peuvent compter le nombre de signaux générés et la durée de chaque transaction pour randomiser un autre ensemble de signaux et les comparer à ceux testés pour déterminer la robustesse de la stratégie. De plus, la vidéo souligne que l'automatisation n'est pas une boîte noire et que les traders doivent comprendre les facteurs sous-jacents qui déterminent le P&L et les risques liés à chaque stratégie.

  • 01:10:00 L'orateur suggère que la stratégie ne concerne pas l'homme contre la machine, mais plutôt l'homme et la machine travaillant ensemble. Le cerveau humain est mieux adapté pour développer des hypothèses, tandis que les machines sont plus rapides à les poursuivre. En termes de conseils de développement de stratégie pour les utilisateurs de la plate-forme Blue Shift, le conférencier recommande d'utiliser tous les paramètres de stratégie dans l'environnement contextuel, de vérifier l'effet de levier du compte, d'utiliser la fonction de planification pour les stratégies hebdomadaires ou quotidiennes, de tester les résultats des pratiques et de vérifier le surajustement. Les utilisateurs sont également encouragés à essayer les stratégies Forex spécifiques disponibles sur le compte Github de la plateforme et à demander de l'aide si nécessaire. Enfin, Liza de FXCM invite les utilisateurs à les contacter pour toute question qu'ils pourraient avoir sur les données du marché FX.

  • 01:15:00 L'orateur répond à diverses questions des utilisateurs, telles que si la session sera enregistrée (oui), s'ils peuvent échanger en direct (non) et s'ils parleront de test de plateforme et de stratégie (déjà répondu). Ils déclarent également qu'ils couvrent actuellement les marchés boursiers américains et indiens, ainsi que les 10 principales devises via fxcm, mais prévoient d'ajouter bientôt la cryptographie. L'orateur aborde également la question du débogage, mentionnant que bien qu'ils n'aient pas de bon débogueur à l'heure actuelle, des instructions d'impression de base peuvent être utilisées. Enfin, ils mentionnent que Python n'autorise pas "supply not tally" mais ne comprennent pas ce que l'utilisateur entend par là.

  • 01:20:00 L'orateur discute de la difficulté de trouver une petite quantité de données historiques qui couvre avec précision tous les mouvements de marché attendus sur le marché des changes en raison de son lien étroit avec les facteurs macroéconomiques. Il est difficile de définir un ensemble de données pouvant représenter toutes les conditions de marché attendues. Bien que l'orateur ne puisse recommander aucun livre en particulier aux débutants pour apprendre le trading sur le forex, il suggère de suivre les articles de recherche de banques centrales telles que le FMI, qui fournit des rapports axés sur les devises étrangères qui constituent un bon point de départ pour les débutants. En termes de trading à haute fréquence, l'envoi de milliers d'ordres par seconde n'est généralement pas viable pour les commerçants de détail, et l'orateur ne suggère pas de diviser les données en tests dans l'échantillon et hors échantillon. Au lieu de cela, des tests aléatoires sont recommandés pour générer des signaux aléatoires.

  • 01:25:00 L'orateur parle de backtesting et d'investissement factoriel. Ils soulignent l'importance d'analyser les signaux et la durée des transactions en backtesting pour mieux comprendre les résultats. Ils discutent également des risques potentiels de l'investissement factoriel, tels que la surpopulation et le fait que les facteurs sont bêta, ce qui signifie qu'ils ne fonctionnent pas systématiquement. Cependant, ils suggèrent que l'investissement factoriel peut être bon pour les personnes non techniques à long terme. L'orateur aborde également des questions sur le contexte statistique nécessaire pour le commerce et la disponibilité de bibliothèques Python supplémentaires pour l'analyse. Ils concluent que même si une connaissance de base de Python est utile, l'accent devrait être mis sur le développement d'une logique stratégique plutôt que sur l'expertise du langage de programmation. Cependant, il n'existe actuellement aucune fonction intégrée disponible pour le rééchantillonnage à des intervalles de 15 minutes en raison de problèmes potentiels de performances et d'alignement.

  • 01:30:00 L'orateur pense qu'il est préférable de créer les récifs et les ampoules, de les stocker dans une base de données et de les fournir sous forme de sortie prête à l'emploi plutôt que de créer une bibliothèque d'échantillonnage mystérieuse afin que les utilisateurs puissent les utiliser plus efficacement. En termes de stratégies d'action sur les prix, l'orateur prévient que vous avez besoin d'au moins des données de niveau deux ou plus pour les développer efficacement. En outre, ils déclarent que les données actuellement disponibles ne sont pas suffisantes pour créer des stratégies d'action sur les prix efficaces et qu'ils pourraient ne pas être en mesure de les fournir de sitôt. Interrogé sur les réglementations légales sur le trading de paires de devises en dehors de MCX, l'orateur déclare qu'il faut avoir une validation à des fins d'investissement ou de couverture et qu'ils ne savent pas grand-chose au-delà.

  • 01:35:00 L'orateur a expliqué le processus consistant à combiner des indicateurs techniques dans une stratégie de trading et à les tester à l'aide d'un compte de démonstration avant de les mettre en œuvre dans une situation de marché réelle. L'orateur a souligné que les commerçants devraient choisir des indicateurs qui se complètent plutôt que ceux qui sont similaires, et qu'ils devraient être conscients de l'importance de chaque indicateur dans la stratégie. Le compte démo permet aux traders de tester leur stratégie dans différents scénarios et d'évaluer son efficacité avant de risquer des fonds réels.
Forex Trading Strategies | Develop and Backtest Trading Ideas | Full FX Tutorial
Forex Trading Strategies | Develop and Backtest Trading Ideas | Full FX Tutorial
  • 2018.08.16
  • www.youtube.com
In this joint session by FXCM & QuantInsti®, you’ll get to learn about the FX market data, trading strategies, backtesting & optimization techniques along wi...
 

Comment EPAT peut vous aider ! par Nitesh Khandelwal - 28 juin 2018



Comment EPAT peut vous aider ! par Nitesh Khandelwal - 28 juin 2018

Nitesh Khandelwal, l'orateur, se présente ainsi que sa société, ConTeSt, en tant que fournisseur de formation en trading algorithmique et quantitatif depuis huit ans. Il commence par partager son parcours personnel, depuis ses jours d'ingénieur jusqu'à son expérience dans le secteur bancaire. Il souligne ensuite le lancement du Executed Program Algorithmic Trading (EPAT), un programme de six mois qui propose des conseils, une formation et une transition en douceur vers le trading dans le domaine du trading à haute fréquence (HFT). Khandelwal mentionne son expérience à Singapour, où il a mis en place des tests d'échanges dans le monde entier et développé l'activité à l'échelle mondiale.

Ensuite, Khandelwal discute du trading algorithmique et de sa croissance par rapport au trading de bricolage (à faire soi-même). Il partage des statistiques indiquant l'augmentation significative du trading algorithmique en Asie, en Europe et aux États-Unis, soulignant comment les traders préfèrent désormais prendre leurs propres décisions de trading plutôt que de s'appuyer sur des courtiers. Cependant, il note que si le trading algorithmique constitue une part importante de l'activité du marché en Inde, la participation des détaillants reste relativement faible. Khandelwal fait référence à un article de Bloomberg qui explore le rôle croissant des robots dans le remplacement des emplois de la finance.

Khandelwal poursuit en expliquant pourquoi les commerçants de détail n'ont pas été en mesure d'adopter le trading algorithmique et suggère des moyens de s'assurer qu'il devienne un catalyseur plutôt qu'une menace. Il met l'accent sur la nécessité de connaissances statistiques et techniques, d'un accès à des données de marché de qualité et à des courtiers efficaces, ainsi que des conseils de praticiens lors de la transition vers l'automatisation. Il explique comment EPAT a été créé pour répondre à ces besoins et fournir des conseils aux personnes intéressées par le trading d'algorithmes ou l'automatisation de leurs stratégies.

Ensuite, Khandelwal discute des caractéristiques d'EPAT. Il mentionne que le programme offre un contenu riche créé par des praticiens, des experts du domaine et des gestionnaires de fonds de premier plan. Le programme est continuellement mis à jour pour s'aligner sur les exigences du marché, et un accès à vie au contenu mis à jour est fourni. EPAT comprend une équipe d'assistance dédiée pour résoudre les questions, des conseils pédagogiques pour les anciens élèves et une cellule de carrière qui aide à trouver des opportunités d'emploi, à mettre en place des bureaux de négociation, à trouver des courtiers et des fournisseurs de données pertinents, etc. De plus, les participants EPAT ont accès à des fonctionnalités exclusives qui leur sont réservées.

Khandelwal souligne l'importance du module d'introduction dans EPAT, qui garantit que tous les participants commencent le cours sur la même page. Le module d'introduction couvre les bases d'Excel, de Python, des statistiques et des marchés financiers, qui sont des éléments fondamentaux du trading algorithmique. Il explique comment le module d'amorce évolue au fil du temps pour fournir une extraction de valeur maximale du programme. En outre, Khandelwal discute de la pertinence de Python en tant que langage de programmation le plus largement utilisé dans le trading algorithmique et de gage, ce qui a conduit à son inclusion dans le programme EPAT.

L'orateur se penche ensuite sur les différents modules couverts par EPAT et comment ils sont abordés. Le programme couvre l'analyse et la modélisation des données en Python, les méthodologies statistiques avancées, les effets sur les actions et les stratégies à terme, ainsi que l'apprentissage automatique pour le trading. Khandelwal souligne l'importance de comprendre l'infrastructure et les opérations derrière les stratégies de trading, ainsi que les stratégies de trading d'options, l'optimisation de portefeuille et le risque opérationnel dans le trading algorithmique. Il souligne également l'importance de mener à bien un projet sous le mentorat d'un expert du domaine et de passer l'examen EPAT pour obtenir un certificat vérifié.

Khandelwal donne un aperçu du programme de certificat EPAT, qui s'étend sur six mois et comprend plus de 100 heures de connexion en classe, une expérience pratique et plus de 300 heures de cours. Il mentionne les membres distingués du corps professoral qui enseignent le programme, y compris les praticiens, les universitaires et les commerçants prospères. Le programme offre des opportunités de placement et aide les participants à préparer leur CV et leurs entretiens, à identifier les lacunes en matière de compétences et à accéder à des partenaires de placement tels que des courtiers et des banques d'investissement. Les participants à l'EPAT ont également accès à des données de courtage privilégiées et à des fournisseurs d'API, ainsi qu'à des outils de backtesting avancés comme le simulateur Contra Blue.

En outre, Khandelwal discute des avantages de l'EPAT et de la façon dont il ajoute de la valeur aux participants. Il mentionne l'accès à des données de niveau minute pour les marchés indiens et les actions du S&P 500, les opportunités d'apprentissage continu, l'assistance professionnelle et les réunions d'anciens élèves. Il souligne que l'EPAT va au-delà d'un simple certificat et apporte une dimension quantitative fondamentale aux compétences existantes. Khandelwal précise que l'EPAT se concentre sur l'enseignement aux participants de la création et de la validation de stratégies de trading plutôt que sur la fourniture de stratégies de travail prêtes à l'emploi. Il reconnaît que le taux de réussite des stratégies varie en fonction de facteurs tels que l'accès à l'infrastructure, la gestion des risques et l'appétit pour le risque.

Khandelwal répond à la question de savoir si les analystes techniques peuvent automatiser leur trading en utilisant des stratégies telles que les croisements MACD, les moyennes mobiles et le RSI après avoir étudié l'EPAT. Il confirme que le programme couvre ces stratégies, garantissant que les participants disposent des connaissances et des outils nécessaires pour automatiser leur trading.

Le conférencier aborde ensuite les investissements nécessaires pour démarrer son propre pupitre de négociation algorithmique et explique que la taxe pour les analystes dépend de la fréquence du pupitre. Il mentionne que l'EPAT se concentre principalement sur le trading à basse et moyenne fréquence, mais couvre également les aspects des stratégies à haute fréquence. Le programme combine Python, Excel, R et MATLAB et nécessite des compétences en programmation et une clarté conceptuelle. EPAT fournit des conseils aux étudiants pour mettre en place leurs propres pupitres de négociation. Bien que l'EPAT ne garantisse pas les stages, ils offrent des conseils aux anciens qui le recherchent.

Khandelwal précise que bien que l'EPAT ne fournisse pas de garanties de placement, ils offrent des conseils pour s'assurer que les candidats ont une compréhension de base du trading algorithmique avant de s'inscrire au programme. Il souligne le succès de nombreux étudiants EPAT à la recherche active d'un emploi ou d'un changement de carrière grâce au vaste réseau de partenaires de placement du programme. Il mentionne que le système de gestion de l'apprentissage d'EPAT offre un accès à vie à toutes les sessions et au contenu mis à jour, et le cours nécessite un engagement de temps d'environ 300 heures, qui peut être étalé sur trois mois en consacrant une heure par jour. Khandelwal souligne que l'accent mis par l'EPAT sur la mise en œuvre pratique le distingue des cours plus théoriques.

Khandelwal discute de la structure des frais pour le cours EPAT, qui est de 4 720 $ pour les marchés développés et de 189 000 INR plus la TPS pour l'Inde. Il mentionne également le besoin de courtiers et d'API pour coder les stratégies et explique que les participants peuvent s'attendre à une assistance professionnelle à Hong Kong, bien que l'équipe EPAT ait eu plus de succès en Inde et à Singapour. Il conseille que même si les modules EPAT sont interdépendants et doivent être considérés comme un tout, une à deux heures d'effort quotidien devraient être suffisantes pour ceux qui ont des connaissances commerciales limitées. Il conclut en mentionnant que le cours EPAT couvre tous les types de paradigmes de stratégie de trading et offre des opportunités de travail à distance pour les participants et les anciens.

Dans les remarques de clôture, l'orateur souligne que le programme EPAT est complet et offre un accès complet à tous les modules, ce qui le rend précieux pour les personnes ayant une formation en technologie qui cherchent à entrer dans le domaine du trading algorithmique. Ils mentionnent les diverses opportunités d'emploi disponibles dans le domaine, avec de nombreux cas de participants à l'EPAT démarrant leur propre entreprise ou obtenant des emplois dans des entreprises de premier plan après avoir terminé le programme. L'orateur souligne l'importance de comprendre les statistiques de base, la corrélation et la régression pour réussir dans ce domaine. Enfin, ils soulignent que les stratégies de trading automatisées génèrent des bénéfices et représentent près de 50% des volumes globaux en Inde, indiquant le potentiel important pour ceux qui s'intéressent au trading algorithmique.

  • 00:00:00 Nitesh Khandelwal se présente ainsi que sa société, ConTeSt, qui dispense une formation en trading algorithmique et quantitatif depuis huit ans. Il partage également son parcours personnel, depuis ses jours d'ingénieur jusqu'à son expérience dans le secteur bancaire et enfin le lancement du programme exécuté Algorithmic Trading (EPAT), un programme de six mois qui offre des conseils, une formation et une transition en douceur vers le trading dans le domaine du trading haute fréquence (HFT). Khandelwal évoque également brièvement son expérience à Singapour dans la mise en place de tests pour les échanges dans le monde entier et l'expansion de l'entreprise dans une perspective mondiale.

  • 00:05:00 Nitesh Khandelwal parle de son expérience avec Core Density et comment ils ajoutent plus de valeur à leur public et aux participants de l'industrie du trading quantitatif. Il demande ensuite au public s'il a déjà négocié et partage des extraits de documents réglementaires sur la définition du trading algorithmique, tels que la définition du Securities Exchange Board of India et la réglementation MiFID II en Europe. Khandelwal explique que le trading systématique est considéré comme un trading algorithmique lorsqu'il est automatisé et utilise des algorithmes spécifiques.

  • 00:10:00 Nitesh Khandelwal discute du trading algorithmique et le compare au trading DIY (à faire soi-même). Le trading algorithmique a considérablement augmenté en Asie, passant de quelques points de pourcentage en 2004 à plus de 30 % en 2016, et représente désormais 66 % des transactions aux États-Unis et 44 % en Europe. L'essor du trading algorithmique a été proportionnel au nombre de traders qui prennent désormais leurs propres décisions de trading et ne comptent plus sur leurs courtiers. Cependant, alors que le trading algorithmique représente 30 à 45 % de l'activité du marché en Inde, la participation des détaillants n'est estimée qu'à environ 2 %. Khandelwal mentionne ensuite un article de Bloomberg soulignant comment les robots remplacent de plus en plus divers rôles sur le marché du travail de la finance.

  • 00:15:00 Nitesh Khandelwal explique pourquoi les commerçants de détail n'ont pas été en mesure d'adopter le trading algorithmique et ce qui peut être fait pour s'assurer qu'il devienne un catalyseur plutôt qu'une menace. Il souligne que le trading quantitatif ou automatisé nécessite un savoir-faire statistique et technique, et un accès à des données de marché et à des marchés de qualité par le biais de courtiers efficaces. Les conseils du praticien sont également cruciaux lors de la transition vers l'automatisation, d'autant plus qu'il existe de nombreux facteurs dont les commerçants doivent être conscients. Khandelwal explique comment EPAT a été créé pour répondre à ces besoins et offre des conseils à ceux qui souhaitent poursuivre l'algo ou automatiser leurs stratégies.

  • 00:20:00 Nitesh Khandelwal discute des fonctionnalités d'EPAT. Le programme se compose d'un contenu riche créé par des praticiens, des experts du domaine et des gestionnaires de fonds de premier plan. Le programme est continuellement mis à jour pour rester aligné sur les exigences du marché, et un accès à vie au contenu mis à jour est offert. Le programme fournit une équipe d'assistance dédiée qui résout les requêtes dans un délai défini, et les anciens reçoivent des conseils de la faculté sur la résolution des requêtes. EPAT dispose d'une cellule de carrière qui aide à trouver des opportunités d'emploi, à mettre en place des bureaux de négociation, à trouver des courtiers, des fournisseurs de données ou des collaborations pertinents, et plus encore. De plus, le programme comprend des fonctionnalités exclusives disponibles uniquement pour les participants EPAT.

  • 00:25:00 Nitesh Khandelwal explique comment le module d'introduction joue un rôle crucial pour s'assurer que tous ceux qui participent au programme EPAT sont sur la même longueur d'onde avant de commencer le cours. Le module d'introduction couvre les bases d'Excel, de Python, des statistiques et des marchés financiers, qui sont les éléments constitutifs du trading algorithmique. Khandelwal explique comment l'amorce évolue pour devenir plus interactive avec le temps afin d'assurer une extraction maximale de la valeur du programme. De plus, Khandelwal explique comment Python est devenu le langage de programmation le plus pertinent dans le monde du trading algorithmique et du prêt sur gage au cours des dernières années, raison pour laquelle ils ont remplacé C++ et Java par Python dans leur programme.

  • 00:30:00 Nitesh Khandelwal discute des différents modules couverts par EPAT et de leur approche. Le premier module implique l'analyse et la modélisation de données en Python, qui couvre des sujets tels que comment obtenir des données à l'aide de différentes API, comment analyser et utiliser les données dans votre stratégie, et comment coder la stratégie et envoyer des commandes. Le module aborde ensuite des méthodologies statistiques plus avancées, telles que les modèles ARIMA, ARCH et les modèles de mélange gaussien. Ensuite, le module des effets sur les actions et des stratégies à terme est introduit, qui couvre différentes stratégies d'exécution, l'optimisation et l'arbitrage dynamique/statistique. La vidéo se termine par une discussion sur l'apprentissage automatique pour le trading, qui est devenu de plus en plus populaire et régulièrement couvert dans le cours EPAT.

  • 00:35:00 Nitesh Khandelwal explique l'importance de comprendre l'infrastructure et les opérations derrière les stratégies de trading, en utilisant l'analogie d'un pilote de course automobile F1 ayant besoin de comprendre les composants internes de sa voiture. Il couvre également des sujets tels que les stratégies de trading d'options du point de vue de la gestion des risques, l'optimisation du portefeuille et l'importance du risque opérationnel dans le trading algorithmique. De plus, il souligne l'importance de mener à bien un projet sous le mentorat d'un expert du domaine concerné et de passer l'examen EPAT pour obtenir un certificat vérifié pour les industries.

  • 00:40:00 Nitesh Khandelwal discute du programme de certificat EPAT, qui comprend plus de 100 heures de connexion en classe, une expérience pratique et plus de 300 heures de cours à suivre sur une période de six mois. Le programme est enseigné par un groupe de membres distingués du corps professoral qui ont contribué de manière significative à l'industrie du trading algorithmique, avec un mélange de praticiens, d'universitaires et de commerçants prospères dans leurs rangs. Les membres du corps professoral font venir des experts de premier plan de l'industrie en tant que conférenciers invités, et le programme de certificat EPAT comprend également des opportunités de placement.

  • 00:45:00 Nitesh Khandelwal discute des façons dont le programme EPAT peut aider ses participants, y compris la préparation de CV et d'entretiens, l'identification des lacunes de compétences et les combler, et l'accès à des partenaires de placement tels que les principaux courtiers et les banques d'investissement. Les participants à l'EPAT ont également accès à des données de courtage privilégiées et à des fournisseurs d'API, certains offrant des échanges gratuits pendant une durée limitée. Le programme offre une reconnaissance et une valeur ajoutée à ses diplômés par le biais d'événements et de sessions exclusifs, d'un accès subventionné aux courtiers et aux API, et d'outils de back testing avancés comme le simulateur ContraBlue.

  • 00:50:00 Nitesh Khandelwal explique certains des avantages de l'EPAT, tels que l'accès à des données détaillées sur les marchés indiens et les actions du S&P 500, la formation continue, l'assistance professionnelle et les réunions d'anciens élèves. Il souligne que l'EPAT est plus qu'un simple certificat et qu'il ajoute une dimension quantitative fondamentale aux compétences existantes. Khandelwal précise également que l'EPAT ne consiste pas à donner des stratégies de travail mais à apprendre à les créer et à les valider. Il aborde une question sur le taux de réussite des stratégies et explique qu'il varie d'une personne à l'autre en fonction de facteurs tels que l'accès à l'infrastructure, la gestion des risques et l'appétit pour le risque. Enfin, Khandelwal répond à une autre question de savoir si les analystes techniques peuvent automatiser leur trading en utilisant des stratégies telles que les croisements MACD, les moyennes mobiles et le RSI après avoir étudié l'EPAT, à laquelle il confirme qu'il est couvert dans le programme.

  • 00:55:00 Nitesh Khandelwal discute des investissements nécessaires pour démarrer son propre bureau de négociation algorithmique et comment la taxe pour les analystes dépendra de la fréquence du bureau. Il mentionne que l'EPAT se concentre principalement sur les modes de négociation à basse et moyenne fréquence, mais comporte également certains aspects des stratégies à haute fréquence. Le cours de trading combine Python, Excel, R et MATLAB. Le programme nécessite des compétences en programmation et une clarté conceptuelle et fournit des conseils aux étudiants pour installer leurs propres bureaux. Bien que l'EPAT ne fournisse aucune garantie de placement, ils offrent des conseils aux anciens qui le recherchent.

  • 01:00:00 Nitesh Khandelwal précise que bien que l'EPAT n'offre aucune garantie pour les stages, ils fournissent des conseils pour s'assurer que les candidats ont une idée de base du trading algorithmique avant de s'inscrire au programme. L'EPAT a réussi à aider nombre de ses étudiants en recherche active à décrocher un emploi ou à changer d'emploi grâce à leur vaste réseau de près d'une centaine de partenaires de placement qui apprécient les connaissances et les compétences de mise en œuvre pratique enseignées dans ce créneau et ce cours axé sur les praticiens. . Le système de gestion de l'apprentissage d'EPAT offre un accès à vie à toutes les sessions et au contenu mis à jour, et le cours nécessite un engagement de temps d'environ 300 heures, qui peut être étalé sur trois mois en consacrant une heure par jour. Khandelwal souligne que l'accent mis par l'EPAT sur la mise en œuvre pratique du trading algorithmique le distingue des autres cours plus théoriques.

  • 01:05:00 Nitesh Khandelwal discute de la structure des frais pour le cours EPAT, qui est de 4 720 $ pour les marchés développés et de 189 000 INR plus TPS pour l'Inde. Il mentionne également le besoin de courtiers et d'API pour coder les stratégies et explique que les participants peuvent s'attendre à une assistance professionnelle à Hong Kong, mais que l'équipe EPAT a eu plus de succès en Inde et à Singapour. Khandelwal souligne que les modules EPAT sont interdépendants et doivent être considérés comme un tout, mais déclare qu'une à deux heures d'effort quotidien devraient être suffisantes pour ceux qui ont très peu de connaissances commerciales. Le cours EPAT couvre tous les types de paradigmes de stratégie de trading et offre des opportunités de travail à distance pour les participants et les anciens.

  • 01:10:00 Le conférencier explique à quel point le programme EPAT est complet et offre un accès complet à tous les modules, ce qui le rend précieux pour les participants ayant une formation en technologie qui cherchent à entrer dans le domaine du trading algorithmique. Ils mettent en évidence les différentes opportunités d'emploi disponibles dans le domaine, avec de nombreux cas de participants démarrant leur propre entreprise ou obtenant des emplois dans de grandes entreprises après avoir terminé le programme. De plus, l'orateur souligne l'importance de connaître les statistiques de base, de comprendre la corrélation et la régression pour réussir dans ce domaine. Enfin, ils suggèrent que les stratégies de trading automatique rapportent de l'argent et représentent près de 50% des volumes globaux en Inde, indiquant que ce domaine a un potentiel important pour ceux qui s'y intéressent.

  • 01:15:00 Nitesh Khandelwal discute du programme EPAT, un programme axé sur la pratique enseigné par des praticiens travaillant sur les marchés du monde entier. Il conseille aux commerçants débutants de lire et d'en savoir plus sur les marchés et suggère de parcourir les blogs et les webinaires fournis par le programme EPAT. Il mentionne également que MCX permet le trading algo et discute des exigences d'infrastructure nécessaires pour mettre en place son propre pupitre de négociation, car cela dépend de la fréquence des transactions et des exigences réglementaires. De plus, Khandelwal mentionne que l'EPAT a des anciens élèves dans certaines régions du Nigeria et d'Afrique et conseille aux personnes intéressées par le programme de se connecter avec l'équipe commerciale pour plus d'informations.

  • 01:20:00 L'orateur explique qu'il propose un système de gestion de l'apprentissage pour son programme en ligne, où les étudiants inscrits peuvent accéder à tous les cours, enregistrements, tests, quiz et devoirs. Le programme est entièrement en ligne, il n'y a donc pas de présence obligatoire en classe. Le salaire des étudiants de première année dépend de leurs antécédents, de leurs compétences et de leur pedigree académique, mais en Inde, il peut aller de 500 000 à 2 millions de roupies par an. Le programme couvre les tests de retour sur différentes plates-formes et prend en charge une automatisation complète. Le cours est dirigé par un instructeur et se déroule sur une base hebdomadaire. Bien qu'il ne soit pas auto-rythmé, les étudiants auront accès aux enregistrements et pourront les revoir ultérieurement s'ils manquent un cours. L'orateur suggère également qu'il peut y avoir des opportunités d'emploi à distance disponibles.

  • 01:25:00 Nitesh Khandelwal répond à quelques dernières questions sur le programme EPAT. Une question porte sur le nombre de formateurs basés en Inde, et Khandelwal estime qu'environ 50 % viennent d'Inde, le reste venant de divers pays du monde. Une autre question demande s'il existe des courtiers ou des institutions basés au Royaume-Uni travaillant avec le programme, et Khandelwal confirme qu'il existe des courtiers basés au Royaume-Uni. Il encourage les téléspectateurs à contacter l'équipe EPAT s'ils ont d'autres questions ou ont besoin d'aide. Dans l'ensemble, Khandelwal souligne la valeur du programme EPAT pour aider les individus à atteindre leurs objectifs de carrière et d'apprentissage.
How EPAT Can Help You! by Nitesh Khandelwal - June 28, 2018
How EPAT Can Help You! by Nitesh Khandelwal - June 28, 2018
  • 2018.06.29
  • www.youtube.com
If you've been looking to build a career into the quantitative and algorithmic trading domain, there is a high probability that you would have heard about th...
 

AMA sur le trading algorithmique | Par Nitesh Khandelwal



AMA sur le trading algorithmique | Par Nitesh Khandelwal

Dans cette session "demandez-moi n'importe quoi" sur le trading algorithmique, Nitesh Khandelwal, co-fondateur de la société de trading algo Eragy, accueille le public et partage son expertise sur le sujet. La session vise à couvrir divers aspects du trading algorithmique, y compris les plateformes et les courtiers, les stratégies de trading, les données de marché, les opportunités d'emploi, la mise en place d'un bureau de trading algo, la réglementation, l'avenir du trading algo et les opportunités d'apprentissage et d'éducation. Khandelwal mentionne que la session trouvera un équilibre entre les questions préparées à l'avance et les questions en direct, et ils proposent également des sessions de suivi individuelles pour les questions sans réponse.

Le présentateur commence par expliquer différentes stratégies de trading telles que le trading à basse fréquence, à moyenne fréquence et à haute fréquence. Ces stratégies sont définies en fonction de la latence de l'infrastructure de trading et du temps de traitement des commandes. L'accent est mis sur le fait que la latence de la stratégie de trading est plus importante que le nombre de transactions exécutées par seconde. La section examine ensuite où obtenir des données de marché et des données économiques, en discutant de différents fournisseurs de données tels que Yahoo Finance, Google Finance, Quandl, Alpha Vantage et FXCM. Ces fournisseurs proposent soit des données téléchargeables, soit des données pouvant être utilisées sur leurs plateformes.

Ensuite, l'orateur discute des sources de données pour le trading algorithmique, y compris les téléchargements manuels, la récupération d'API et les fournisseurs payants tels que Quandl, Global Data Feed, Trading Economics, Thomson Reuters et Active Financial. Ils abordent également la question de savoir si les traders à haute fréquence (HFT) surpassent généralement les day traders manuels, expliquant que cela dépend du type de day traders analysés. Si les commerçants profitent des opportunités d'arbitrage ou des inefficacités du marché, les machines peuvent être plus rapides que les commerçants manuels. Cependant, si les commerçants analysent les données et exécutent des ordres manuels après des recherches approfondies, les machines ne sont pas nécessairement plus efficaces. L'orateur rejette l'idée qu'un marché excessivement algo-négocié est contre-productif, précisant que l'automatisation ne nécessite pas toujours un trading à haute fréquence.

Le concept d'utilisation d'algorithmes dans le trading, connu sous le nom de "coudes", est expliqué. Cela implique de négocier avec plus d'efficacité et peut être automatisé et quantifié à l'aide de formules mathématiques. Cependant, il peut être difficile de détecter les inefficacités du marché, et la concurrence dans le commerce à haute fréquence et l'infrastructure technologique devient plus coûteuse. L'orateur aborde également la question de savoir comment gérer plusieurs stratégies dans un compte de courtage pour un FBI.

Les conditions préalables au trading algorithmique sont discutées, impliquant des connaissances en statistique et en économétrie, en informatique financière et en trading quantitatif. Le présentateur mentionne que ceux qui partent de zéro peuvent en apprendre davantage sur ces piliers grâce à des ressources disponibles gratuitement sur le site Web de Quant. Pour les traders déjà familiarisés avec les stratégies de trading et cherchant à s'automatiser, ils peuvent commencer par utiliser une API de courtier et éventuellement créer leur propre plateforme. L'orateur explique également les différents fournisseurs de données pour les données sur les ticks et mentionne que si la plupart des fournisseurs fournissent des données instantanées, les fournisseurs haut de gamme peuvent fournir de véritables données sur les ticks à un coût plus élevé. Enfin, il est à noter que pour les traders qui réussissent déjà avec leurs stratégies de trading actuelles, l'apprentissage du trading algo peut ne pas être nécessaire à moins qu'ils ne souhaitent continuer à se perfectionner et à expérimenter.

Les avantages de l'automatisation des stratégies de trading sont discutés, y compris le contrôle des émotions, l'évolutivité et la bande passante pour travailler sur des stratégies pendant que les machines gèrent l'exécution. L'orateur souligne l'importance d'avoir une formation en programmation pour réussir dans le trading algorithmique et souligne que Python est largement utilisé par la plupart des entreprises dans le monde. Cependant, l'orateur indique que le trading à haute fréquence ne convient pas aux commerçants de détail et que certaines stratégies peuvent nécessiter un capital raisonnable avant de connaître le succès. Néanmoins, même avec une connaissance de base de Python, on peut se lancer dans le trading algorithmique.

Les compétences requises pour devenir un trader algorithmique sont discutées, y compris la connaissance des statistiques, de l'économétrie et des stratégies de trading. Le conférencier explique également les différentes opportunités de carrière dans le trading algorithmique, allant des rôles de back-office aux rôles de trading de front-office. Ils mentionnent que les personnes ayant une formation en logiciels et en science des données peuvent s'aventurer dans le trading d'algo, car leur expérience fournit déjà une base solide et il devrait être relativement plus facile de se familiariser avec le marché financier. L'orateur mentionne également un blog sur un ancien élève de QuantInsti âgé de 40 ans qui est passé avec succès au trading algorithmique sans expérience préalable en trading. QuantInsti est mis en avant comme une institution qui propose une cellule carrière dédiée pour aider les individus à acquérir les compétences nécessaires et à entrer en contact avec les bonnes personnes pour progresser dans leur carrière.

L'orateur aborde ensuite les langages de trading algorithmique et leur importance dans la recherche et l'analyse. Alors que les sociétés de trading à haute fréquence préfèrent utiliser C++ pour une latence plus faible, pour le backtesting et l'évaluation de la stratégie, R et Python sont des choix plus populaires. En réponse à la question d'un utilisateur sur l'amélioration du taux de réussite et la gestion des pertes consécutives, l'orateur suggère d'optimiser les paramètres de backtesting et d'utiliser le trading in-sample et out-of-sample pour vérifier le drawdown. La saturation du marché est également abordée, l'orateur déclarant que le ratio HFT sert d'indicateur de concurrence et que les stratégies d'arbitrage à la vanille peuvent ne pas réussir sur des marchés hautement saturés.

Différentes stratégies de trading algorithmique sont explorées plus en détail, soulignant la nécessité d'une infrastructure technologique solide pour les stratégies d'arbitrage et de tenue de marché. L'orateur aborde diverses questions du public, notamment la signification de la quantité totale de bits, l'impact des HFT sur les commerçants traditionnels en Inde et l'horizon temporel utilisé pour analyser les données pour le trading algo. Ils expliquent que l'horizon temporel dépend de la fréquence des transactions. De plus, l'orateur encourage les personnes ayant une formation en logiciels et en science des données à s'aventurer dans le trading d'algorithmes, affirmant que leur expérience fournit déjà une base solide et qu'il devrait être relativement plus facile de se lancer sur le marché financier.

Nitesh Khandelwal aborde plusieurs questions liées à la possibilité de mettre en place une plateforme de trading avec leur entreprise, l'approbation légale de l'automatisation, les coûts et la réglementation du marché indien. Ils précisent que leur entreprise fournit des conseils et un soutien tout au long de la vie aux participants et aux anciens mais n'offre pas de services de conseil. L'automatisation est possible et les coûts dépendent de l'infrastructure requise. Dans des pays comme l'Inde, chaque stratégie de trading doit être approuvée avant l'automatisation, et seul le courtier peut le faire au nom du trader. L'utilisation d'indicateurs stochastiques et fondamentaux dans les stratégies est discutée, en mentionnant qu'ils peuvent être utilisés manuellement ou via un logiciel. L'intervenant évoque également la disponibilité d'outils de lecture d'actualités lisibles par machine et de données économiques pour créer des algorithmes.

La session examine si les Indiens peuvent s'engager dans le trading à haute fréquence (HFT) pour les marchés non indiens et si le HFT éloigne les commerçants de détail des marchés. En ce qui concerne les marchés non indiens, il est expliqué que l'envoi d'argent pour les produits de marge commerciale cotés sur les marchés étrangers n'est pas autorisé dans le cadre du programme LRS, sauf si l'on a l'approbation de la RBA. Cependant, si une entreprise mondiale sous-traite une partie de ses activités commerciales à une entreprise indienne, cela pourrait être possible. En ce qui concerne l'impact du HFT sur les commerçants de détail, il est mentionné que la présence des HFT ajoute de la liquidité au marché et resserre les spreads, ce qui profite aux commerçants de détail. Cependant, les activités illégales telles que le front running ne devraient pas être autorisées, quel que soit le domaine.

L'orateur souligne que le trading à haute fréquence (HFT) ne nuit pas aux commerçants de détail individuels, car ils utilisent généralement des navigateurs Web qui ont intrinsèquement une latence intégrée de quelques centaines de millisecondes. Même si les entreprises HFT utilisent des méthodes illégales pour obtenir un accès plus rapide, cela n'aurait pas d'impact sur le commerçant de détail mais nuirait aux autres entreprises HFT qui respectent les règles. L'orateur souligne que les commerçants de détail bénéficient généralement du marché efficace créé par le HFT, car il élimine les opportunités d'arbitrage. L'orateur aborde également une question sur l'apprentissage du trading algorithmique en anglais et discute de quelques éléments importants pour un trading toujours rentable.

La vidéo souligne l'importance des stratégies de trading en constante évolution dans l'industrie du trading algorithmique, alors que les marchés changent constamment. Bien que peu de courtiers en Inde prennent en charge le trading algorithmique, certains proposent des options de trading programmatique telles que semi-algo ou el-go. L'orateur aborde également le marché du travail pour les analystes quantitatifs, soulignant qu'il n'est pas exclusif aux docteurs mais dépend plutôt des connaissances et des compétences en résolution de problèmes des individus. Les exigences matérielles et d'infrastructure pour le trading algorithmique sont également abordées. Pour le trading à basse fréquence, un ordinateur portable décent ou des options de cloud computing fournies par des sociétés comme Amazon et Google sont suffisants. Le trading à moyenne fréquence nécessite une plateforme de trading algorithmique et un serveur spécialisé, ce qui peut coûter quelques milliers de dollars. Le trading à haute fréquence nécessite un serveur spécialisé allant de 10 000 $ à 25 000 $.

Le conférencier explique les approbations requises avant la mise en ligne, qui dépendent de l'échange et de l'emplacement. Ils précisent que le programme EPAT couvre une gamme complète de sujets et se concentre sur l'apprentissage pratique, même s'il ne garantit pas des stratégies rentables. Les différents types d'algorithmes utilisés dans le trading automatisé sont discutés, y compris les algorithmes à basse, moyenne et haute fréquence. Des algorithmes à haute fréquence sont utilisés pour l'arbitrage, la création de marché et les stratégies directionnelles qui nécessitent un calcul plus rapide. Les algorithmes à basse et moyenne fréquence peuvent automatiser diverses stratégies, y compris l'investissement fondamental. Des stratégies populaires telles que l'élan, l'arbitrage statistique et les stratégies basées sur des options sont également mentionnées, avec des algorithmes offrant des avantages tels que l'évolutivité, le contrôle émotionnel et une meilleure analyse des mégadonnées.

Pour les commerçants de détail intéressés par le trading algorithmique mais manquant d'expérience en programmation, l'orateur suggère de commencer par apprendre les statistiques de base et les stratégies de trading. Ils fournissent des ressources pour un apprentissage autonome. Nitesh Khandelwal met l'accent sur l'idée de créer sa propre stratégie de trading plutôt que de s'appuyer sur des stratégies préexistantes. Ils abordent également le rôle du trading d'algo sur le marché des crypto-monnaies, déclarant que si certains participants utilisent des outils d'automatisation pour le trading de crypto-monnaies, le trading d'algo n'est pas la seule raison du boom des crypto-monnaies. L'impact potentiel de l'intelligence artificielle et de l'apprentissage automatique sur le trading d'algorithmes est mentionné, l'orateur soulignant qu'il renforcera les commerçants individuels et de détail aux côtés des grandes institutions en raison de l'abordabilité de la puissance de calcul requise pour les algorithmes de formation.

L'orateur discute en outre de l'augmentation attendue de la participation des particuliers au trading algorithmique en raison des changements et de l'automatisation qui se produisent dans le secteur financier. Ils répondent aux questions du public sur les ressources pour les données de bilan, la transition d'une entreprise non financière à un trader algorithmique, et les chiffres idéaux pour le TCAC (taux de croissance annuel composé) et le ratio gagnant dans le trading algorithmique. L'orateur met en garde contre le fait de se concentrer uniquement sur les rendements en pourcentage et met plutôt l'accent sur l'évolutivité, une infrastructure solide et la technologie comme des considérations importantes.

La session se termine avec l'orateur discutant de l'importance de prendre en compte le risque lors de la discussion des rendements et de l'investissement requis pour démarrer une entreprise de trading algo, qui peut aller de quelques milliers de dollars à des centaines de milliers selon la fréquence et le type d'infrastructure nécessaire. L'orateur mentionne que l'automatisation et la gestion des risques sont des facteurs clés à prendre en compte lors du démarrage d'une entreprise de trading algo. Ils fournissent également des informations sur la disponibilité des données en temps réel en Inde et sur le processus d'approbation des stratégies de trading, soulignant que les bourses donnent la priorité à la gestion des risques par rapport aux spécificités de la stratégie. Enfin, l'orateur reconnaît la rareté de bons sites Web pour le back-testing et l'écriture de stratégies de gauche (effet de levier et intrajournalier) sur les marchés indiens.

Dans le dernier segment, l'orateur discute du développement d'outils pour différents marchés chez Horn Insights, visant à offrir une meilleure exposition et des avantages aux participants et aux utilisateurs. Ils abordent une question sur l'échelle salariale des quants en Inde, notant que cela dépend de facteurs tels que l'expérience et les antécédents. Le conférencier souligne que la colocation n'est pas une manipulation et la compare au paiement d'un voyage en avion pour atteindre une destination plus rapidement par rapport à un voyage en train. Ils mentionnent également que la plupart des stratégies basées sur des indicateurs techniques peuvent être développées à l'aide de Python et soulignent que, bien que les programmes avancés dans le domaine du trading algorithmique ne soient pas largement disponibles, des conseils tout au long de la vie sont fournis via le programme ANNIE pat.

Dans les derniers instants de la vidéo, l'orateur encourage les individus à poursuivre le trading algorithmique et mentionne que le marché a considérablement évolué au fil des ans, devenant plus accessible aux commerçants de détail. Ils invitent les téléspectateurs à explorer les ressources disponibles sur QuantInsti et Horn Insights pour approfondir leurs connaissances et leur compréhension du trading algorithmique.

  • 00:00:00 Nitesh Khandelwal, co-fondateur de la société de trading algo Eragy, accueille le public dans une session "demandez-moi n'importe quoi" sur le trading algorithmique. Khandelwal a de l'expérience dans le conseil aux grandes institutions pour mettre en place leurs propres desks de trading algo et partagera son expertise sur le sujet. La session couvrira des questions populaires sur des sujets tels que les plateformes et les courtiers, les stratégies de trading, les données de marché, les opportunités d'emploi, la mise en place d'un bureau de trading algo, la réglementation et l'environnement commercial, l'avenir du trading algo et les opportunités d'apprentissage et d'éducation. La session vise à trouver un équilibre entre les questions préparées à l'avance et les questions en direct, et proposera également des sessions de suivi individuelles pour les questions auxquelles il ne sera pas possible de répondre pendant la session.

  • 00: 05: 00 Le présentateur explique différentes stratégies de trading telles que le trading à basse fréquence, à moyenne fréquence et à haute fréquence, et comment ces stratégies sont définies en fonction de la latence de l'infrastructure de trading et du temps de traitement des commandes. Le présentateur souligne que la latence de la stratégie de trading est plus importante que le nombre de trades exécutés par seconde. La section explique ensuite où obtenir des données de marché et des données économiques auprès de différents fournisseurs de données tels que Yahoo Finance, Google Finance, quanti ex parte del alpha Vantage fxcm. Le présentateur note que ces fournisseurs proposent soit des données téléchargeables, soit des données utilisables sur leur plateforme.

  • 00:10:00 L'orateur discute des sources de données pouvant être utilisées pour le trading algorithmique. Les données peuvent être obtenues via des téléchargements manuels, la récupération d'API ou des fournisseurs payants tels que Qantas Global Data Feed Trading Economics, Thomson Reuters et Active Financial. La question de savoir si les traders HFT ou coude battent généralement les day traders manuels dépend du type de day traders analysés. Si les commerçants profitent des opportunités d'arbitrage ou des inefficacités du marché, les machines peuvent être plus rapides que les commerçants manuels. Cependant, si les commerçants analysent les données et exécutent des ordres manuels après des recherches approfondies, les machines ne sont pas nécessairement plus efficaces. L'idée qu'un marché excessivement algo-négocié est contre-productif n'est pas fondée car l'automatisation ne nécessite pas toujours un trading à haute fréquence.

  • 00:15:00 L'orateur explique le concept d'utilisation des coudes dans le trading, qui implique de trader avec plus d'efficacité et peut être automatisé et quantifié à l'aide de formules mathématiques. Cependant, il peut être difficile de trouver des inefficacités sur le marché, et la concurrence dans le commerce à haute fréquence et l'infrastructure technologique devient plus coûteuse. Les indicateurs techniques et les modèles peuvent être quantifiés et automatisés, mais les algorithmes peuvent devenir beaucoup plus complexes lorsque la subjectivité est impliquée, comme dans Elliott Wave. L'orateur aborde également une question sur la façon de gérer plusieurs stratégies dans un compte de courtage pour un FBI.

  • 00: 20: 00 L'orateur discute des conditions préalables nécessaires au trading algorithmique, qui implique généralement trois piliers majeurs de la statistique et de l'économétrie, de l'informatique financière et du trading quantitatif. Ceux qui partent de zéro peuvent en apprendre davantage sur ces piliers grâce à diverses ressources, telles que celles disponibles gratuitement sur le site quant. Pour les traders déjà familiarisés avec les stratégies de trading et cherchant à s'automatiser, ils peuvent commencer par utiliser une API de courtier et éventuellement créer leur propre plateforme. En termes de fournisseurs de données pour les données de tick, la plupart des fournisseurs fournissent des données instantanées à la place, bien que les fournisseurs haut de gamme puissent fournir de véritables données de tick pour un coût plus élevé. Enfin, pour les traders qui réussissent déjà avec leurs stratégies de trading actuelles, il n'est peut-être pas nécessaire d'apprendre le trading algo à moins qu'ils ne souhaitent continuer à se perfectionner et à expérimenter.

  • 00: 25: 00 L'orateur discute des avantages de l'automatisation des stratégies de trading telles que le contrôle des émotions et l'évolutivité et la bande passante pour travailler sur les stratégies pendant que les machines gèrent l'exécution. L'orateur indique qu'avoir une formation en programmation est essentiel pour réussir dans le trading algorithmique et mentionne que la plupart des entreprises à travers le monde utilisent Python. Cependant, l'orateur déclare que le HFT ne convient pas aux commerçants de détail et que certaines stratégies peuvent nécessiter un capital raisonnable avant de connaître le succès. Néanmoins, même avec une connaissance de base de Python, on peut se lancer dans le trading algorithmique.

  • 00:30:00 L'orateur discute des compétences requises pour devenir un trader algorithmique, y compris la connaissance des statistiques, de l'économétrie et des stratégies de trading. Le conférencier explique également les différentes opportunités de carrière dans le trading algorithmique, allant des rôles de back-office aux rôles de trading de front-office. Pour ceux qui recherchent des opportunités de carrière avec 10 à 20 ans d'expertise dans le domaine mais aucune expérience en trading, l'orateur partage un blog sur un ancien élève de QuantInsti de 40 ans qui a réussi la transition vers le trading algorithmique. De plus, QuantInsti dispose d'une cellule de carrière dédiée qui peut aider les individus à acquérir les compétences nécessaires et à entrer en contact avec les bonnes personnes pour progresser dans leur carrière.

  • 00:35:00 L'orateur parle des langages de trading algorithmique et de l'importance de la programmation dans la recherche et l'analyse. Il explique que les sociétés de trading à haute fréquence préfèrent utiliser C++ pour sa latence plus faible, mais pour le backtesting et l'évaluation de stratégie, R et Python sont plus populaires. En réponse à la question d'un utilisateur sur l'amélioration du taux de réussite et des pertes consécutives, il suggère d'optimiser les paramètres de backtesting et d'utiliser le trading in-sample et out-of-sample pour vérifier le drawdown. Lorsqu'il discute de la saturation du marché, il déclare que le ratio HFT est un indicateur de concurrence et que les stratégies d'arbitrage à la vanille peuvent ne pas réussir sur les marchés avec des ratios HFT élevés.

  • 00: 40: 00 L'orateur discute de différentes stratégies de trading algorithmique, soulignant la nécessité d'une infrastructure technologique solide pour les stratégies d'arbitrage et de tenue de marché. L'orateur répond également à diverses questions du public, notamment la signification de la quantité totale de bits, l'impact des HFT sur les commerçants traditionnels en Inde et l'horizon temporel utilisé pour analyser les données pour le trading algo, qui, selon lui, dépend de la fréquence de négociation. En outre, l'orateur encourage les personnes ayant une formation en logiciels et en science des données à s'aventurer dans le trading d'algo, affirmant que leur expérience fournit déjà une base solide et que la reprise du côté des marchés financiers devrait être relativement plus facile.

  • 00:45:00 Nitesh répond à plusieurs questions liées à la possibilité de mettre en place une plateforme de trading avec leur entreprise, l'approbation légale de l'automatisation, les coûts et la réglementation du marché indien. Ils fournissent des conseils et un soutien tout au long de la vie à leurs participants et anciens élèves, mais n'offrent pas de services de conseil. L'automatisation est possible et les coûts dépendent de l'infrastructure requise. Dans des pays comme l'Inde, chaque stratégie de trading doit être approuvée avant l'automatisation, et seul le courtier peut le faire au nom du trader. Les indicateurs stochastiques peuvent être utilisés dans n'importe quelle stratégie, et les indicateurs fondamentaux peuvent être alimentés manuellement ou via un logiciel. Il existe des outils pour faciliter la lecture des actualités lisibles par machine et des données économiques pour créer des algorithmes.

  • 00: 50: 00 Il est discuté si les gens en Inde peuvent faire du trading à haute fréquence (HFT) pour les marchés non indiens et aussi si le HFT éloigne les commerçants de détail des marchés. Pour les marchés non indiens, il est mentionné qu'en vertu du régime LRS, il n'est pas permis d'envoyer de l'argent pour des produits de marge commerciale cotés sur des bourses étrangères à moins d'avoir l'approbation de la RBA. Cependant, si une entreprise mondiale sous-traite une partie de ses activités commerciales à une entreprise indienne, cela pourrait être possible. Sur la question de savoir si le HFT chasse les commerçants de détail du marché, il est mentionné que la présence des HFT ajoute de la liquidité au marché et resserre les écarts, ce qui profite aux commerçants de détail. Cependant, les activités illégales telles que le front running ne devraient pas être autorisées, quel que soit le domaine.

  • 00: 55: 00 L'orateur explique comment le trading à haute fréquence (HFT) ne nuit pas aux commerçants de détail au niveau individuel, car ils utilisent des navigateurs Web dotés d'une latence intégrée de quelques centaines de millisecondes. Même si les entreprises HFT utilisent des méthodes illégales pour obtenir un accès plus rapide, cela n'aurait pas d'impact sur le commerçant de détail, mais nuirait aux autres entreprises HFT qui respectent les règles. L'orateur souligne que les commerçants de détail bénéficient généralement du marché efficace créé par le HFT car il élimine les opportunités d'arbitrage. L'orateur aborde également une question sur l'apprentissage du trading algorithmique en anglais et parle de quelques éléments importants pour un trading toujours rentable.

  • 01:00:00 La vidéo traite de l'importance de l'évolution continue de sa stratégie de trading dans l'industrie du trading algorithmique alors que les marchés changent constamment. Bien que peu de courtiers en Inde prennent en charge le trading algorithmique, certains proposent un trading programmatique qui permet l'utilisation de certains programmes comme semi-algo ou el-go. Le marché du travail pour les analystes quantitatifs n'est pas exclusif aux titulaires d'un doctorat, mais repose plutôt sur la connaissance de son domaine et sur les compétences en résolution de problèmes. La vidéo couvre également les exigences matérielles nécessaires au trading algorithmique, qui dépendent du type de trading effectué, mais généralement, un ordinateur portable ou de bureau décent est suffisant.

  • 01:05:00 L'orateur discute des exigences matérielles et infrastructurelles pour le trading algorithmique. Pour le trading à basse fréquence, un ordinateur portable décent ou des options de cloud computing fournies par des sociétés comme Amazon et Google suffiront. Pour le trading à moyenne fréquence, une plateforme de trading algorithmique est nécessaire, et un serveur spécialisé coûterait quelques milliers de dollars, le trading à haute fréquence nécessitant un serveur spécialisé coûtant entre 10 000 et 25 000 dollars. Le conférencier explique également les approbations requises avant la mise en ligne, qui dépendent de l'échange et de l'emplacement. Enfin, le conférencier précise que le programme EPAT couvre une gamme complète de sujets et est axé sur l'apprentissage pratique, mais ne garantit pas des stratégies rentables.

  • 01:10:00 Le conférencier discute des différents types d'algorithmes qui peuvent être utilisés pour le trading automatisé, y compris les algorithmes à basse, moyenne et haute fréquence. Les algorithmes à haute fréquence sont utilisés pour l'arbitrage, la création de marché et les stratégies directionnelles qui nécessitent un calcul plus rapide. D'autre part, les algorithmes à basse et moyenne fréquence peuvent automatiser différentes stratégies, y compris l'investissement fondamental. L'orateur mentionne également des stratégies populaires telles que l'élan, l'arbitrage statistique et les stratégies basées sur des options, et souligne que l'utilisation d'algorithmes peut bénéficier au trading en offrant plus d'échelle et de contrôle émotionnel, et en permettant une meilleure analyse des mégadonnées. Pour les commerçants de détail qui s'intéressent au trading algorithmique mais qui n'ont pas d'expérience en programmation, l'orateur suggère de commencer par apprendre les statistiques de base et les stratégies de trading, et fournit des ressources pour un apprentissage à son rythme.

  • 01:15:00 Nitesh Khandelwal discute de l'idée d'utiliser des stratégies de trading standard et souligne l'importance de créer sa propre stratégie plutôt que de s'appuyer sur des stratégies préexistantes. Il parle également du rôle du trading d'algo sur le marché de la crypto-monnaie, déclarant que même si certains participants utilisent des outils d'automatisation pour échanger des crypto-monnaies, le trading d'algo n'est pas la raison du boom de la crypto-monnaie. Khandelwal évoque également l'impact potentiel de l'intelligence artificielle et de l'apprentissage automatique sur le trading algo, déclarant que cela donnera aux commerçants individuels et de détail plus de pouvoir en plus des grandes institutions en raison de l'abordabilité de la puissance de calcul requise pour la formation des algorithmes.

  • 01:20:00 L'orateur discute de l'augmentation attendue de la participation des particuliers au trading algorithmique en raison des changements et de l'automatisation qui se produisent dans le secteur financier. L'orateur répond également aux questions du public sur les ressources pour les données de bilan, la transition d'une entreprise non financière à un trader algorithmique, et les meilleurs chiffres pour le TCAC et le ratio gagnant dans le trading algorithmique. L'orateur met en garde contre le fait de se concentrer uniquement sur les rendements en pourcentage et encourage plutôt l'évolutivité et une infrastructure et une technologie solides.

  • 01:25:00 L'orateur discute des stratégies de trading à basse et moyenne fréquence et du ratio de Sharpe, déclarant que les rendements ne peuvent être discutés sans tenir compte du risque. Il mentionne également l'investissement requis pour démarrer une entreprise de trading d'algo, qui peut aller de quelques milliers de dollars à des centaines de milliers selon la fréquence et le type d'infrastructure requise. De plus, l'orateur mentionne que l'automatisation et la gestion des risques sont des considérations clés lors du démarrage d'une entreprise de trading algo. Concernant les données, les données en temps réel sont possibles sans colocation en Inde, mais il peut y avoir un délai de quelques millisecondes. Le conférencier aborde également le processus d'approbation des stratégies et assure les auditeurs que les échanges se concentrent généralement davantage sur la gestion des risques que sur les spécificités de la stratégie. Enfin, l'orateur mentionne qu'il n'y a pas beaucoup de bons sites Web pour tester et écrire des stratégies de gauche sur les marchés indiens.

  • 01:30:00 L'orateur discute du développement d'outils pour différents marchés chez Horn Insights afin d'offrir une meilleure exposition et des avantages aux participants et aux utilisateurs. Ils répondent également à une question concernant l'échelle salariale des quants en Inde, qui dépend de facteurs tels que l'expérience et les antécédents. Le conférencier souligne que la colocation n'est pas une manipulation et la compare au paiement d'un voyage en avion pour atteindre une destination plus rapidement qu'un voyage en train. En outre, ils suggèrent que la plupart des stratégies basées sur des indicateurs techniques peuvent être développées à l'aide de Python et notent qu'il n'y a pas beaucoup de programmes avancés proposés dans le domaine du trading algorithmique, mais des conseils à vie sont disponibles via ANNIE pat.

  • 01:35:00 L'orateur répond à toutes les questions ou préoccupations restantes que les téléspectateurs pourraient avoir. Ils rassurent les téléspectateurs sur le fait que s'ils ont d'autres doutes, ils doivent se sentir libres de demander de l'aide et qu'ils sont heureux de répondre à toutes les questions. L'orateur conclut en remerciant le public d'avoir assisté à la séance et de s'être efforcé de répondre au plus grand nombre de questions possible.
AMA on Algorithmic Trading | By Nitesh Khandelwal
AMA on Algorithmic Trading | By Nitesh Khandelwal
  • 2017.12.06
  • www.youtube.com
In this is session on AMA on Algorithmic Trading, get answers to all your question from "What is Algorithmic Trading?" and "How you can pursue it?"********Le...