Trading Quantitatif - page 6

 

Ernest Chan (Predictnow.ai) - "Comment utiliser l'apprentissage automatique pour l'optimisation"



Ernest Chan (Predictnow.ai) - "Comment utiliser l'apprentissage automatique pour l'optimisation"

Ernest Chan, co-fondateur de Predictnow.ai, se penche sur les défis auxquels sont confrontées les méthodes traditionnelles d'optimisation de portefeuille lorsqu'il s'agit de changements de régime sur les marchés. Il suggère que l'apprentissage automatique peut apporter une solution à ce problème. Chan explique comment son équipe applique des techniques d'apprentissage automatique à l'optimisation de portefeuille, en mettant l'accent sur l'intégration de fonctionnalités de séries chronologiques qui mesurent divers aspects financiers tels que la volatilité, les prix et les taux d'intérêt. En combinant le modèle à trois facteurs Farmer-French avec la compréhension que le classement est plus crucial que la prédiction, ils visent à obtenir une optimisation optimale du portefeuille.

Chan poursuit en partageant les résultats concrets de la performance du modèle CBO et fournit des exemples de clients qui ont connu des améliorations de la performance de leur portefeuille en utilisant cette approche. Il souligne que les modèles d'apprentissage automatique ont la capacité de s'adapter aux changements de régime, ce qui leur permet de répondre efficacement à l'évolution des conditions du marché. De plus, il explique comment les rendements de l'indice S&P 500 et de ses composants peuvent être calculés à l'aide d'un algorithme d'apprentissage automatique qui utilise des fonctionnalités de séries chronologiques.

De plus, Chan met en évidence l'approche d'ensemble employée par son équipe pour l'optimisation et la spéculation. Il mentionne leur "sauce secrète" qui élimine le besoin d'une grande puissance de calcul. Plutôt que de suivre un processus en deux étapes consistant à prédire les régimes et à conditionner leur répartition des rendements, ils utilisent des facteurs visuels pour prédire directement la performance du portefeuille. De plus, Chan précise qu'en incluant une partie importante de l'échantillon d'apprentissage dans leur algorithme, le rendement attendu s'aligne sur les résultats passés.

Le Dr Ernest Chan explique les défis auxquels sont confrontées les méthodes traditionnelles d'optimisation de portefeuille en présence de changements de régime et souligne le rôle de l'apprentissage automatique pour résoudre ce problème. Il discute de l'application des techniques d'apprentissage automatique, de l'importance des caractéristiques des séries chronologiques et de l'importance du classement dans l'optimisation optimale du portefeuille. Il partage des résultats spécifiques et des exemples de réussite de clients, soulignant l'adaptabilité des modèles d'apprentissage automatique aux conditions changeantes du marché. Chan fournit également des informations sur le calcul des rendements à l'aide d'algorithmes d'apprentissage automatique et met en lumière leur approche d'ensemble et leur méthodologie unique.

  • 00:00:00 Dans cette section, Ernest Chan discute des méthodes traditionnelles d'optimisation de portefeuille et du défi des changements de régime sur le marché, ce qui signifie qu'un portefeuille qui était optimal dans le passé peut ne pas l'être à l'avenir. Il explique que la plupart des méthodes utilisent des rendements ou des informations historiques passés comme données d'entrée et ne tiennent pas compte des changements de régime. Il suggère que l'apprentissage automatique peut aider à résoudre ce problème en utilisant les mégadonnées et toutes les variables observées sur différents marchés. L'apprentissage automatique peut générer des rendements attendus qui ne sont pas uniquement basés sur les rendements historiques et peut donc être mieux adapté pour faire face aux changements de régime.

  • 00:05:00 Dans cette section, Ernest Chan discute du concept de régime en finance et de son impact sur l'optimisation. Il explique que s'il existe des régimes réalisables comme les marchés baissiers ou haussiers, il existe également des régimes cachés qui ne peuvent pas être définis explicitement et qui changent constamment. Ces régimes sont difficiles à prédire et ruinent les méthodes classiques d'optimisation. Cette compréhension a conduit le Dr Chan à développer la technique d'optimisation de portefeuille conditionnelle, qui peut mesurer et s'adapter au régime actuel en utilisant un grand nombre de variables. Cette technique peut améliorer les performances de la stratégie de trading dans des conditions de marché variables.

  • 00: 10: 00 Dans cette section, Ernest Chan discute de l'utilisation de l'apprentissage automatique pour l'optimisation et de la manière d'adapter les paramètres à l'aide de l'apprentissage supervisé. Il explique qu'en apprentissage supervisé, il existe une variable cible étiquetée, comme le paramètre à optimiser, qui est le ratio pointu ou le rendement futur sur un mois d'une stratégie de trading. L'entrée est une combinaison de variables de marché et macroéconomiques qui mesurent le régime actuel et les variables de contrôle que le commerçant peut ajuster, formant un grand ensemble de données. Pour optimiser, une recherche exhaustive de diverses combinaisons des paramètres est menée pour trouver le rapport net maximum, qui est l'optimisation conditionnelle des paramètres. Ernest Chan conclut avec un exemple simple utilisant une stratégie de jouet qui illustre la combinaison des caractéristiques du marché et des caractéristiques de contrôle pour former une ligne pour l'entrée.

  • 00:15:00 Dans cette section, Ernest Chan explique comment son équipe applique l'apprentissage automatique à l'optimisation du portefeuille. L'équipe utilise la même approche d'apprentissage automatique qu'elle a appliquée à l'optimisation des paramètres pour résoudre ce problème plus étendu. Ils utilisent les mégadonnées comme caractéristiques d'entrée et la prédiction implicite des régimes cachés. Contrairement aux méthodes d'optimisation de portefeuille classiques qui reposent uniquement sur les rendements passés et la covariance des rendements comme données d'entrée, leur méthode prend en compte l'état actuel du marché, les indicateurs techniques et fondamentaux et les indicateurs macroéconomiques pour s'adapter au régime et trouver le portefeuille optimal dans le cadre de l'actuel. état du marché. L'équipe répond aux questions des questions-réponses, expliquant qu'elle n'utilise pas de simulation mais des données de marché réelles pour calculer les rendements compte tenu d'une allocation de capital hypothétique particulière.

  • 00:20:00 Dans cette section, Ernest Chan explique le type de fonctionnalités utilisées dans l'optimisation de portefeuille via l'apprentissage automatique. Il souligne que seules les caractéristiques des séries chronologiques sont utilisées et qu'aucune caractéristique transversale n'est impliquée. Cette méthode se concentre sur les caractéristiques du portefeuille ou du régime de marché dans son ensemble, telles que les facteurs mesurant la finance, la volatilité, les prix et les taux d'intérêt. Bien que cela puisse sembler étrange, Chan le relie à la qualité explicative du modèle à trois facteurs Farmer-French. À l'aide de modèles d'apprentissage automatique, l'objectif n'est pas de prédire les rendements mais de les classer avec précision pour obtenir une optimisation optimale du portefeuille.

  • 00:25:00 Dans cette section, Ernest Chan discute de l'importance du classement dans les applications financières et comment il peut être appliqué à l'optimisation de portefeuille. Il explique que les méthodes traditionnelles d'utilisation de modèles d'apprentissage automatique pour prédire les retours transversaux peuvent entraîner une situation d'entrée et de sortie d'ordures si les prédictions de retour ne sont pas précises en termes de magnitude et de signe. Cependant, avec la méthode CPO, qui combine le modèle Fama-French Factor et la notion selon laquelle le classement est plus important que la prédiction, la solution optimale est beaucoup plus stable contre les erreurs à n'importe quelle étape du programme. Il note également que cette méthode peut tolérer d'énormes erreurs dans la prédiction de l'apprentissage automatique en raison du classement.

  • 00:30:00 Dans cette section, Ernest Chan explique comment l'effet de la finance comportementale peut être mesuré à l'aide de mesures de marché familières telles que le delta net des activités d'achat d'options. Il explique que son entreprise utilise cette métrique comme l'une des caractéristiques de son modèle CBO, qui prend en compte l'effet du phénomène, plutôt que la cause principale du phénomène. Chan partage ensuite les résultats concrets de la performance du modèle CBO, notamment en battant la méthode moyenne-variance et en surperformant les actifs traditionnels. De plus, il donne un exemple de la façon dont la méthode CBO a mieux réussi à allouer des pondérations aux actions de croissance et aux actions à grande capitalisation pendant certaines périodes par rapport à d'autres méthodes.

  • 00:35:00 Dans cette section, l'orateur explique comment les méthodes classiques d'investissement et de trading sont fixes et non adaptatives, contrairement à la méthode CBO (Combinatorial Bayesian Optimization) qui surpasse les méthodes classiques car elle peut s'adapter au régime du marché, ce qui se traduit par meilleure performance. Le CBO est conçu pour optimiser et recommander des transactions, même si le portefeuille existant a déjà des coûts de transaction qui lui sont associés. Le CBO n'encourt pas de frais de transaction supplémentaires et recommande uniquement d'acheter plus ou moins d'actions particulières. L'intervenant cite ensuite des exemples de clients qui ont adopté la méthode CBO et qui ont constaté une amélioration de la performance de leur portefeuille.

  • 00:40:00 Dans cette section, Ernest parle d'une étude de cas où ils ont pu obtenir des rendements positifs dans un portefeuille d'actions malgré des contraintes de zéro à 25 % sur chaque action. Le portefeuille était composé d'actions technologiques et devait s'effondrer gravement en 2022, mais leur méthode d'allocation de 50 % aux liquidités pendant cette période a contribué à générer des rendements. Interrogé sur la reproductibilité de leurs méthodes, Ernest explique que si certaines fonctionnalités telles que le delta net des options sont des fonctionnalités d'entrée importantes, ils en ont divulgué une description de haut niveau sur leur site Web. Il mentionne également l'utilisation d'arbres de décision de processus de gradient et d'autres algorithmes pour l'apprentissage automatique, et leur approche pour définir le régime du marché passe par la représentation à l'aide de centaines de fonctionnalités.

  • 00:45:00 Dans cette section, Chan explique comment l'apprentissage automatique peut être utilisé pour l'optimisation en construisant une variable de réponse, telle qu'un ratio de Sharpe, et en ajustant une fonction F pour différents scénarios de la variable de contrôle pour chaque état du marché. L'étiquette de l'algorithme d'apprentissage supervisé est la variable à maximiser, comme le ratio de Sharpe, et chaque proposition de portefeuille est introduite dans la formule prédictive jusqu'à ce que le portefeuille le plus performant soit trouvé. Chan note que la complexité du problème n'évolue pas de manière linéaire avec le nombre d'actifs dans le portefeuille, mais son équipe a développé un algorithme pour gérer le problème. Le plus grand univers de portefeuille qu'ils ont utilisé est le S&P 500.

  • 00:50:00 Dans cette section, Ernest Chan fournit un exemple de la façon dont le modèle d'apprentissage automatique réagit aux changements de régime en utilisant l'allocation de trésorerie comme indicateur. Lorsque le marché baissier a commencé en 2022, le modèle est resté en liquidités la plupart du temps, épargnant au portefeuille des rendements négatifs. Il mentionne également que la fonction objectif peut être définie sur n'importe quoi, pas seulement sur le rapport ou le rendement net maximal traditionnel, en raison de la nature non linéaire de l'algorithme d'apprentissage et de l'algorithme d'optimisation, et que des contraintes telles que les poids, l'ESG et le chiffre d'affaires peuvent sois appliqué. Le logiciel est flexible et peut s'adapter à toutes les fonctionnalités du marché fournies par le client. De plus, Chan mentionne que le modèle peut traiter des actions avec des historiques courts, car il permet l'ajout et la suppression de composants dans le portefeuille, et le modèle peut être recyclé à chaque rééquilibrage.

  • 00:55:00 Dans cette section, Chan discute du calcul des rendements de l'indice S&P 500 et de ses composants. Il explique que l'utilisation d'un algorithme d'apprentissage automatique pour calculer les rendements du portefeuille est différente de l'utilisation de la technique de Markowitz, car l'algorithme d'apprentissage automatique utilise des caractéristiques de séries chronologiques plutôt que des rendements boursiers comme entrée. Chan note également que le changement de régime est défini par 180 variables et que des mesures quotidiennes, mensuelles et trimestrielles sont utilisées comme caractéristiques qui sont introduites dans un algorithme d'apprentissage automatique, qui sélectionne les caractéristiques les mieux classées utiles pour prédire l'avenir du portefeuille. Enfin, Chan recadre le problème comme un problème de classement plutôt que comme un problème de régression, et il peut également être recadré comme un problème de classification.

  • 01:00:00 Dans cette section, l'orateur discute de la possibilité d'utiliser un ensemble de portefeuilles au lieu d'un seul portefeuille optimal, mais l'équipe de recherche doit approfondir la question. Ils confirment également que s'il existe un million de combinaisons de portefeuilles, le modèle devrait être formé sur un million de combinaisons chaque jour de données historiques. Cependant, ils mentionnent leur "sauce secrète" qui élimine le besoin d'une telle puissance de calcul. L'orateur explique également qu'ils n'utilisent pas un processus en deux étapes consistant à prédire les régimes puis à conditionner la distribution des rendements de ce régime, mais utilisent plutôt le facteur visuel pour prédire directement la performance d'un portefeuille. Ils terminent la discussion en disant que le rendement attendu serait similaire à ce qui s'est passé dans le passé s'ils incluaient une grande partie de cet échantillon d'apprentissage dans leur modèle.
Ernest Chan (Predictnow.ai) - "How to Use Machine Learning for Optimization"
Ernest Chan (Predictnow.ai) - "How to Use Machine Learning for Optimization"
  • 2023.03.01
  • www.youtube.com
Abstract: Conditional Portfolio Optimization is a portfolio optimization technique that adapts to market regimes via machine learning. Traditional portfolio...
 

Apprentissage automatique financier - Le point de vue d'un praticien par le Dr Ernest Chan



Apprentissage automatique financier - Le point de vue d'un praticien par le Dr Ernest Chan

Dans cette vidéo informative, le Dr Ernest Chan plonge dans le domaine de l'apprentissage automatique financier, en explorant plusieurs aspects clés et en mettant en lumière des considérations importantes. Il souligne l'importance d'éviter le surajustement et plaide pour la transparence des modèles. En outre, le Dr Chan souligne les avantages de l'utilisation de modèles non linéaires pour prédire le comportement du marché. Cependant, il discute également des limites de l'apprentissage automatique sur le marché financier, telles que la réflexivité et la dynamique en constante évolution du marché.

Un point crucial sur lequel insiste le Dr Chan est l'importance de l'expertise dans le domaine de la science des données financières. Il souligne la nécessité de sélectionner des caractéristiques pour mieux comprendre les variables essentielles qui influencent les conclusions d'un modèle. En identifiant ces intrants importants, les investisseurs et les commerçants peuvent avoir un aperçu de leurs pertes et comprendre pourquoi certaines décisions ont été prises.

Le Dr Chan aborde également l'application de l'apprentissage automatique dans la gestion des risques et l'allocation du capital. Il suggère de trouver un marché de niche et d'éviter la concurrence directe avec des organisations bien financées. Ce faisant, les praticiens peuvent augmenter leurs chances de succès dans ces domaines.

Tout au long de la vidéo, le Dr Chan met en évidence les avantages et les défis associés aux différents modèles et stratégies. Il note que si les stratégies quantitatives traditionnelles, telles que les modèles linéaires, sont faciles à comprendre et moins sujettes au surajustement, elles luttent contre la dépendance non linéaire entre les prédicteurs. En revanche, les modèles d'apprentissage automatique excellent dans la gestion des relations non linéaires, mais leur complexité et leur opacité peuvent poser des problèmes d'interprétation de leurs résultats et d'évaluation de la signification statistique.

Le Dr Chan discute également des limites de l'utilisation de l'apprentissage automatique pour prédire le marché financier. Il souligne que le marché est en constante évolution, ce qui rend difficile toute prévision précise. Cependant, il suggère que l'apprentissage automatique peut réussir à prédire des informations privées, telles que des stratégies de trading, où la concurrence avec des paramètres identiques est moins probable.

De plus, le Dr Chan aborde l'incorporation de données fondamentales, y compris des données catégorielles, dans des modèles d'apprentissage automatique. Il souligne que les modèles d'apprentissage automatique ont un avantage sur les modèles de régression linéaire dans la gestion des données à valeur réelle et catégorielles. Cependant, il met en garde contre le fait de s'appuyer uniquement sur l'apprentissage automatique, soulignant qu'une expertise approfondie du domaine est toujours cruciale pour créer des fonctionnalités efficaces et interpréter les données avec précision.

Dans le domaine de l'allocation du capital, le Dr Chan souligne comment l'apprentissage automatique peut fournir des rendements attendus plus sophistiqués, remettant en question l'utilisation des performances passées comme seul indicateur du succès futur. Il aborde également les nuances de la compréhension du marché que l'apprentissage automatique peut offrir, avec des probabilités variant quotidiennement, contrairement aux distributions de probabilité statiques des statistiques classiques.

Le Dr Chan conclut en abordant les limites de l'apprentissage en profondeur dans la création de diverses fonctionnalités transversales qui nécessitent une expertise du domaine. Il partage ses réflexions sur l'applicabilité de l'apprentissage par renforcement dans les modèles financiers, notant son efficacité potentielle à des fréquences élevées mais ses limites sur des échelles de temps plus longues.

Pour ceux qui souhaitent explorer davantage l'apprentissage automatique financier, le Dr Chan recommande sa société PredictNow.ai comme une ressource précieuse pour l'expertise en apprentissage automatique financier sans code.

  • 00:00:00 le fait qu'ils sont de plus en plus utilisés. Dans cette section de la vidéo, le Dr Ernest Chan discute de sa longue histoire dans l'apprentissage automatique et de la façon dont il a trouvé de l'intérêt à l'appliquer à la finance, ce qu'il admet avoir été difficile à faire jusqu'à récemment. Il préconise des modèles et des stratégies simples, tels que les modèles à facteur unique et linéaires, qui ont bien fonctionné pour les traders quantitatifs pendant des décennies. Avec l'essor du commerce quantitatif, ces modèles deviennent moins rentables, et Chan explique comment il a pu extraire de la valeur de l'apprentissage automatique d'une manière que la plupart des gens ne font pas.

  • 00:05:00 Dans cette section, le Dr Ernest Chan aborde le problème historique du surajustement dans l'apprentissage automatique financier ; lorsque les modèles devaient ajuster plusieurs paramètres, le risque de surajustement est très élevé, en particulier lorsque l'on travaille avec des données financières à faible fréquence comme les séries chronologiques financières quotidiennes. Cependant, au fil des années, les avancées du machine learning, notamment du deep learning, ont permis de s'affranchir du surapprentissage. Des techniques telles que la forêt aléatoire, la validation croisée, l'abandon et autres ont contribué à réduire le surajustement, et d'autres outils comme les algorithmes ont rendu l'apprentissage automatique transparent. Le problème avec le trading en boîte noire et le manque de transparence est que ne pas être en mesure d'expliquer pourquoi vous avez pris certaines transactions n'est pas acceptable, même si vous gagnez de l'argent.

  • 00: 10: 00 Dans cette section, le Dr Ernest Chan discute du concept de sélection de fonctionnalités dans l'apprentissage automatique, qui peut aider les commerçants et les investisseurs à mieux comprendre les variables importantes qui conduisent à la conclusion d'un modèle d'apprentissage automatique particulier. La sélection des fonctionnalités peut aider les investisseurs à mieux comprendre pourquoi ils ont perdu de l'argent ou pourquoi un modèle a pris une mauvaise décision en identifiant les intrants importants qui ont conduit à ce résultat. Le Dr Chan souligne également que l'apprentissage automatique peut être utilisé plus efficacement pour la gestion des risques et l'allocation du capital que comme générateur de signal principal, car les prévisions de marché sont sujettes à la réflexivité, ce qui crée des difficultés pour détecter les modèles dans le passé.

  • 00: 15: 00 Dans cette section, le Dr Ernest Chan discute des limites de l'utilisation de l'apprentissage automatique pour prédire le marché financier, qui évolue constamment et ne peut être comparé à la prédiction de maladies comme le cancer. Cependant, il explique que l'utilisation de l'apprentissage automatique pour prédire des informations privées, telles que des stratégies de trading, peut être une approche réussie car d'autres fonds spéculatifs ne sont pas en concurrence avec les mêmes paramètres exacts. Il compare également les stratégies quantitatives traditionnelles aux stratégies basées sur l'apprentissage automatique, notant que l'apprentissage automatique peut aider à modéliser des ensembles de données alternatifs et volumineux grâce à des modèles non linéaires.

  • 00:20:00 Dans cette section, le Dr Ernest Chan discute des avantages de l'utilisation de modèles non linéaires pour prédire le comportement du marché. Les modèles quantitatifs traditionnels sont faciles à comprendre et sont linéaires, ce qui rend difficile le surajustement, mais ils ne peuvent pas gérer la dépendance non linéaire entre les prédicteurs. Les modèles d'apprentissage automatique, en revanche, peuvent gérer facilement la dépendance non linéaire, et leur complexité et leur opacité les rendent difficiles à reproduire. De plus, les modèles d'apprentissage automatique offrent une probabilité de succès, permettant une allocation de capital plus éclairée. Cependant, le surajustement est un problème avec les modèles d'apprentissage automatique, et l'évaluation de la signification statistique peut être difficile. La simulation de backtests est une solution imparfaite et les nuances du marché ne peuvent pas être entièrement capturées dans une simulation.

  • 00:25:00 Dans cette section, le Dr Ernest Chan discute de la différence entre les stratégies quantitatives traditionnelles et les stratégies basées sur l'apprentissage automatique. Il explique qu'il est beaucoup plus difficile de simuler le marché et de créer des barres d'erreur précises pour les stratégies traditionnelles, ce qui rend difficile l'évaluation de leur efficacité. D'autre part, les modèles d'apprentissage automatique sont faciles à générer plusieurs back tests, simplement en changeant la graine aléatoire, et chaque back test donne potentiellement des résultats différents. Ce caractère aléatoire permet une évaluation plus facile de la signification statistique des back tests, ce qui en fait un avantage majeur de l'utilisation de l'apprentissage automatique dans le trading. Cependant, la science des données financières est l'étape la plus difficile et la plus longue de l'élaboration d'une stratégie, car il existe généralement de nombreux problèmes avec les données financières, même celles de fournisseurs réputés.

  • 00:30:00 Dans cette section, le Dr Ernest Chan décrit certains des problèmes associés à l'utilisation des données sur les sentiments. Il note que les données de sentiment ne sont pas toujours fiables, car les entreprises qui traitent les informations peuvent revenir en arrière et modifier les paramètres pour bien paraître. En raison de l'incapacité de savoir si les données ont été examinées avec biais, il est nécessaire de transformer les newsletters brutes en un nouveau sentiment, introduisant un risque. De plus, les données présentent un défi important dans l'automatisation des réponses. L'étape de la science des données financières est difficile car elle nécessite une intelligence humaine grâce à l'expertise du domaine, une question paradoxale dans les problèmes d'apprentissage automatique financier. La deuxième étape est l'apprentissage automatique, que l'industrie technologique a déjà résolu. La dernière étape consiste à construire et à tester des stratégies de trading, ce qui nécessite de rassembler la prédiction dans une stratégie cohérente et d'évaluer la signification statistique.

  • 00:35:00 Dans cette section, le Dr Ernest Chan explique comment convertir les prévisions en portefeuille en suivant une routine standard, que l'on peut trouver dans les manuels de finance. Cependant, cela nécessite une certaine expertise du domaine et n'est pas complètement automatique. Il souligne également les difficultés de la science des données financières, telles que rendre les fonctionnalités stationnaires et l'importance d'utiliser le méta-étiquetage pour prédire si une stratégie sera rentable au lieu de prédire le marché. Le Dr Chan recommande de lire son article de blog sur le méta-étiquetage appliqué à la finance pour plus d'informations. Il mentionne également que Random Forest est le choix de modèle le plus populaire pour l'apprentissage automatique financier, car il capture bien la non-linéarité et a juste la bonne complexité.

  • 00:40:00 Dans cette section, le Dr Ernest Chan parle de l'importance de l'apprentissage automatique pour prédire les tendances du marché et éviter les pertes. Il partage son expérience personnelle d'utilisation d'un modèle d'apprentissage automatique pour détecter la présence d'activités terroristes dans l'économie mondiale et met en garde contre les risques de ne pas suivre ses conseils, comme ce fut le cas avec l'annonce du vaccin Pfizer. Il souligne également l'importance de la sélection des fonctionnalités pour expliquer les pertes aux investisseurs et recommande son propre livre sur l'apprentissage automatique pour les débutants. De plus, le Dr Chan souligne l'importance de la propreté et de la stationnarité des données pour faire des prédictions correctes, pour lesquelles il partage un exemple de la façon dont une série chronologique non stationnaire peut avoir un impact négatif sur la capacité du modèle à prédire avec précision.

  • 00:45:00 Dans cette section, le Dr Ernest Chan discute de l'intégration de données fondamentales, en particulier de données catégorielles, dans des modèles d'apprentissage automatique. Alors que les modèles de régression linéaire ne peuvent pas gérer les données catégorielles, les modèles d'apprentissage automatique peuvent gérer à la fois les valeurs réelles et les données catégorielles. Cependant, le Dr Chan souligne que l'apprentissage automatique ne peut pas remplacer entièrement les commerçants humains, car l'apprentissage automatique financier nécessite une expertise approfondie du domaine pour créer des fonctionnalités et interpréter correctement les données. De plus, il met en garde contre le culte aveugle de l'apprentissage en profondeur et souligne qu'il ne s'agit pas d'une solution unique sans données pertinentes suffisantes. Enfin, il conseille aux jeunes praticiens de trouver un marché de niche et d'éviter de concurrencer directement les organisations bien financées.

  • 00: 50: 00 Dans cette section, le Dr Ernest Chan discute de l'allocation du capital et de la manière dont l'apprentissage automatique peut fournir un rendement attendu plus sophistiqué en tant qu'intrant du modèle d'allocation des immobilisations. Il remet en question la contradiction d'utiliser les performances passées comme rendement attendu, ce qui ne garantit pas le succès futur. L'apprentissage automatique peut également fournir une compréhension nuancée du marché avec des probabilités variables chaque jour, contrairement aux statistiques classiques qui ne fournissent qu'une probabilité statique de distribution. En ce qui concerne les méthodes d'apprentissage en profondeur telles que les réseaux de neurones convolutionnels récurrents, le Dr Chan pense qu'elles peuvent ne pas être utiles pour les entrées de séries non temporelles et la sélection de fonctionnalités.

  • 00: 55: 00 Dans cette section, le Dr Ernest Chan discute des limites de l'apprentissage en profondeur dans la création de diverses caractéristiques transversales nécessaires pour faire des prédictions réussies nécessitant une expertise du domaine. Il donne également son avis sur la place de l'apprentissage par renforcement dans les modèles financiers à différentes échelles de temps. Il pense que l'apprentissage par renforcement pourrait fonctionner à une fréquence très élevée pour le trading à haute fréquence car il peut réagir aux personnes qui passent des commandes sur le carnet de commandes, mais il échoue sur des échelles de temps plus longues. Enfin, il recommande sa société PredictNow.ai comme une excellente ressource pour l'apprentissage automatique financier sans code pour ceux qui s'intéressent à l'expertise de quelqu'un comme lui.
Financial Machine Learning - A Practitioner’s Perspective by Dr. Ernest Chan
Financial Machine Learning - A Practitioner’s Perspective by Dr. Ernest Chan
  • 2020.11.12
  • www.youtube.com
QUANTT and QMIND came together to offer a unique experience for those interested in Financial Machine Learning (ML). Unifying these two clubs is Dr. Ernest C...
 

Trading avec Deep Reinforcement Learning | Docteur Thomas Stark


Trading avec Deep Reinforcement Learning | Docteur Thomas Stark

Le Dr Thomas Starke, un expert dans le domaine de l'apprentissage par renforcement profond pour le trading, a fait une présentation perspicace et s'est engagé dans une session de questions-réponses avec le public. Ce qui suit est un résumé détaillé de son discours :

Le Dr Starke a commencé par introduire l'apprentissage par renforcement profond pour le trading, soulignant sa capacité à permettre aux machines de résoudre des tâches sans supervision directe. Il a utilisé l'analogie d'un apprentissage automatique pour jouer à un jeu informatique, où il apprend à prendre des décisions en fonction de ce qu'il voit à l'écran et réussit ou échoue en fonction de sa chaîne de décisions.

Il a ensuite discuté du concept d'un processus de décision de Markov dans le commerce, où les états sont associés aux paramètres du marché, et les actions font passer le processus d'un état à un autre. L'objectif est de maximiser la récompense attendue compte tenu d'une politique et d'un état spécifiques. Les paramètres du marché sont cruciaux pour aider la machine à prendre des décisions éclairées sur les actions à entreprendre.

Le processus de prise de décision dans le trading consiste à déterminer s'il faut acheter, vendre ou conserver en fonction de divers indicateurs qui informent l'état du système. Le Dr Starke a souligné l'importance de ne pas se fier uniquement aux étiquettes de profit ou de perte immédiates pour chaque état, car cela peut conduire à des prédictions incorrectes. Au lieu de cela, la machine doit comprendre quand rester dans une transaction même si elle va initialement à l'encontre de celle-ci, en attendant que la transaction revienne à la ligne moyenne avant de sortir.

Pour résoudre la difficulté d'étiqueter chaque étape du profit et de la perte d'un commerce, le Dr Starke a introduit l'étiquetage rétroactif. Cette approche utilise l'équation de Bellman pour attribuer une valeur non nulle à chaque action et état, même s'il n'en résulte pas de profit immédiat. Cela permet la possibilité d'un retour à la moyenne et d'un profit éventuel.

L'apprentissage par renforcement profond peut aider à prendre des décisions commerciales en fonction des résultats futurs. Les méthodes traditionnelles d'apprentissage par renforcement construisent des tableaux basés sur des expériences passées, mais dans le commerce, le nombre d'états et d'influences est vaste. Pour gérer cette complexité, l'apprentissage par renforcement profond utilise des réseaux de neurones pour approximer ces tableaux, ce qui le rend possible sans créer un énorme tableau. Le Dr Starke a discuté de l'importance de trouver la bonne fonction de récompense et les bonnes entrées pour définir l'état, permettant finalement une meilleure prise de décision pour le trading.

L'importance des intrants dans le commerce a été soulignée, soulignant leur nécessité d'avoir une valeur prédictive. Le Dr Starke a souligné l'importance de tester le système pour un comportement connu et de sélectionner le type, la taille et la fonction de coût appropriés du réseau neuronal en fonction de la fonction de récompense choisie. Il a expliqué comment la gamification est utilisée dans le commerce, où les prix historiques et actuels, les données techniques de garde et les sources de données alternatives constituent l'état, et la récompense est le profit et la perte (P&L) du commerce. La machine étiquette rétroactivement les observations à l'aide de l'équation de Bellman et met continuellement à jour les tableaux approximés par les réseaux de neurones pour améliorer la prise de décision.

En ce qui concerne la formation avec apprentissage par renforcement, le Dr Starke a discuté de différentes façons de structurer la série de prix, y compris l'entrée et la sortie aléatoires à divers points. Il a également abordé le défi de concevoir une fonction de récompense et a fourni des exemples tels que le pourcentage pur de P&L, le bénéfice par tick et le ratio de Sharpe, ainsi que des méthodes pour éviter les longs délais de transport ou les prélèvements.

En termes d'entrées pour le trading, le Dr Starke a mentionné de nombreuses options, y compris les valeurs d'ouverture-haut-bas-clôture et de volume, les modèles de chandeliers, les indicateurs techniques comme l'indice de force relative, l'heure de la journée/semaine/année, et la saisie des prix et des données techniques. indicateurs pour d'autres instruments. Des sources de données alternatives telles que le sentiment ou les images satellites peuvent également être envisagées. La clé est de construire ces entrées dans un état complexe, similaire à la façon dont les fonctionnalités d'entrée sont utilisées dans les jeux informatiques pour prendre des décisions.

Le Dr Starke a expliqué la phase de test que l'apprenant par renforcement doit subir avant d'être utilisé pour le trading. Il a décrit divers tests, y compris des ondes sinusoïdales propres, des courbes de tendance, des séries aléatoires sans structure, différents types de corrélations d'ordre, du bruit dans des courbes de test propres et des modèles récurrents. Ces tests aident à déterminer si la machine génère constamment des bénéfices et à identifier les défauts du codage. Le Dr Starke a également discuté des différents types de réseaux de neurones utilisés, tels que la mémoire standard, convolutive et longue à court terme (LSTM). Il a exprimé une préférence pour les réseaux de neurones plus simples qui répondent à ses besoins sans nécessiter d'effort de calcul excessif.

Le Dr Starke s'est ensuite penché sur les défis liés à l'utilisation de l'apprentissage par renforcement pour le trading. Il a reconnu la difficulté de faire la distinction entre le signal et le bruit, en particulier dans les séries chronologiques financières bruyantes. Il a également souligné la difficulté de l'apprentissage par renforcement à s'adapter aux changements de comportement du marché, ce qui rend difficile l'apprentissage de nouveaux comportements. De plus, il a mentionné que si l'apprentissage par renforcement nécessite une quantité importante de données de formation, les données du marché sont souvent rares. Le surajustement est une autre préoccupation, car l'apprentissage par renforcement a tendance à agir sur les modèles de base du marché et peut facilement sur-adapter. La construction de réseaux de neurones plus complexes peut atténuer ce problème, mais c'est une tâche qui prend du temps. Dans l'ensemble, le Dr Starke a souligné que l'apprentissage par renforcement n'est pas une solution garantie pour des résultats rentables, et qu'il est crucial d'avoir une expérience du marché et des connaissances spécifiques à un domaine pour réussir dans le trading.

Au cours de la session de questions-réponses, le Dr Starke a abordé diverses questions liées au trading avec l'apprentissage par renforcement en profondeur. Il a précisé que l'équation de Bellman n'introduit pas de biais d'anticipation et a discuté de l'utilisation potentielle d'indicateurs techniques comme données d'entrée après une analyse minutieuse. Il a également exploré la possibilité d'utiliser des images satellites pour prédire les cours des actions et a expliqué que le trading de renforcement peut être effectué sur de courtes périodes en fonction du temps de calcul du réseau neuronal. Il a averti que les algorithmes de négociation par renforcement sont sensibles aux anomalies du marché et a expliqué pourquoi la formation d'arbres de décision aléatoires à l'aide de l'apprentissage par renforcement ne donne pas de résultats significatifs.

Le Dr Starke a recommandé d'utiliser des réseaux de neurones pour le commerce au lieu d'arbres de décision ou de machines à vecteurs de support en raison de leur adéquation au problème. Il a souligné l'importance d'ajuster la fonction de perte en fonction de la fonction de récompense utilisée. Alors que certaines tentatives ont été faites pour appliquer l'apprentissage par renforcement au trading à haute fréquence, le Dr Starke a souligné le défi des réseaux de neurones lents qui manquent de réactivité sur les marchés en temps réel. Il a conseillé aux personnes intéressées à poursuivre une carrière commerciale dans le secteur financier d'acquérir des connaissances sur le marché, de s'engager dans des transactions réelles et d'apprendre de l'expérience. Enfin, il a évoqué les défis de combiner les réseaux de neurones et le trading d'options, reconnaissant la complexité de la tâche.

En conclusion, le Dr Thomas Starke a fourni des informations précieuses sur le trading avec l'apprentissage par renforcement en profondeur. Il a couvert des sujets tels que le processus de prise de décision dans le commerce, l'étiquetage rétroactif, l'équation de Bellman, l'importance des intrants, les phases de test et les défis associés à l'apprentissage par renforcement pour le commerce. Au cours de sa conférence et de sa session de questions-réponses, le Dr Starke a offert des conseils et des considérations pratiques pour tirer parti de l'apprentissage par renforcement en profondeur sur les marchés financiers.

  • 00:00:00 Le Dr Thomas Stark présente l'apprentissage par renforcement profond pour le trading, un sujet qui l'intéresse depuis plusieurs années. L'apprentissage par renforcement (RL) est une technique qui permet à une machine de résoudre une tâche sans supervision, et elle apprend par elle-même ce qu'il faut faire pour produire des résultats favorables. Il explique comment une machine qui veut apprendre à jouer à un jeu informatique démarrerait dans un scénario de jeu et passerait d'une étape à l'autre tout en répondant à ce qu'elle voit à l'écran. Enfin, le jeu se termine et la machine réussit ou échoue en fonction de la chaîne de décisions qu'elle a prises.

  • 00:05:00 Le Dr Thomas Starke discute du trading avec l'apprentissage par renforcement profond et explique le concept d'un processus de décision de Markov. Dans ce processus, un état est associé à un paramètre de marché particulier et une action fait passer le processus d'un état à l'autre. Selon la transition, l'agent reçoit une récompense positive ou négative. L'objectif est de maximiser la récompense attendue compte tenu d'une certaine politique et d'un certain état. Dans le trading, les paramètres de marché sont utilisés pour identifier dans quel état se trouve l'agent et l'aider à prendre des décisions sur les mesures à prendre.

  • 00: 10: 00 Le Dr Thomas Starke discute du processus de prise de décision impliqué dans le trading, qui consiste à décider d'acheter, de vendre ou de conserver en fonction de divers indicateurs qui informent sur l'état du système. L'objectif est de recevoir la meilleure récompense possible, qui est le profit ou la perte du commerce. Cependant, l'approche traditionnelle d'apprentissage automatique consistant à donner à un État une étiquette particulière, telle que profit ou perte immédiats, peut conduire à des étiquettes incorrectes si le commerce va contre nous dans un avenir immédiat. Par conséquent, la machine doit comprendre quand rester dans le commerce même si cela va initialement contre nous et avoir la conviction d'attendre que le commerce revienne à la ligne moyenne pour sortir du commerce.

  • 00: 15: 00 Le Dr Thomas Starke discute de l'étiquetage rétroactif et de la manière dont il est utilisé dans l'apprentissage par renforcement pour résoudre la difficulté d'étiqueter chaque étape des profits et pertes d'un métier. Il explique que l'apprentissage automatique traditionnel étiquette chaque étape du commerce, ce qui rend difficile de prédire si le commerce peut devenir rentable à l'avenir s'il subit une perte. L'étiquetage rétroactif utilise l'équation de Bellman pour attribuer une valeur non nulle à chaque action et état, même s'il ne produit pas de profit immédiat, permettant un retour à la moyenne et un profit éventuel.

  • 00:20:00 Le Dr Thomas Starke explique comment utiliser l'apprentissage par renforcement pour résoudre le problème de la gratification différée dans le trading. L'équation de Bellman est utilisée pour calculer la récompense d'une action, "r" représentant la récompense immédiate et "q" représentant la récompense cumulative. Gamma est un facteur d'actualisation qui attribue un poids aux résultats futurs par rapport aux résultats précédents. En utilisant l'apprentissage par renforcement, les décisions de trading ne sont pas uniquement basées sur des récompenses immédiates, mais également sur la détention de positions pour des récompenses futures plus élevées. Cela permet une prise de décision plus éclairée par rapport à la prise de décision gourmande.

  • 00: 25: 00 Le Dr Thomas Starke explique comment l'apprentissage par renforcement en profondeur peut aider à prendre des décisions pour le trading en fonction des résultats futurs. L'apprentissage par renforcement traditionnel consiste à construire des tableaux basés sur des expériences passées, mais dans le commerce, cela devient complexe en raison de la grande quantité d'états et d'influences. Par conséquent, la solution consiste à utiliser l'apprentissage par renforcement profond et les réseaux de neurones pour approximer ces tables sans créer une table énorme. Il explique la mise en œuvre de l'utilisation de la gamification du trading et la recherche de la bonne fonction de récompense et des entrées pour définir l'état. Dans l'ensemble, l'utilisation de l'apprentissage par renforcement profond peut aider à la prise de décision pour le trading.

  • 00: 30: 00 Dans cette section, le Dr Starke discute de l'importance des intrants dans le trading et de la façon dont ils doivent avoir une sorte de valeur prédictive, sinon le système ne pourra pas prendre de bonnes décisions de trading. Il souligne la nécessité de tester le système pour un comportement connu et de choisir le type, la taille et la fonction de coût appropriés du réseau neuronal, en fonction de la fonction de récompense choisie. Il explique ensuite comment la gamification fonctionne dans le commerce, où l'état est les prix historiques et actuels, les données techniques de garde et les sources de données alternatives, et la récompense est le P&L du commerce. L'apprenant par renforcement utilisera l'équation de Bellman pour étiqueter les observations rétroactivement, et grâce à la mise à jour constante des tableaux approximés par les réseaux de neurones, la machine apprendra à prendre de meilleures décisions commerciales.

  • 00: 35: 00 Dans cette section, le Dr Thomas Starke explique comment structurer les séries de prix pour la formation à l'aide de l'apprentissage par renforcement. Il explique qu'au lieu de parcourir les séries de prix de manière séquentielle, vous pouvez entrer et sortir au hasard à différents points, et c'est à l'utilisateur de décider quelle méthode choisir. Il discute également de la difficulté de concevoir une fonction de récompense et fournit divers exemples et méthodes pour structurer une fonction de récompense qui peut être utilisée pour la formation, comme l'utilisation du pourcentage pur de P&L, du profit par tick, du ratio de Sharpe et de différents types de punitions pour éviter les longs trajets ou les rabattements.

  • 00: 40: 00 Selon le Dr Thomas Starke, nous avons de nombreuses options, y compris les valeurs d'ouverture, de clôture et de volume, les modèles de chandeliers, les indicateurs techniques tels que l'indice de force relative, l'heure du jour / de la semaine / de l'année, différentes granularités temporelles, la saisie les prix et les indicateurs techniques pour d'autres instruments, et des données alternatives comme le sentiment ou les images satellites. Ces entrées sont ensuite construites dans un état complexe, similaire à la façon dont un jeu informatique utilise des fonctionnalités d'entrée pour prendre des décisions. En fin de compte, la clé est de trouver la bonne fonction de récompense qui convient à votre style de trading et d'optimiser votre système en conséquence.

  • 00: 45: 00 Le Dr Thomas Starke explique la phase de test que son apprenant renforcé doit subir avant d'être utilisé pour négocier sur les marchés financiers. Il applique une série de tests comprenant des ondes sinusoïdales propres, des courbes de tendance, des séries aléatoires sans structure, différents types de corrélations d'ordre, du bruit dans des courbes de test propres et des modèles récurrents pour déterminer si la machine réalise des bénéfices constants et pour trouver des défauts dans le codage . Il discute également des différents types de réseaux de neurones qu'il utilise, y compris la mémoire standard, convolutive et à long court terme (LSTM), et sa préférence pour les réseaux de neurones simples, car ils sont suffisants pour ses besoins et ne nécessitent pas d'effort de calcul excessif.

  • 00: 50: 00 Dans cette section, le Dr Thomas Starke discute des défis du trading avec l'apprentissage par renforcement, y compris les difficultés de faire la distinction entre le signal et le bruit et le problème des minima locaux. Il montre que l'apprentissage par renforcement se débat avec des séries chronologiques financières bruyantes et des systèmes financiers dynamiques avec des règles et des régimes de marché changeants. Cependant, il montre également que le lissage de la courbe de prix avec une simple moyenne mobile peut améliorer considérablement les performances de la machine d'apprentissage par renforcement, en donnant un aperçu de la façon de construire un système d'apprentissage automatique performant qui peut prendre des décisions commerciales rentables.

  • 00: 55: 00 Dans cette section, le Dr Thomas Starke discute des défis liés à l'utilisation de l'apprentissage par renforcement pour le trading. Premièrement, l'apprentissage par renforcement a du mal à s'adapter aux changements de comportement du marché, ce qui rend difficile l'apprentissage de nouveaux comportements. De plus, de nombreuses données de formation sont nécessaires, mais les données de marché sont souvent rares. Bien que l'apprentissage par renforcement soit efficace, il peut facilement sur-adapter et n'agit vraiment que sur les modèles de base du marché. La construction de réseaux de neurones plus complexes peut surmonter cela, mais c'est une tâche qui prend du temps. En fin de compte, l'apprentissage par renforcement n'est pas une solution miracle pour produire des résultats rentables, et il est important d'avoir une bonne expérience du marché et des connaissances spécifiques au domaine pour obtenir des résultats commerciaux réussis. Le Dr Starke propose une conférence Quant NC et encourage toute personne intéressée par le codage de ces systèmes à le contacter sur LinkedIn avec des questions bien formulées.

  • 01:00:00 Le Dr Thomas Starke répond à diverses questions liées au trading avec l'apprentissage par renforcement en profondeur. Il explique que l'équation de Bellman n'introduit pas de biais d'anticipation et que des indicateurs techniques peuvent parfois être utilisés comme entrées après une analyse minutieuse. Les images satellites pourraient être utiles pour prédire les cours des actions, et les échanges de renforcement peuvent être effectués sur de courtes périodes en fonction du temps de calcul du réseau neuronal. Il explique également à quel point les algos de trading de renforcement sont sensibles aux anomalies du marché et explique pourquoi il n'est pas logique de former des arbres de décision aléatoires à l'aide de l'apprentissage par renforcement.

  • 01:05:00 Dans cette section, le Dr Thomas Starke recommande d'utiliser des réseaux de neurones pour le trading plutôt que des arbres de décision ou des machines à vecteurs de support en raison de leur adéquation au problème. Il explique qu'il est essentiel de régler la fonction de perte en fonction de la fonction de récompense utilisée. Il mentionne que les gens ont essayé d'utiliser l'apprentissage par renforcement pour le trading à haute fréquence, mais se sont retrouvés avec des réseaux de neurones lents qui manquaient de réactivité sur les marchés en temps réel. Il suggère que l'acquisition de connaissances sur le marché aidera considérablement à poursuivre une carrière commerciale dans le secteur financier, à effectuer des transactions réelles et à apprendre beaucoup au cours du processus. Enfin, il explique si l'on peut utiliser les réseaux de neurones pour obtenir de bons résultats avec le trading d'options et explique les défis de la combinaison des réseaux de neurones et du trading d'options.

  • 01:10:00 Dans cette section, le Dr Thomas Starke explique comment les données sur les options peuvent être utilisées comme données d'entrée pour négocier l'instrument sous-jacent, au lieu de se fier uniquement à des indicateurs techniques. Il répond également aux questions sur l'utilisation des réseaux de neurones pour décider du nombre de lots à acheter ou à vendre et sur la manière d'intégrer la propagation, la commission et le glissement dans l'algorithme en créant un modèle de glissement et en incorporant ces facteurs dans la fonction de récompense. Il recommande la prudence lors de l'utilisation de réseaux de neurones pour décider des volumes d'échanges et recommande d'utiliser des valeurs de sortie pour dimensionner les pondérations de portefeuille en conséquence. Il conclut en remerciant le public pour ses questions et pour avoir assisté à son exposé.
Machine Learning Trading | Trading with Deep Reinforcement Learning | Dr Thomas Starke
Machine Learning Trading | Trading with Deep Reinforcement Learning | Dr Thomas Starke
  • 2020.09.23
  • www.youtube.com
Dr. Thomas Starke Speaks on Machine Learning Trading with Deep Reinforcement Learning (DRL). In this captivating video, join Dr. Thomas Starke as he unravels...
 

Harrison Waldon (UT Austin): "Les équations d'apprentissage algorithmique"


Harrison Waldon (UT Austin): "Les équations d'apprentissage algorithmique"

Harrison Waldon, chercheur à l'UT Austin, a présenté ses travaux sur la collusion algorithmique sur les marchés financiers, en se concentrant sur l'interaction et la collusion potentielle des algorithmes d'apprentissage par renforcement (RL). Il a abordé les préoccupations des régulateurs concernant le trading algorithmique autonome et son potentiel de gonfler les prix par collusion sans communication explicite.

Les recherches de Waldon visaient à comprendre le comportement des algorithmes RL dans les contextes financiers et à déterminer s'ils peuvent apprendre à s'entendre. Il a utilisé des équations d'apprentissage algorithmique (ALE) pour dériver un système d'équations différentielles ordinaires (ODE) qui se rapprochent de l'évolution des algorithmes dans des conditions spécifiques. Ces ALE ont pu valider le comportement collusoire dans les algorithmes d'apprentissage Q et ont fourni une bonne approximation de l'évolution de l'algorithme, démontrant un large bassin d'attraction pour les résultats collusoires.

Cependant, le calcul de la distribution stationnaire et la distinction entre la véritable collusion et le comportement rationnel d'auto-préservation posent des problèmes. Des difficultés numériques surviennent dans la détermination de la distribution stationnaire, et il reste un défi de différencier une véritable collusion d'un comportement motivé par l'intérêt personnel.

Waldon a souligné les limites de l'équilibre statique du jeu lorsqu'il est appliqué aux interactions dynamiques, soulignant la nécessité d'une approche globale de la régulation du comportement. Les comportements collusoires facilités par des algorithmes sans communication directe entre les parties nécessitent un examen attentif. L'entretien s'est terminé avec Waldon exprimant sa gratitude aux participants, marquant la fin de la série du semestre de printemps.

  • 00:00:00 Dans cette section, Harrison Walden de UT Austin discute de ses travaux récents sur la collusion algorithmique dans le secteur financier. Il note que la majorité des transactions sur les marchés électroniques sont exécutées par des algorithmes, dont beaucoup utilisent des techniques d'apprentissage automatique telles que l'apprentissage par renforcement (RL) pour apprendre des stratégies de négociation. Alors que RL a connu un succès pratique dans la couverture en profondeur et l'exécution optimale, les régulateurs ont exprimé des inquiétudes quant aux entreprises qui s'appuient sur un trading algorithmique entièrement autonome, car cela peut conduire à une collusion de tâches et à des prix gonflés sur le marché sans communication explicite. Les travaux de Walden visent à fournir des outils pour étudier la collusion algorithmique et son impact potentiel sur l'industrie financière.

  • 00:05:00 Dans cette section, Harrison Waldon discute des limites des études existantes sur le comportement des algorithmes d'apprentissage par renforcement dans les contextes financiers. Alors que certaines preuves expérimentales montrent que certains algorithmes d'apprentissage par renforcement peuvent apprendre des stratégies collusoires complexes dans certains scénarios, de telles expériences manquent de rigueur théorique. De plus, le manque d'explicabilité des algorithmes RL est une préoccupation pour des organisations telles que l'AFM, en particulier dans des environnements multi-agents et non stationnaires tels que les marchés financiers. Les principales questions qui animent les travaux de Waldon sont les suivantes : comment pouvons-nous comprendre le comportement des algorithmes d'apprentissage par renforcement interactifs dans les contextes financiers, et ces algorithmes peuvent-ils apprendre de manière prouvée à s'entendre ?

  • 00: 10: 00 Dans cette section, Harrison Waldon explique que dans l'apprentissage par renforcement (RL), la fonction F, ou la règle d'apprentissage, prend les anciennes valeurs de paramètres, l'état actuel, l'action actuelle et éventuellement l'état suivant pour incorporer les informations dans un nouveau jeu de paramètres. Le but est de trouver un ensemble de paramètres qui se rapprochent de la politique optimale. Un algorithme populaire dans RL est l'apprentissage Q tabulaire asynchrone, qui associe une valeur de paramètre à chaque paire état-action et les met à jour de manière asynchrone. Le Q-learning fonctionne bien dans les environnements à agent unique, mais devient plus difficile dans les environnements multi-agents et non stationnaires, courants sur les marchés. L'espace d'état en finance est défini comme le vecteur des prix affichés par d'autres agents, où l'espace d'action peut inclure l'achat, la vente ou la détention.

  • 00: 15: 00 Dans cette section, nous apprenons qu'une découverte intéressante dans le travail de l'équipe est que les algorithmes peuvent apprendre le trading des taches solaires s'ils commencent à se conditionner sur des facteurs de marché non pertinents. L'orateur explique comment l'apprentissage Q se comporte en interaction avec d'autres apprenants Q et définit l'analogue multi-agent d'un processus décisionnel de Markov comme un jeu stochastique. Ils discutent de la manière dont les agents apprennent et adaptent leurs politiques au fil du temps, rendant la véritable dynamique du processus d'état non stationnaire, même si la fonction de transition peut être fixe. Le principal exemple utilisé dans l'exposé est le dilemme du prisonnier, interprété comme un marché stylisé avec deux fournisseurs de liquidités concurrents.

  • 00: 20: 00 compréhension du comportement des algorithmes apprenant à jouer à un jeu répété de dilemme du prisonnier avec d'autres joueurs équipés d'algorithmes. Pour y parvenir, il faut donner au processus d'état une notion d'état et le système auquel nous arrivons s'appelle les équations d'apprentissage algorithmique. Pour dériver ce système, ils utilisent la méthode ode de l'approximation stochastique pour approximer l'évolution des paramètres, permettant une analyse directe des politiques. Bien que des limitations existent dans ce modèle, les outils présentés sont généraux et peuvent répondre à ces limitations.

  • 00:25:00 Dans cette section, Harrison Waldon discute des équations d'apprentissage algorithmique, qui se rapprochent de l'évolution des paramètres en utilisant une approximation stochastique classique et une ODE. En conditionnant la règle d'apprentissage par rapport à la distribution stationnaire et en induisant des paramètres fixes, ils dérivent un système d'ODEs qui miment l'algorithme d'apprentissage. Ces équations d'apprentissage algorithmique peuvent approximer l'évolution de l'algorithme compte tenu de certaines conditions telles que des taux d'apprentissage non dégénérés et la compacité des paramètres. La distribution stationnaire et les politiques sont Lipschitz continues, ce qui s'avère également crucial. L'approximation stochastique utilisée est nécessaire en raison du processus non stationnaire avec une dynamique changeante.

  • 00:30:00 Dans cette section, Harrison Waldon discute des équations d'apprentissage algorithmique et de leurs propriétés. L'exemple d'apprentissage Q discuté dans la vidéo satisfait toutes les propriétés de ces équations, y compris le maintien des paramètres dans un ensemble compact, les chaînes de Markov ergodiques, la continuité Lipschitz dans les politiques et les règles d'apprentissage. Waldon montre que sous une échelle de temps appropriée, l'algorithme sera proche des solutions de l'ODE pour tout horizon de temps fini avec une probabilité élevée et convergera vers des solutions localement asymptotiquement stables presque sûrement si le taux d'apprentissage décroît assez rapidement. Waldon conclut en validant ces équations en les appliquant au dilemme répété du prisonnier en utilisant le Q-learning avec sélection d'action softmax.

  • 00:35:00 Dans cette section, les conditions nécessaires pour que l'équation d'apprentissage algorithmique se rapproche de l'évolution des algorithmes sont discutées. La condition de processus d'état pour l'ergodicité est satisfaite immédiatement pour ce scénario car il n'y a qu'un seul état. Les trajectoires de l'algorithme d'apprentissage sont simulées avec des taux d'apprentissage grands et petits, ce qui montre que l'approximation par l'équation d'apprentissage algorithmique est bonne avec des taux d'apprentissage faibles. Les ALE sont également utiles pour analyser la probabilité d'obtenir un résultat collusoire, avec un grand bassin d'attraction conduisant à un tel résultat. Dans la partie suivante de la vidéo, chaque agent a la possibilité de conditionner ses spreads sur les spreads de son adversaire de la période précédente.

  • 00:40:00 Dans cette section de la vidéo, Harrison Waldon explique la probabilité de jouer une certaine action et la source de bruit dans les simulations qu'ils analysent. Il discute du processus d'état ergotique, de la distribution stationnaire des politiques et de la façon d'interpréter les composantes des politiques de chaque agent en termes de punition pour examiner la fréquence avec laquelle un ensemble de politiques induira le résultat collusoire. Il fournit également des tracés des équations d'apprentissage algorithmique pour l'apprentissage Q dépendant de l'état pour une gamme de conditions initiales jusqu'à ce que la trajectoire converge numériquement.

  • 00:45:00 Dans cette section de la vidéo, Harrison Waldon discute des résultats de l'utilisation du Q-learning avec les équations d'apprentissage algorithmiques pour apprendre le comportement de collusion dans les jeux stochastiques. Les agents ont pu apprendre à jouer des spreads collusoires presque 100% du temps, même s'ils n'ont pas commencé avec des probabilités de collusion élevées. Les résultats ont également montré un large bassin d'attraction pour le résultat collusoire, mais aussi des comportements inattendus tels que le va-et-vient entre des résultats mutuellement collusoires et mutuellement compétitifs. La méthodologie utilisée dans cette étude a fourni des conditions suffisantes minimalement restrictives qui ont permis d'approximer le comportement d'une large classe d'algorithmes d'apprentissage par renforcement dépendant de l'état. Cependant, il y avait certaines limitations dues aux difficultés numériques dans le calcul de la distribution stationnaire. Dans l'ensemble, le Q-learning a réussi à apprendre le comportement collusoire dans ces jeux stochastiques.

  • 00: 50: 00 Dans cette section, Harrison Waldon explique comment garantir que les équations d'apprentissage algorithmique se rapprochent du comportement asymptotique de l'algorithme en montrant l'existence d'une fonction de Lyapunov, ce qui est difficile en raison de la nécessité de traiter la distribution stationnaire. Pour résoudre ce problème, Waldon introduit un nouvel algorithme qui est une généralisation du jeu fictif classique appelé State Dependent Smooth Fictitious Play. Cet algorithme suppose que tous les agents d'un système jouent selon des politiques stationnaires, et les croyances de ces stratégies sont formées via la fréquence de jeu empirique. L'algorithme ajoute un peu d'aléatoire dans le système et prend des mesures selon une distribution soft-max pour contourner les problèmes de règles d'apprentissage déterministes.

  • 00: 55: 00 Dans cette section, Harrison Waldon explique que les équations d'apprentissage algorithmique peuvent être utilisées pour analyser un système à temps continu et garantir que l'algorithme de jeu fictif lisse convergera vers des points de repos du système, dont certains peuvent être des stratégies collusoires . À mesure que le facteur d'actualisation augmente, la probabilité d'apprendre des résultats collusoires augmente. Waldon discute également de la nécessité d'une dynamique de marché plus réaliste et de la possibilité d'appliquer des équations d'apprentissage algorithmique à des algorithmes d'apprentissage par renforcement profond pour étudier les équilibres et les prix. Enfin, il reconnaît la difficulté de détecter la collusion et le défi de faire la distinction entre une véritable collusion et un comportement rationnel d'auto-préservation.

  • 01:00:00 Dans cette section, Harrison Waldon explique comment l'équilibre d'un jeu statique est un reflet étroit de la réalité de l'interaction dynamique entre les personnes. Il souligne la nécessité d'une approche holistique lorsqu'il s'agit de déterminer quel comportement d'équilibre réguler, en particulier en termes de comportement collusoire qui peut être considéré comme rationnel et arriver par le biais d'algorithmes sans communication directe entre les parties. La session se termine avec Waldon remerciant les participants et concluant la série du semestre de printemps.
Harrison Waldon (UT Austin): "The Algorithmic Learning Equations"
Harrison Waldon (UT Austin): "The Algorithmic Learning Equations"
  • 2023.04.26
  • www.youtube.com
Abstract: Recently there has been concern among regulators and legal theorists about the possibility that pricing algorithms can learn to collude with one a...
 

Irene Aldridge (AbleBlox et AbleMarkets) : "Écosystème cryptographique et conception AMM"



Irene Aldridge (AbleBlox et AbleMarkets) : "Écosystème cryptographique et conception AMM"

Irene Aldridge, fondatrice et directrice générale d'AbleMarkets, se penche sur divers aspects de la technologie blockchain, de la création de marché automatisée (AMM) et de la convergence des marchés traditionnels avec le monde des AMM. Elle souligne l'importance de ces sujets en finance et explore les défis potentiels et les solutions qui leur sont associées.

Aldridge commence par donner un aperçu de son expérience dans le secteur financier et de son expertise en microstructure, qui se concentre sur la compréhension des opérations de marché. Elle souligne l'adoption croissante de modèles de création de marché automatisés, initialement importants sur le marché de la cryptographie, mais s'étendant désormais aux marchés traditionnels. Elle décrit la structure de sa présentation, qui couvre les concepts d'introduction à la blockchain, l'application de la blockchain dans la finance et la programmation, et des études de cas réels sur la création de marché et son impact sur les marchés traditionnels.

En explorant la technologie blockchain, Aldridge la décrit comme une base de données avancée où chaque ligne contient un résumé cryptographique de la ligne précédente, garantissant l'intégrité des données. Elle explique le processus d'extraction impliqué dans la blockchain, où le contenu proposé est validé et ajouté à la chaîne, conduisant à une plus grande transparence et décentralisation dans la paperasse et les systèmes de paiement.

Aldridge discute de l'évolution vers la décentralisation dans l'écosystème cryptographique, soulignant le compromis entre la confidentialité et la robustesse d'avoir plusieurs copies de la base de données sur les serveurs. Elle explique le processus de la blockchain, de la définition des blocs et de la création de signatures cryptographiques aux innovations fondamentales de la preuve de travail et de l'exploitation minière, qui garantissent la sécurité contre les tentatives de piratage.

Cependant, Aldridge reconnaît les défis associés au système d'exploitation minière de preuve de travail, y compris l'augmentation du coût de l'exploitation minière, la diminution du nombre de mineurs et les vulnérabilités potentielles. Elle met en évidence des solutions alternatives, telles que l'agrégation de blocs d'Ethereum et l'élimination des énigmes pour l'exploitation minière par Coinbase.

L'orateur explore ensuite le jalonnement dans l'écosystème de la cryptographie, où les parties prenantes engagent leurs fonds pour soutenir les opérations du réseau. Elle reconnaît le problème potentiel des crypto-oligarques manipulant le marché et explique comment la validation hors chaîne et la création de marché automatisée ont été mises en œuvre pour contrer ce problème. Aldridge souligne l'importance de comprendre ces concepts pour saisir l'importance de la tenue de marché automatisée dans la prévention de la manipulation sur le marché de la cryptographie.

Aldridge se penche sur les principes qui sous-tendent les teneurs de marché automatisés (AMM), en soulignant leur impact révolutionnaire sur le trading de crypto-monnaie. Elle explique comment les courbes AMM, façonnées par des invariants liés à la liquidité, déterminent les prix en fonction de l'inventaire restant dans le pool de liquidité. Elle met en évidence les avantages des AMM, notamment la liquidité 24 heures sur 24, 7 jours sur 7, l'estimation du glissement par formule et la détermination de la juste valeur au moyen de courbes convexes. Cependant, elle mentionne également que les AMM peuvent faire face à des pertes dans des conditions volatiles, ce qui entraîne l'introduction de frais de transaction.

En comparant les AMM aux marchés traditionnels, Aldridge discute des avantages de la tenue de marché automatisée, tels que la liquidité continue, le glissement prévisible et la détermination de la juste valeur. Elle explique la méthode constante de création de marché de produits employée par UniSwap, illustrant comment les courtiers d'exécution peuvent sélectionner des plates-formes de liquidité et d'exécution sur la base de données paramétrées.

L'orateur discute du calcul des changements de volume et de la distinction entre pools de liquidités publics et privés. Elle présente des exemples empiriques utilisant Bitcoin et Ethereum de différentes bourses, soulignant les différences dans leurs courbes et suggérant des problèmes potentiels avec certaines plates-formes.

Aldridge souligne l'importance de concevoir des courbes AMM en utilisant des formes convexes pour assurer la stabilité du marché. Elle explique les rôles des fournisseurs de liquidités et des commerçants dans le système et comment ils bénéficient des frais de transaction. Elle évoque également la possibilité que les systèmes AMM soient utilisés sur les marchés traditionnels, incitant à envisager leur application à des actifs tels que les actions IBM.

Aldridge explore la convergence des marchés traditionnels avec la tenue de marché automatisée, notant que les teneurs de marché traditionnels mettent déjà en œuvre des systèmes similaires. Elle met en évidence les changements attendus dans les interactions de marché, les stratégies de trading, les méthodes d'exécution et la transparence. L'influence des teneurs de marché automatisés sur la microstructure des marchés est également discutée.

Abordant la faisabilité de la mise en œuvre de liquidités automatisées dans des environnements de trading 24h/24 et 7j/7 comme le marché de la cryptographie, Aldridge explique que la tenue de marché automatisée peut éliminer les risques associés aux méthodes traditionnelles de tenue de marché et que la technologie est facilement disponible. Cependant, elle prévient que tous les échanges cryptographiques n'utilisent pas la création de marché automatisée, soulignant la nécessité de recherches pour aborder la gestion des risques et les externalités. Aldridge souligne que la technologie de création de marché automatisée est apparue à peu près au même moment que les crypto-monnaies comme Bitcoin en 2002.

Interrogé sur l'avantage déloyal potentiel des revendeurs automatisés de tenue de marché ayant accès à des informations privées, Aldridge reconnaît que cela pose un problème. Cependant, elle suggère que comparer et quantifier la courbe de création de marché automatisée sur différentes plates-formes peut aider à atténuer ce problème. Elle note que les mineurs sont incités à poursuivre leur travail car ce sont eux qui bénéficient de l'accès et de la validation des blocs de commande. Néanmoins, à moins qu'il n'y ait une incitation privée, il est de plus en plus difficile de générer des profits dans cet espace, ce qui conduit à la formation d'oligopoles. Aldridge propose que l'assurance puisse servir d'incitation naturelle pour les mineurs à travailler presque gratuitement. Cependant, les compagnies d'assurance perçoivent la blockchain comme une menace majeure pour leur industrie, ce qui entraîne une résistance à de telles conceptions de systèmes. Elle aborde également la possibilité de stratagèmes frauduleux, soulignant la manipulation potentielle de la courbe IBM.

Dans le contexte des carnets d'ordres limités centralisés, Aldridge explique comment les acteurs du marché utilisent des modèles de tenue de marché automatisés, tels que les AMM, qui fournissent des liquidités de manière rentable et automatisée, ce qui peut entraîner des bénéfices. Cependant, faire la distinction entre les commerçants utilisant des AMM et ceux qui passent manuellement des ordres à cours limité reste un défi. Aldridge suggère que l'identification des utilisateurs malveillants par l'analyse des données microstructurales pourrait offrir une solution potentielle. Elle pense que si les AMM continuent de dominer le marché, un modèle plus efficace et rationalisé émergera.

En résumé, la discussion d'Irene Aldridge couvre divers aspects de la technologie blockchain, de la création de marché automatisée et de la convergence des marchés traditionnels avec le monde AMM. Elle explore les bases de la blockchain, discute des défis et des solutions potentielles liées aux systèmes de minage de preuve de travail et met en évidence les avantages des AMM par rapport aux marchés traditionnels. Aldridge répond également aux préoccupations concernant la faisabilité de la mise en œuvre de liquidités automatisées, la question des revendeurs automatisés de tenue de marché ayant accès à des informations privées et le rôle potentiel de l'assurance comme incitation pour les mineurs. Grâce à ses idées, elle fournit des perspectives précieuses sur le paysage actuel et les possibilités futures dans le monde de la finance et de la tenue de marché automatisée.

  • 00:00:00 Dans cette section, Irene Aldridge parle de son expérience dans le secteur financier et de son intérêt pour la microstructure, qui se concentre sur le fonctionnement des marchés. Elle présente ensuite le sujet de la création de marché automatisée et comment elle est née sur le marché de la cryptographie mais est maintenant déployée sur les marchés traditionnels. Elle fournit un aperçu de la présentation, qui comprend une introduction à la blockchain 101, des applications de la blockchain dans la finance, la programmation et des études de cas sur la création de marché dans la pratique et ses retombées sur les marchés traditionnels. Aldridge a une formation en génie électrique et a travaillé dans divers domaines de l'industrie financière, notamment le commerce, la gestion des risques et la recherche.

  • 00:05:00 Dans cette section, Irene Aldridge explique les bases de la technologie blockchain. Elle le décrit comme une base de données sophistiquée où chaque ligne contient un résumé cryptographique de la ligne précédente, ce qui rend difficile la modification des données précédentes sur le plan informatique. De plus, elle discute du processus d'extraction de la blockchain et de la manière dont il implique d'examiner le contenu proposé d'un bloc et de le mémoriser. Aldridge pense que la blockchain peut aider à déplacer la paperasse et les paiements vers la blockchain, permettant plus de transparence et de décentralisation.

  • 00:10:00 Dans cette section, Irene Aldridge discute de l'évolution vers un modèle décentralisé dans l'écosystème crypto, où les transactions sont publiques et stockées sur plusieurs serveurs plutôt que centralisées sur un serveur Oracle. Bien que cela signifie que la confidentialité est sacrifiée, la robustesse accrue d'avoir plusieurs copies de la base de données sur les serveurs est considérée comme un compromis équitable. Aldridge explique que le processus de blockchain est relativement simple, en commençant par définir un bloc et en créant une signature cryptographique ou un hachage, qui est ensuite encodé dans le bloc suivant. Les innovations fondamentales de la preuve de travail et des procédures de minage sont ensuite discutées, dans le but d'assurer la sécurité contre les tentatives de piratage en rendant la complexité de calcul de recalcul de la chaîne trop grande.

  • 00: 15: 00 Dans cette section, Irene Aldridge discute des problèmes qui affligent le système d'extraction de preuve de travail dans la crypto-monnaie. Elle explique que le coût de l'exploitation minière devient trop élevé pour la plupart des gens, ce qui conduit à un équilibre où seul un groupe spécifique d'individus peut se permettre les coûts et les autres sont incapables d'exploiter. De plus, le nombre de mineurs diminue avec le temps, ce qui rend le système vulnérable aux piratages potentiels. La force du modèle décentralisé est que la chaîne la plus longue est automatiquement sélectionnée par le moteur principal, empêchant les colludeurs de se rattraper et d'introduire des blocs piratés dans le système. Cependant, il y a des inquiétudes croissantes concernant le système de preuve de travail, y compris les problèmes d'intérêt entre les mineurs qui négocient et exploitent, et le temps qu'il faut pour extraire des blocs. De nouvelles solutions sont désormais en cours de développement, telles que l'agrégation de blocs d'Ethereum toutes les 12 secondes et la décision de Coinbase de ne plus obliger les gens à résoudre des énigmes à exploiter.

  • 00: 20: 00 Dans cette section, l'orateur discute du processus de jalonnement dans l'écosystème crypto, qui consiste à mettre de l'argent dans le système pour miner. Les parties prenantes peuvent verrouiller leur mise ou leur garantie pendant une période déterminée, et s'il y a une activité frauduleuse, elles la paient avec leur mise. Cependant, cela crée un oligopole de crypto-oligarques qui manipulent le marché. Pour lutter contre cela, la validation hors chaîne et la création de marché automatisée ont été utilisées. Ce dernier est devenu plus populaire dans l'écosystème crypto et propose divers produits open source auxquels tout le monde peut accéder, ce qui le rend plus facile à comprendre. L'orateur souligne que la compréhension des informations de base, telles que le jalonnement et la validation hors chaîne, est essentielle pour comprendre l'importance de la création de marché automatisée et son fonctionnement pour empêcher la manipulation sur le marché de la cryptographie.

  • 00: 25: 00 cette section, Irene Aldridge discute des principes sous-jacents aux différents teneurs de marché automatisés (AMM), qui ont révolutionné le monde du trading de crypto-monnaie. Elle explique que les courbes AMM, qui varient en courbure et en décalage, sont façonnées par un invariant lié à la liquidité, et que le prix est fonction de l'inventaire restant dans le pool de liquidité. L'un des avantages des AMM est qu'ils peuvent négocier 24 heures sur 24, 7 jours sur 7, sans écart, car il n'y a pas d'écart acheteur-vendeur et qu'ils peuvent s'adapter automatiquement aux conditions changeantes du marché. Cependant, les AMM peuvent perdre de l'argent dans des conditions volatiles, ils imposent donc des frais de transaction, ce que les marchés traditionnels n'ont pas.

  • 00: 30: 00 Dans cette section, Irene Aldridge discute de la tenue de marché automatisée (AMM) et de ses avantages par rapport aux marchés traditionnels, tels que la liquidité continue 24h / 24 et 7j / 7, le glissement de formule pouvant être estimé à l'avance et la juste valeur grâce à l'utilisation de une courbe convexe. Aldridge explique la méthode de création de marché à produit constant utilisée par le système populaire UniSwap, qui suit une courbe convexe entre la quantité un et la quantité deux. En collectant des données provenant de différentes bourses et en les paramétrant sur la base de cette méthode de produit constant, Aldridge met en évidence la manière dont les courtiers d'exécution peuvent déterminer les plates-formes à choisir pour la liquidité et l'exécution.

  • 00: 35: 00 Dans cette section, Irene Aldridge discute du calcul des changements respectifs de volume et de devise et simule une simulation très simple en utilisant la règle de coche de fille de la microstructure pour déterminer si le volume est un achat ou une vente. Elle explique également les deux types de pools de liquidités, public et privé, et l'arbitrage qui se produit entre eux, soulignant qu'il ne devrait y avoir aucune différence entre eux sur des plateformes suffisamment liquides. Aldridge présente ensuite des exemples empiriques utilisant Bitcoin et Ethereum à partir de divers échanges, tels que Bitfinex et Bitstamp, et met en évidence leurs courbes, soulignant que FTX ne ressemble en rien à ce que nous attendrions d'un point de vue de Market Making automatisé et suggère qu'il aurait pu être un Ponzi régime tout du long.

  • 00: 40: 00 Dans cette section, Irene Aldridge discute de la conception des courbes de tenue de marché automatisées (AMM) et les compare à des exemples de divers échanges de crypto-monnaie. Elle souligne l'importance d'utiliser des courbes convexes dans la conception d'AMM pour assurer la stabilité du marché et éviter des augmentations de prix drastiques lors du rachat des stocks. De plus, elle explique les rôles des fournisseurs de liquidités et des commerçants dans le système et comment ils bénéficient des frais de transaction. Aldridge mentionne également des rumeurs d'utilisation de systèmes AMM sur les marchés traditionnels et souligne la nécessité d'examiner comment cette conception fonctionnerait pour des produits tels que les actions IBM.

  • 00:45:00 Dans cette section, Irene Aldridge discute de la convergence des marchés traditionnels et du monde de la tenue de marché automatisée, où les teneurs de marché traditionnels déploient déjà des systèmes similaires. Elle souligne que de nombreux changements sont attendus dans la manière dont les individus interagissent avec les marchés, la manière dont les stratégies de formation sont élaborées, la manière dont l'exécution est effectuée et la transparence de tout. Elle note également que la microstructure évolue sur les marchés en raison de l'influence des teneurs de marché automatisés. Irene fournit une compréhension de base de la façon dont les données IBM quotidiennes sont utilisées pour estimer les courbes AMM, et comment des données plus granulaires faciliteraient l'obtention d'estimations plus propres.

  • 00: 50: 00 Dans cette section, Irene Aldridge discute de la faisabilité de la mise en œuvre d'une liquidité automatisée dans des environnements de trading 24h/24 et 7j/7 comme le marché de la cryptographie, où les méthodes traditionnelles de tenue de marché peuvent ne pas être aussi efficaces. Elle explique que la tenue de marché automatisée peut éliminer les risques associés aux méthodes traditionnelles de tenue de marché et que la technologie est largement disponible. Cependant, elle prévient que tous les échanges cryptographiques n'utilisent pas la création de marché automatisée et que des recherches sont nécessaires pour aborder la gestion des risques et les externalités. Elle note également que cette technologie existe depuis 2002 et a coïncidé avec l'émergence de crypto-monnaies comme Bitcoin. Interrogé sur l'avantage déloyal potentiel des revendeurs automatisés de tenue de marché ayant accès à des informations privées, Aldridge note qu'il s'agit d'un problème ouvert qui nécessite des recherches supplémentaires.

  • 00: 55: 00 Dans cette section, Irene Aldridge explique comment les revendeurs AMM ou ceux qui acceptent des pièces et utilisent des systèmes automatisés de tenue de marché (AMM) voient le flux d'ordres avant les autres, ce qui pose un problème. Cependant, comme il existe de nombreuses plates-formes disponibles, faire le tour et quantifier la courbe de tenue de marché automatisée peut aider à atténuer ce problème. Irene note également qu'en raison de ce problème, les mineurs sont motivés à continuer, car ils sont les seuls à bénéficier de l'examen et de la validation des blocs de commandes. Cependant, à moins d'une incitation privée, il devient de plus en plus difficile de gagner de l'argent dans cet espace, conduisant à la formation d'oligopoles. Irene suggère que l'assurance pourrait être une incitation naturelle pour les mineurs à bénéficier et à travailler presque gratuitement. Cependant, les compagnies d'assurance considèrent la blockchain comme une menace majeure pour leur existence, il y a donc une résistance à ce type de conception de système. Enfin, Irene aborde une question sur la possibilité d'un stratagème frauduleux, déclarant qu'il pourrait y en avoir un dans la courbe IBM, où l'on pourrait affirmer que le fond est manipulé.

  • 01:00:00 Dans cette section, Irene Aldridge discute de l'utilisation de modèles de tenue de marché automatisés dans des carnets d'ordres à cours limité centralisés. Les acteurs du marché utilisent leurs propres AMM car ils sont peu coûteux et automatisés, fournissant des liquidités au marché avec le potentiel de réaliser des bénéfices. Malgré cela, il est actuellement difficile de faire la différence entre les traders utilisant un AMM et ceux passant des ordres à cours limité manuellement. Aldridge suggère que l'identification des mauvais acteurs à travers les données de microstructure peut être un problème ouvert, mais si les AMM continuent de dominer le marché, un modèle plus rationalisé émergera.
Irene Aldridge (AbleBlox and AbleMarkets): "Crypto Ecosystem and AMM Design"
Irene Aldridge (AbleBlox and AbleMarkets): "Crypto Ecosystem and AMM Design"
  • 2023.03.29
  • www.youtube.com
Abstract: Assets on blockchain trade 24x7 with very thin liquidity. This demands new fully automated processes, including Automated Market Making (AMM). We d...
 

Agostino Capponi (Colombie): "Les pools de transactions privées atténuent-ils les risques de premier plan ?"


Agostino Capponi (Colombie): "Les pools de transactions privées atténuent-ils les risques de premier plan ?"

Agostino Capponi, chercheur à l'Université de Columbia, se penche sur la question du front running dans les échanges décentralisés et propose des pools de transactions privées comme solution potentielle. Ces pools privés fonctionnent hors chaîne et séparément du pool public, garantissant que les validateurs engagés à ne pas s'engager dans le front running les gèrent. Cependant, Capponi reconnaît que l'utilisation de pools privés comporte un risque d'exécution puisque tous les validateurs ne participent pas au pool privé, ce qui signifie qu'il est possible que des transactions passent inaperçues et ne soient pas exécutées. Il est important de noter que l'adoption de pools privés ne réduira pas nécessairement les frais de priorité minimum requis pour l'exécution. De plus, Capponi souligne que la concurrence entre les attaquants de premier plan profite aux validateurs grâce à la valeur extractible maximale (MEV). En fin de compte, alors que les pools privés peuvent atténuer le risque initial, ils peuvent augmenter les frais nécessaires à l'exécution, entraînant des inefficacités dans l'allocation.

Capponi met en évidence la corrélation entre la proportion de transactions acheminées via des pools privés et la probabilité d'être en front-run, ce qui complique l'allocation optimale. Il explore également différents types d'attaques frontales, y compris les attaques de suppression et de déplacement, et présente des données montrant les pertes substantielles subies en raison du fonctionnement frontal. Pour faire face à ces risques, Capponi suggère d'éduquer les utilisateurs sur le calendrier des transactions et de rendre la validation des transactions plus déterministe pour créer un système plus équitable.

La discussion porte sur la dynamique des pools de transactions privées, les défis de l'adoption et les compromis potentiels impliqués. Capponi explique comment les pools privés offrent une protection contre le front running, mais prévient que leur efficacité dépend du nombre de validateurs participant au pool privé. En outre, il aborde le problème des validateurs qui n'adoptent pas les pools privés en raison de la perte de MEV, proposant des solutions potentielles telles que des subventions aux utilisateurs pour inciter leur adoption.

Alors que les pools de transactions privées peuvent atténuer dans une certaine mesure les risques de premier plan, Capponi souligne qu'ils ne sont pas infaillibles et peuvent ne pas atteindre une allocation optimale. La complexité découle de facteurs tels que la concurrence entre les attaquants, le taux d'adoption des validateurs dans les pools privés et l'impact qui en résulte sur les frais d'exécution. La discussion soulève des considérations importantes pour la communauté blockchain dans la gestion des risques de premier plan et la garantie d'un environnement d'échange décentralisé équitable et efficace.

  • 00:00:00 Dans cette section, Agostino Capponi présente le sujet des échanges décentralisés et les risques encourus auxquels ils sont confrontés. Il explique que l'architecture de la blockchain fonctionne en soumettant les transactions à un pool de mémoire auquel accèdent ensuite les validateurs qui ajoutent les transactions aux blocs et reçoivent des frais des utilisateurs. Capponi note que les utilisateurs peuvent hiérarchiser leurs transactions en offrant des frais plus élevés, mais ce système peut conduire à une exécution anticipée. Il présente le concept de pools privés comme une solution potentielle à ce problème et explique comment son équipe a construit un modèle de théorie des jeux pour tester l'efficacité de ces pools à atténuer le front running.

  • 00:05:00 Dans cette section, Agostino Capponi décrit le problème du front running dans les blockchains publiques en libre accès, qui permet aux utilisateurs de voir et de soumettre des transactions. Les attaques frontales se produisent lorsque les utilisateurs profitent d'informations exploitables sur des transactions en attente ou exécutées. Capponi explique l'attaque sandwich, où un attaquant place des frais plus élevés pour exécuter la transaction avant l'utilisateur, ce qui fait monter le prix, puis exécute une transaction inverse pour un profit. Bien qu'il existe un risque d'échec si les frais de l'attaquant ne sont pas assez élevés, les attaquants planifient généralement leurs commandes pour augmenter leurs chances de succès.

  • 00: 10: 00 Dans cette section, Agostino Capponi discute de plusieurs types d'attaques frontales, y compris les attaques de suppression et les attaques de déplacement, dans lesquelles un attaquant soumet plusieurs transactions ou déplace la transaction d'un autre utilisateur pour exécuter la transaction souhaitée en premier. Capponi se demande si le front running est un risque matériel qui limite l'adoption de la blockchain et présente un graphique montrant le nombre d'attaques de front running et les revenus générés par celles-ci de mai 2020 à mars 2021, ce qui indique une perte d'environ 10 000 ethereum, soit 125 millions de dollars, deux à l'avant.

  • 00:15:00 Dans cette section, Agostino Capponi aborde la question du front running dans les transactions Ethereum et ses coûts associés, directs et indirects. Il explique qu'une solution à ce problème est l'utilisation de pools de transactions privées, qui sont essentiellement des canaux parallèles hors chaîne, séparés du pool public et ne pouvant être surveillés que par certains validateurs. Les transactions soumises à ces pools privés n'ont aucun risque de front running tant que les validateurs se comportent honnêtement, et s'il s'avère qu'il s'agit de transactions de front running, elles seront éjectées du pool. Dans l'ensemble, les pools de transactions privées offrent une bonne solution pour ceux qui s'inquiètent de l'exécution en amont et souhaitent que leurs transactions soient exécutées sans être exécutées en amont.

  • 00:20:00 Dans cette section, Agostino Capponi discute de l'utilisation de pools de transactions privées et de leur capacité à atténuer le risque d'anticipation. Capponi explique que les pools privés ne sont visibles que pour les validateurs et sont hors chaîne, ce qui signifie que les attaquants ne peuvent pas y accéder. Cela élimine la possibilité d'être exécuté en avant-première et offre des garanties, car les validateurs s'engagent à ne pas s'engager dans l'exécution en avant-première. Capponi aborde également la question de l'adoption et si les utilisateurs soumettront leurs transactions dans le pool. De plus, il mentionne comment les attaquants peuvent encore se faire concurrence, mais le pool privé peut réduire le risque de sous-investissement par les bots d'arbitrage. Enfin, il présente un modèle simple avec trois agents pour discuter si l'adoption des piscines privées sera observée.

  • 00: 25: 00 Dans cette section, Agostino Capponi discute du concept de pools de transactions privées et s'ils atténuent ou non les risques de premier plan. Il explique qu'il existe deux lieux possibles pour soumettre des transactions : le pool privé et le pool public. Une fois que les validateurs ont adopté le pool à surveiller, les utilisateurs battent leurs frais de priorité et choisissent où ils souhaitent soumettre la transaction. Les attaquants rechercheront alors des opportunités, soumettront des transactions et décideront où les soumettre. Capponi met l'accent sur l'importance de la probabilité dans la détection des opportunités et les probabilités de réussir un front-run.

  • 00:30:00 Dans cette section, l'orateur explique le concept des pools de transactions privées et s'ils peuvent atténuer les risques de premier plan. Les pools de transactions privées peuvent fournir une protection contre les risques prioritaires, car seul le validateur qui ajoute le bloc peut voir les transactions, empêchant les autres arbitres d'identifier les opportunités avant l'utilisateur. Cependant, la soumission via un pool privé comporte un risque d'exécution, car tous les validateurs ne seront pas sur le pool privé, et il est possible que la transaction ne soit pas visible et, par conséquent, non exécutée. Alors que les transactions du pool privé ont la priorité sur les transactions du pool public, le nombre de validateurs surveillant le pool privé a un impact sur le risque d'exécution, ce qui en fait une préoccupation pour les utilisateurs avant de soumettre une transaction via le pool privé.

  • 00:35:00 Dans cette section, Agostino Capponi explique que les pools de transactions privées peuvent atténuer les risques de premier plan dans une certaine mesure, mais ce n'est pas infaillible. Les attaquants s'engageront dans une course aux armements pour obtenir la priorité dans l'exécution de leur commande, et ils peuvent utiliser des pools privés et publics pour réduire le risque d'exécution tout en recevant une exécution prioritaire. Pendant ce temps, les utilisateurs qui peuvent être en première ligne décideront de soumettre leurs transactions au pool privé ou au pool public en fonction du taux d'adoption des validateurs dans le pool privé et du coût initial. Si le taux d'adoption est élevé, ils utiliseront le pool privé pour éviter d'être en première ligne, mais s'il est faible, ils peuvent choisir le pool public pour éviter d'attendre trop de blocs pour l'exécution malgré le risque d'être en première ligne.

  • 00:40:00 Dans cette section, Agostino Capponi explique comment les pools de transactions privées peuvent potentiellement atténuer le risque de front running. Si un utilisateur se soumet à un pool privé et que tous les validateurs rejoignent ce pool, le risque de front running est éliminé car il n'y a aucune possibilité d'arbitrage. Cependant, dans les cas où le risque de front running est faible, tous les validateurs n'adopteront pas le pool privé, ce qui signifie que l'utilisateur peut plutôt opter pour le pool public, s'exposant à nouveau au risque de front running.

  • 00: 45: 00 Dans cette section, Agostino Capponi explique si les pools de transactions privées peuvent atténuer le risque initial et réduire les frais minimums nécessaires à l'exécution. On fait valoir que le risque initial n'est éliminé que si la perte est importante, et même dans ce cas, certaines pertes initiales ne peuvent pas être éliminées. De plus, la concurrence entre les attaquants de premier plan profite aux validateurs ou aux mineurs grâce à la valeur extractible maximale (MEV). L'adoption de pools privés ne réduit pas nécessairement les frais de priorité minimum nécessaires à l'exécution, car les validateurs ne sont disposés à adopter des pools privés que s'ils peuvent gagner des frais plus élevés. De plus, l'existence d'un pool privé peut entraîner une plus grande demande d'espace de bloc, ce qui augmenterait les frais nécessaires à l'exécution. En fin de compte, les pools privés ne réduisent pas toujours le risque initial, mais peuvent augmenter les frais nécessaires à l'exécution, ce qui entraîne une inefficacité allocative.

  • 00: 50: 00 Dans cette section, l'orateur discute des inefficacités causées par les risques de premier plan dans les blockchains. La première inefficacité résulte des utilisateurs qui peuvent décider de ne pas soumettre de transactions en raison du risque d'être en première ligne, ce qui peut conduire à une allocation sous-optimale des transactions. La deuxième inefficacité provient des attaques frontales, où un attaquant exécute une transaction avant la victime, entraînant un transfert de valeur. Pour atténuer ces risques, des pools de transactions privées sont proposés, ce qui peut augmenter la valeur des transactions et aider les utilisateurs à soumettre sans crainte d'être en avance. Cependant, l'adoption de pools privés par tous les validateurs n'est pas toujours réalisable en raison du mauvais MEV et de la perte de revenus qui en résulte pour les validateurs.

  • 00:55:00 Dans cette section, Agostino Capponi discute du problème des validateurs qui n'adoptent pas les pools privés, même si ce serait un résultat socialement optimal. La raison en est qu'ils perdraient leur MEV (valeur extractible maximale) et sans avantage pour eux, ils ne changeraient pas. La solution serait que les utilisateurs front runnables subventionnent les validateurs en s'engageant à les payer financièrement l'équivalent de ce qu'ils auraient économisé en n'étant pas front run. Les données indiquent que si la concurrence pour être le premier à exécuter est féroce, le rapport coût/revenu des attaquants est nettement inférieur en raison de l'adoption de pools privés de bots flash.
  • 01:00:00 Dans cette section, Agostino Capponi discute de ses recherches sur les pools de transactions privées et s'ils atténuent le risque d'anticipation. Il explique que même si les pools privés peuvent offrir une certaine atténuation pour les pertes importantes, ils ne sont pas bénéfiques pour les attaquants exécutant des robots d'arbitrage, car cela peut aggraver leur situation. La probabilité d'être en première ligne peut être estimée en examinant le glissement que la transaction entraînerait par rapport au prix qui doit être payé en première instance. Capponi souligne qu'il existe une corrélation positive entre la probabilité d'être prioritaire et la proportion de transactions acheminées via des pools privés. Il conclut que les pools privés ne peuvent pas atteindre une allocation optimale car tous les validateurs ne surveillent pas le pool, ce qui entraîne des inefficacités telles que le risque d'exécution anticipée ou l'espace de bloc alloué à une transaction exécutable en anticipation.

  • 01:05:00 Dans cette section, Agostino Capponi de l'Université de Columbia discute de l'utilisation de pools de transactions privées pour éviter les risques de premier plan dans la blockchain, en particulier dans Ethereum et Polygon. Il note également qu'actuellement, il existe une entité monopolistique qui reçoit toutes les récompenses du fournisseur, et Ethereum envisage des solutions telles que la combustion ou la redistribution de la valeur extractible mineure (MEV) pour empêcher cela. Capponi soulève également la question controversée des armes de destruction mathématique dans le contexte des transactions blockchain et du transfert de valeur de ceux qui ne comprennent pas la formule à ceux qui la comprennent.

  • 01:10:00 Dans cette section, les conférenciers discutent de la question du front-running dans les pools de transactions privées et de son impact sur les utilisateurs non avertis tels que les family offices. Ils suggèrent que pour rendre le système plus équitable, il doit y avoir un moyen d'éduquer ces utilisateurs sur la façon de mieux chronométrer leurs transactions pour éviter d'être les premiers. Ils notent également que les bots qui s'engagent dans le front-running sont extrêmement sophistiqués et utilisent des algorithmes complexes pour déterminer la meilleure façon d'exécuter les transactions tout en générant le plus de profit. Les conférenciers suggèrent que si le moment de la validation des transactions était plus déterministe, il serait plus facile pour les utilisateurs de mieux chronométrer leurs transactions et de réduire le risque d'anticipation.
Agostino Capponi (Columbia): "Do Private Transaction Pools Mitigate Frontrunning Risk?"
Agostino Capponi (Columbia): "Do Private Transaction Pools Mitigate Frontrunning Risk?"
  • 2023.01.25
  • www.youtube.com
Abstract: Blockchain users who submit transactions through private pools are guaranteed pre-trade privacy but face execution risk. We argue that private poo...
 

Dr. Kevin Webster : "Obtenir plus pour moins - Meilleur test A/B via la régularisation causale"



Dr. Kevin Webster : "Obtenir plus pour moins - Meilleur test A/B via la régularisation causale"

Dans cette vidéo, le Dr Kevin Webster se penche sur les défis associés aux expériences de trading et à l'apprentissage automatique causal, en développant divers sujets clés. L'un des principaux problèmes qu'il aborde est le biais de prédiction dans le trading, où le rendement observé lors d'un trade est une combinaison de l'impact sur les prix et du mouvement de prix prévu. Pour atténuer ce biais, le Dr Webster propose deux approches : l'utilisation de données de négociation aléatoires et l'application d'une régularisation causale. En incorporant le signal de trading qui a provoqué un trade dans le modèle de régression, les biais peuvent être éliminés.

Le Dr Webster introduit le concept de graphe causal, qui implique trois variables : l'alpha de la transaction, la taille de la transaction et les rendements pendant la transaction. Il affirme qu'il est difficile d'estimer avec précision l'impact sur les prix sans observer l'alpha, et que les techniques économétriques traditionnelles sont insuffisantes à cet égard. Il souligne les limites des expériences de trading aléatoires en raison de leur taille et de leur durée limitées, soulignant la nécessité d'une conception minutieuse des expériences et d'une estimation des coûts à l'aide de simulateurs.

Pour surmonter les lacunes de l'économétrie traditionnelle, le Dr Webster préconise la régularisation causale. Cette méthode, dérivée d'Amazon, utilise des données biaisées pour la formation et des données non biaisées pour les tests, ce qui donne des estimateurs à faible biais et à faible variance. Il exploite la richesse des données organisationnelles disponibles et corrige les biais, permettant des prévisions plus précises.

Estimer l'alpha sans connaître son impact pose un défi important, en particulier lorsque les données commerciales manquent de fiabilité. Le Dr Webster suggère l'utilisation de la soumission aléatoire des transactions pour obtenir des données impartiales sans s'appuyer sur la technologie de tarification. Cependant, cette approche nécessite de renoncer à une grande partie des transactions pour établir un intervalle de confiance sur alpha, ce qui peut ne pas être pratique. Alternativement, il propose de tirer parti de l'apprentissage automatique causal pour obtenir des résultats similaires avec moins de données. L'apprentissage automatique causal s'avère particulièrement précieux dans les applications de trading, telles que l'analyse des coûts de transaction, l'évaluation de l'impact sur les prix et la recherche alpha, surpassant l'économétrie traditionnelle en raison de la disponibilité de données de trading approfondies et biaisées.

L'orateur se penche également sur l'importance de l'analyse statistique dans les tests A/B, en insistant sur la nécessité de définir l'impact sur les prix et de joindre une mesure statistique pour lutter contre les biais de prédiction. Sans remédier à ce biais, l'analyse devient subjective et dépend de l'interprétation individuelle. Le Dr Webster reconnaît les défis posés par les données publiques d'observation et met en évidence les connaissances acquises à partir des données interventionnelles. Bien que répondre à la question de savoir quelle approche adopter soit complexe, les tests A/B restent une pratique courante dans les secteurs de la banque et du courtage.

Enfin, le Dr Webster discute brièvement de la relation entre l'apprentissage par transfert et la régularisation causale. Alors que les deux impliquent de former un modèle sur un ensemble de données et de l'appliquer à un autre, l'apprentissage par transfert manque d'interprétation causale. L'analogie entre les deux réside dans leur processus de validation, la validation croisée jouant un rôle central. Malgré leurs similitudes mathématiques, le Dr Webster souligne la nouveauté de l'interprétation causale dans l'approche.

  • 00:00:00 Kevin Webster parle d'expériences de trading en direct et d'apprentissage automatique causal. Il décrit un scénario dans lequel un fonds spéculatif négocie par l'intermédiaire d'un courtier, qui est chargé d'exécuter la transaction et d'assurer la meilleure exécution tout en prouvant qu'il a agi dans le meilleur intérêt du client. Le courtier fait face à des difficultés car ses clients ne négocient pas au hasard en fonction des signaux Alpha, et le rendement observé lors d'une transaction est un mélange d'impact sur les prix et de mouvement de prix prévu causé par la transaction. Webster vise à résoudre ce problème en utilisant la régularisation causale et propose un modèle qui apprend comment le mouvement de prix prévu est lié au flux de commandes.

  • 00:05:00 L'orateur discute de la distinction entre les signaux alpha et l'impact sur les prix, qui sont deux composantes des rendements. Les signaux alpha prédisent les mouvements de prix qui se produiraient, que les actions soient négociées ou non, tandis que l'impact sur les prix décrit les mouvements de prix causés par le trading. Les traders utilisent des back-knolls de tarification pour simuler la réaction des prix à leurs transactions et répondre à des scénarios hypothétiques. Cependant, il est difficile de distinguer si les commerçants ont provoqué un mouvement de prix ou l'ont prédit, ce qui entraîne un biais de prédiction. Les données exclusives de CFM et d'autres techniques peuvent aider à éliminer les biais et à corriger le biais de prédiction en tenant compte du signal de trading qui a provoqué un trade dans la régression.

  • 00: 10: 00 Dans cette section de la vidéo, le Dr Kevin Webster discute du problème du biais de prédiction dans le trading et de la manière dont il affecte à la fois les courtiers et les chercheurs alpha. Il explique que même si un chercheur alpha peut avoir le signal alpha, il peut ne pas avoir un bon modèle d'impact sur les prix, ce qui conduit à une surestimation de l'alpha. À l'inverse, si les courtiers ne connaissent pas l'alpha, ils négocieront trop lentement pour le client. Le Dr Webster propose d'utiliser le trading aléatoire, qui est coûteux, ou la régularisation causale, une méthode qui combine à la fois des données de trading aléatoires et des données historiques de manière intelligente pour obtenir de meilleures performances que l'économétrie traditionnelle. Il conclut en précisant qu'il comparera les performances de ces méthodes à l'aide d'une simulation.

  • 00: 15: 00 Le Dr Kevin Webster discute de trois méthodes de test économétrique, souligne l'importance de l'inférence causale et explique comment elle est déjà activement utilisée dans l'industrie technologique, en particulier dans la communauté de l'apprentissage automatique. Il souligne en outre comment ces entreprises utilisent l'apprentissage automatique causal pour permettre à leurs équipes de s'aligner rapidement sur la réalité du terrain, d'éliminer les réexamens de découvertes surprenantes, d'éviter de répéter des expériences défectueuses et d'éviter de remettre en question des décisions cruciales. Les méthodes du Dr Webster utilisent une combinaison de tests causals et économétriques, permettant des prédictions plus précises basées sur cinq fois moins de données.

  • 00:20:00 L'auteur propose un graphe causal pour son étude qui implique trois variables : alpha du commerce, taille du commerce et rendements pendant le commerce. Il suppose que les caractéristiques sous-jacentes de ses modèles Alpha déterminent les différents mouvements de prix fondamentaux sur l'action, et son algorithme de trading réagit aux signaux Alpha, provoquant des transactions. Il suppose également que les transactions provoquent des mouvements de prix, connus sous le nom d'impact sur les prix. Selon le Dr Webster, quelle que soit la technique de régression sophistiquée utilisée par les traders, ils ne seront pas en mesure d'estimer l'impact sur les prix sans observer Alpha. Les commerçants peuvent estimer l'impact sur les prix en le randomisant, ce qui est activement utilisé dans le secteur financier et est connu sous le nom de dépenses de négociation aléatoires. Cependant, son utilisation est limitée aux seules commandes substantielles car de telles randomisations sont coûteuses.

  • 00: 25: 00 L'orateur discute des limites des expériences de trading aléatoires par rapport aux données d'observation en raison de la taille et de la durée limitées des expériences. Pour un ensemble raisonnable de paramètres, l'ensemble de données d'observation peut être plus grand que l'ensemble de données d'intervention, et les commerçants doivent concevoir des expériences avant de les déployer en raison du coût des erreurs. L'utilisation d'un simulateur pour déterminer le coût et l'intervalle de confiance de l'expérience avant de soumettre des transactions aléatoires est cruciale. Sans tenir compte du biais, ignorer Alpha entraînera un biais élevé et une faible variance.

  • 00:30:00 Le Dr Kevin Webster explique les limites de l'économétrie traditionnelle et présente le concept de régularisation causale, qui est une méthode venue d'Amazon et qui consiste à utiliser des données biaisées comme données d'entraînement et des données non biaisées comme données de test pour ajuster les méta-paramètres. La méthode garantit un estimateur à faible biais et faible variance, contrairement aux méthodes traditionnelles qui n'utilisent qu'une petite quantité de données expérimentales. L'algorithme de régularisation causale permet d'utiliser les grandes données organisationnelles disponibles et de corriger tout biais afin de fournir des estimations précises aux commerçants.

  • 00: 35: 00 Dans cette section de la vidéo, le Dr Kevin Webster discute des défis liés à l'estimation d'Alpha sans connaître l'impact lorsqu'il n'y a pas de confiance dans les données commerciales. Il suggère une solution où les transactions ne sont pas soumises au hasard pour obtenir des données impartiales, qui sont sans modèle et ne nécessitent pas de technologie de tarification. Cependant, l'inconvénient est qu'une grande partie des transactions doit être abandonnée pour obtenir un intervalle de confiance sur Alpha, ce qui pourrait ne pas être pratique pour les traders. Il propose ensuite une méthode d'apprentissage automatique pour résoudre ce problème et obtenir le même résultat avec moins de données. L'apprentissage automatique causal est applicable aux applications de trading telles que l'analyse des coûts de transaction, l'impact sur les prix et la recherche Alpha et surpasse l'économétrie traditionnelle dans les régimes de données de trading en raison de la disponibilité de données de trading approfondies et biaisées.

  • 00: 40: 00 L'orateur discute de l'incertitude fondamentale impliquée dans les tests A / B et de la façon dont l'analyse statistique joue un rôle crucial pour trouver la vérité de terrain statistiquement significative, mais pas au niveau métier par métier. Il souligne que la définition de l'impact sur les prix et l'association d'un nombre statistique à cette définition peuvent aider à lutter contre les biais de prédiction. Cependant, sans quelque chose pour combattre le biais de prédiction, l'analyse devient subjective et dépend de l'œil du spectateur. Le Dr Webster discute également des défis liés aux données publiques d'observation et de la façon dont les données interventionnelles peuvent fournir plus d'informations sur l'analyse. Il reconnaît que même s'il est difficile de répondre à cette question, les tests A/B sont une transformation courante que de nombreuses banques et courtiers adoptent.

  • 00: 45: 00 Le Dr Kevin Webster discute brièvement de la relation entre l'apprentissage par transfert et la régularisation causale. Il note qu'il existe une analogie entre les deux, car les deux impliquent de former un modèle sur un ensemble de données et d'espérer qu'il fonctionne bien sur un autre ensemble de données. Alors que l'apprentissage par transfert manque d'interprétation causale, la preuve de l'apprentissage par transfert fonctionne grâce à la validation croisée, qui s'applique également à la régularisation causale. Malgré la similitude mathématique, le Dr Webster affirme que l'interprétation causale de l'approche est assez nouvelle.
Dr. Kevin Webster: "Getting More for Less - Better A/B Testing via Causal Regularization"
Dr. Kevin Webster: "Getting More for Less - Better A/B Testing via Causal Regularization"
  • 2022.11.09
  • www.youtube.com
Abstract: Causal regularization solves several practical problems in live trading applications: estimating price impact when alpha is unknown and estimating...
 

Yuyu Fan (Alliance Bernstein) : "Exploiter le Text Mining pour extraire des informations"



Yuyu Fan (Alliance Bernstein) : "Exploiter le Text Mining pour extraire des informations"

Yuyu Fan, chercheur à Alliance Bernstein, fournit des informations précieuses sur l'application du traitement du langage naturel (TAL) et de l'apprentissage automatique pour analyser les transcriptions des appels de résultats et générer des stratégies de trading efficaces.

L'équipe de Fan a utilisé diverses techniques, notamment l'analyse des sentiments, l'analyse comptable et la notation de la lisibilité, pour filtrer plus de 200 fonctionnalités extraites des transcriptions des appels sur les revenus. Ils ont utilisé des modèles avancés comme BERT (Représentations d'encodeurs bidirectionnels de transformateurs) pour évaluer le sentiment des orateurs, en comparant le sentiment des PDG à celui des analystes. Fait intéressant, ils ont constaté que le sentiment des analystes a tendance à être plus fiable.

L'analyse a été menée à la fois sur des sections individuelles et sur des sections combinées des transcriptions, l'équipe découvrant qu'une approche axée sur le contexte surpasse une approche naïve basée sur des mots d'arrière-plan. Le signal de sentiment, en particulier pour les petites capitalisations américaines, a bien performé et a été recommandé par les équipes d'investissement.

En expliquant la méthodologie, Fan décrit comment son équipe a utilisé le filtrage quantile et le backtesting pour évaluer les performances de différentes fonctionnalités. Ils ont examiné les scores de sentiment basés sur des approches basées sur un dictionnaire ainsi que sur des approches basées sur le contexte à l'aide de BERT. L'équipe s'est également penchée sur les scores de lisibilité, qui mesurent la facilité de compréhension d'un texte, en se concentrant sur les commentaires du PDG pour identifier les corrélations potentielles avec les performances de l'entreprise.

Fan donne un aperçu du fonctionnement de BERT, mettant en évidence sa représentation d'encodeur bidirectionnelle qui capture les informations contextuelles de la gauche et de la droite d'un mot donné. L'équipe a affiné le modèle BERT pour l'analyse des sentiments en ajoutant des étiquettes de sentiment via l'auto-étiquetage et des ensembles de données externes. Leurs conclusions ont indiqué que l'analyse des sentiments basée sur le BERT surpassait l'analyse des sentiments basée sur le dictionnaire, comme le démontrent des exemples tirés des transcriptions des appels sur les revenus.

En outre, Fan discute des défis liés à la définition de seuils de précision pour l'analyse des sentiments et souligne que les performances pratiques peuvent ne pas différer de manière significative entre les niveaux de précision. Elle souligne le succès de leur signal de sentiment sur les petites capitalisations américaines, qui a conduit à sa recommandation par les équipes d'investissement. Fan mentionne également la publication d'un article détaillant les fonctionnalités de la PNL qui pourraient servir de signaux quantitatifs pour créer des stratégies de trading efficaces, avec des efforts continus pour améliorer le modèle grâce à l'augmentation des données.

La discussion s'étend pour couvrir la corrélation entre les caractéristiques PNL et les caractéristiques fondamentales et quantitatives traditionnelles, soulignant la corrélation modérée observée pour la lisibilité et la comptabilité des sentiments. Fan clarifie sa méthodologie de rendement, y compris la sélection des entreprises sur la base des dernières informations disponibles avant le rééquilibrage.

Vers la fin, Fan aborde des sujets tels que l'arbitrage du CO2, la différence entre BERT et FinBERT, et le développement d'un modèle d'utilisation financière pour BERT spécifiquement adapté aux dépôts, aux revenus et aux actualités liés à la finance. Le processus de conversion des données audio en transcriptions pour analyse est également mentionné, avec l'utilisation de services de transcription et de solutions de fournisseurs.

En résumé, les recherches de Yuyu Fan montrent la puissance de la PNL et des techniques d'apprentissage automatique dans l'analyse des transcriptions d'appels sur les revenus. L'application de l'analyse des sentiments, de l'analyse comptable et de la notation de la lisibilité, ainsi que l'utilisation de modèles avancés tels que BERT, permettent de générer des stratégies de trading efficaces. L'approche contextuelle surpasse les approches naïves et le signal de sentiment s'avère précieux, en particulier pour les petites capitalisations américaines, comme le recommandent les équipes d'investissement d'Alliance Bernstein.

  • 00:00:00 Yuyu Fan parle de l'utilisation du traitement du langage naturel (NLP) pour analyser les transcriptions des appels de résultats dans la finance. Les entreprises utilisent les appels de résultats pour partager des informations financières et commerciales avec la communauté des investisseurs, et les analystes analysent généralement les transcriptions à la recherche d'informations susceptibles d'avoir un impact sur les performances et les cours des actions des entreprises. Cependant, l'analyse manuelle des relevés de notes pour un large univers d'entreprises demande beaucoup de travail, et c'est là que les techniques de PNL et d'apprentissage automatique entrent en jeu. Ces techniques se sont avérées efficaces pour analyser les documents financiers et formuler des stratégies de trading efficaces. La recherche de Yuyu Fan s'étend au-delà des tests typiques sur les grandes capitalisations américaines pour inclure différentes capitalisations d'univers, y compris les petites capitalisations américaines et les marchés émergents. De plus, l'analyse est effectuée sur des sections individuelles ainsi que sur les sections combinées des transcriptions, et une comparaison systématique montre que l'approche contextuelle surpasse l'approche naïve des mots d'arrière-plan.

  • 00: 05: 00 Yuyu Fan discute des données utilisées pour son analyse de text mining et explique la structure des transcriptions des appels sur les revenus, qui sont composées de deux sections - la présentation et la section Q & A. Ils ont généré des fonctionnalités NLP sur chacune de ces sections individuelles ainsi que sur les sections combinées. Les trois catégories de fonctionnalités NLP générées sont les scores de sentiment, de comptabilité et de lisibilité. Ils fournissent également une méthode simple de back testing pour leur analyse. Les caractéristiques de sentiment sont ensuite divisées en deux catégories, l'une basée sur un dictionnaire et l'autre sur le contexte.

  • 00: 10: 00 Yuyu Fan d'Alliance Bernstein explique comment ils utilisent l'exploration de texte pour filtrer plus de 200 fonctionnalités générées pour trouver des signaux d'investissement robustes et performants. Ils considèrent non seulement l'exploration de données, mais aussi l'analyse fondamentale et l'intuition économique, ainsi que les recherches antérieures. Ils classent les composants par valeurs de caractéristiques et suivent les rendements mensuels pour chaque quantile afin d'évaluer les performances. La première catégorie est le nombre de mots simples, et l'une des caractéristiques est le nombre de mots de la question de l'analyste, qui a généralement des performances cohérentes avec leurs attentes antérieures, sauf pour les marchés émergents qui ont des comportements différents. Ils évaluent les performances à l'aide de mesures de base telles que le rendement annualisé et le mur et constatent que ce signal est juste correct, pas si bon.

  • 00:15:00 L'orateur explique le concept des scores de lisibilité et comment son équipe les utilise pour analyser les commentaires des PDG. Les scores de lisibilité sont une mesure utilisée pour mesurer la difficulté à lire et à comprendre un texte, en tenant compte du nombre de mots difficiles et de la longueur des phrases. Des scores plus élevés signifient que le texte est plus difficile à comprendre, et des scores plus faibles signifient qu'il est plus facile à comprendre. L'équipe de Fan a utilisé un package Python open source appelé "text stats" pour calculer les scores de lisibilité des commentaires des PDG, avec l'hypothèse que les commentaires plus faciles à comprendre sont plus susceptibles de conduire à des performances transparentes et bonnes des entreprises. L'équipe a ensuite utilisé la sélection par quantile pour évaluer différentes caractéristiques et recommander les plus performantes aux équipes d'investissement.

  • 00:20:00 Yuyu Fan d'Alliance Bernstein explique comment l'analyse des sentiments peut être utilisée pour extraire des informations des transcriptions des discours du PDG. Fan explique que les scores de sentiment peuvent être calculés à l'aide d'approches basées sur des dictionnaires, telles que l'utilisation de dictionnaires génériques ou propriétaires spécialement conçus pour la recherche financière. Les résultats montrent que l'analyse du sentiment basée sur le dictionnaire LM porte davantage de signaux d'investissement, en particulier pour les sociétés américaines à petite capitalisation. Un rééquilibrage mensuel est utilisé et les entreprises sont classées par quintiles sectoriels neutres. Les résultats pour chaque quintile sont plus différenciables lors de l'utilisation de l'analyse des sentiments, indiquant qu'un sentiment plus élevé conduit à de meilleures performances.

  • 00:25:00 Yuyu Fan d'Alliance Bernstein explique comment son équipe a utilisé l'exploration de texte pour extraire des informations et évaluer le sentiment des orateurs. Ils ont analysé les différences entre le sentiment du PDG et le sentiment des analystes, constatant que le sentiment des analystes peut être un indicateur plus fiable en raison du fait que les PDG faussent potentiellement les résultats de l'analyse par rapport à leur discours. Ils se sont également penchés sur la compréhension du langage naturel, en utilisant spécifiquement le modèle Transformer appelé BERT. BERT utilise une représentation d'encodeur bidirectionnelle, ce qui signifie qu'il prend en compte les informations environnantes à gauche et à droite pour mieux prédire la signification d'un mot spécifique dans son contexte.

  • 00:30:00 Yuyu Fan explique comment le modèle BERT (Représentations d'encodeurs bidirectionnels de transformateurs) fonctionne pour l'analyse des sentiments. La partie codeur du modèle est utilisée pour la compréhension latérale du langage (compréhension du langage sans besoin de traduction). Les représentations incorporées de cette partie du modèle peuvent représenter des informations de la phrase entière et peuvent être affinées pour créer un modèle de classification des sentiments. En utilisant des modèles BERT pré-formés et en ajoutant une tâche de classification des sentiments en aval, le réglage fin est beaucoup plus facile. Les étiquettes de sentiment sont ajoutées via l'auto-étiquetage et les étiquettes attribuées via des ensembles de données externes, et le modèle est formé pour prédire les scores de sentiment dans une plage de -1 à 1. Enfin, Fan montre que l'analyse des sentiments basée sur BERT surpasse l'analyse des sentiments basée sur le dictionnaire. analyse des sentiments avec des exemples de transcriptions d'appels sur les revenus.

  • 00: 35: 00 Yuyu Fan d'Alliance Bernstein discute de l'exploration de texte et de la façon dont un modèle BERT pré-formé peut être affiné avec des phrases d'étiquettes spécifiques pour améliorer la classification du texte financier. La large couverture de vocabulaire des jetons anglais du modèle pré-formé permet de capturer des combinaisons et de générer des mots, mais il peut ne pas capturer un langage financier spécifique. Interrogé sur les performances des phrases contenant à la fois des mots positifs et négatifs, Yuyu Fan explique que la classification peut dépendre de l'interprétation et des attentes de l'analyste, mais la phrase elle-même peut être classée comme positive si elle signale une augmentation de 10 % des revenus.

  • 00:40:00 Yuyu Fan d'Alliance Bernstein explique qu'il est difficile d'avoir un seuil strict pour la précision de l'analyse des sentiments. Bien que cela puisse faire une grande différence dans le milieu universitaire, dans les applications pratiques, cela peut ne pas faire beaucoup de différence puisqu'une précision de 90 % et une précision de 92 % peuvent conduire à des performances similaires lorsqu'elles sont agrégées au niveau de la section en utilisant la moyenne ou l'écart type. Fan explique que leur modèle a une précision d'environ 90 % sur toutes les phrases et que leur signal de sentiment fonctionne bien sur les sociétés américaines à petite capitalisation, ce qui en fait un signal que leurs équipes d'investissement recommandent d'utiliser. Fan partage également qu'ils ont publié un article avec plus de détails sur les fonctionnalités NLP qui pourraient être utilisées comme signaux quantitatifs pour former des stratégies de trading efficaces, et ils travaillent actuellement sur l'augmentation des données pour améliorer le modèle.

  • 00:45:00 Yuyu Fan, data scientist chez Alliance Bernstein, explique comment leurs caractéristiques NLP sont en corrélation avec les caractéristiques fondamentales et quantitatives traditionnelles. Ils ont constaté que les corrélations sont généralement faibles, la lisibilité et les comptes du sentiment ayant une corrélation moyenne d'environ 0,54 pour le momentum des grandes capitalisations. Elle explique également comment ils mesurent la lisibilité à l'aide de packages tels que les statistiques fiscales et effectuent des personnalisations pour leur utilisation. Fan clarifie davantage sa méthodologie de rendement, où il suit les rendements d'un mois et n'inclut que les sociétés disposant des dernières informations disponibles avant le jour du rééquilibrage, généralement après les appels de bénéfices trimestriels pour les grandes capitalisations. Enfin, elle aborde une question sur l'arbitrage du CO2 et clarifie la différence entre BERT et FinBERT, qu'ils utilisent dans leur méthode.

  • 00:50:00 Yuyu Fan discute de l'utilisation de l'exploration de texte pour extraire des informations. Elle mentionne le développement d'un modèle d'utilisation financière du modèle BERT, spécifiquement axé sur les dépôts, les revenus et les actualités liées à la finance. Le modèle fait la distinction entre les versions pré-entraînées et celles qui sont affinées, avec des étiquettes pour les probabilités de sortie positives, négatives et neutres. Fan note que la précision du modèle varie selon les différents secteurs, et ils explorent des pistes d'augmentation des données pour améliorer la classification des sentiments pour des sujets spécifiques. La section se termine par une discussion sur le processus de conversion des données audio en transcriptions pour analyse.

  • 00:55:00 Yuyu Fan d'Alliance Bernstein discute de l'utilisation de l'exploration de texte pour extraire des informations. La société utilise SMT pour les données de fournisseurs de haute qualité, ainsi que des services de transcription et des solutions de fournisseurs pour les collaborations. Ils expérimentent également un modèle appelé Whisper d'Open AI, qui utilise des modèles de transformateurs à grande échelle pour la transcription audio, y compris la transcription multilingue. Cependant, en raison de contraintes de temps, la session de questions-réponses s'arrête là.
Yuyu Fan (Alliance Bernstein): "Leveraging Text Mining to Extract Insights"
Yuyu Fan (Alliance Bernstein): "Leveraging Text Mining to Extract Insights"
  • 2022.10.26
  • www.youtube.com
Welcome to the first of the UBS and CFEM AI, Data and Analytics Speaker Series!Yuyu Fan of Alliance Bernstein spoke about "Leveraging Text Mining to Extract ...
 

Ciamac Moallemi (Colombie) : "Fourniture de liquidités et tenue de marché automatisée"



Ciamac Moallemi (Colombie) : "Fourniture de liquidités et tenue de marché automatisée"

Dans cette discussion approfondie, Ciamac Moallemi, professeur à l'Université de Columbia, plonge dans les subtilités de la fourniture de liquidités et de la tenue de marché automatisée (AMM) sous différents angles. Il souligne la pertinence des AMM pour relever les défis de calcul et de stockage auxquels sont confrontées les plateformes de blockchain et leur capacité à générer des rendements positifs pour les fournisseurs de liquidités. Pour illustrer le concept, Moallemi présente le coût de sélection adverse pour la volatilité dans UniSwap V2, révélant un coût annuel d'environ 39 000 $ sur un pool de 125 millions de dollars. Il souligne l'importance de la volatilité et du volume des transactions dans la détermination des rendements des fournisseurs de liquidité et explique comment les AMM gèrent les arbitragistes et les traders informés.

Moallemi souligne les avantages de l'utilisation des AMM sur la blockchain et explore les rôles des fonctions de valeur regroupées et des fonctions de liaison. Il souligne l'importance de la couverture des risques et des coûts associés aux stratégies de rééquilibrage. De plus, Moallemi présente son propre modèle de fourniture de liquidités et de tenue de marché automatisée, en le comparant aux données réelles de la blockchain Ethereum. Il explique comment son modèle peut potentiellement améliorer les AMM en réduisant les coûts payés aux intermédiaires. Moallemi propose diverses approches pour atténuer les inefficacités causées par des prix sous-optimaux, comme l'utilisation d'un oracle comme source de données et la vente de droits d'arbitrage aux participants autorisés, leur permettant de négocier contre le pool sans frais.

De plus, Moallemi élucide les avantages des AMM par rapport aux carnets d'ordres limités traditionnels, notamment en termes de simplicité et d'accessibilité. Il souligne comment les AMM uniformisent les règles du jeu pour les participants moins sophistiqués en éliminant le besoin d'algorithmes complexes et de ressources étendues. Moallemi conclut en exprimant son optimisme quant au potentiel de meilleures structures qui profitent à un plus large éventail de participants, positionnant les AMM comme un pas dans la bonne direction.

  • 00: 00: 00 Dans cette section, Ciamac Moallemi de l'Université Columbia discute de la fourniture de liquidités et de la tenue de marché automatisée, en se concentrant principalement sur les teneurs de marché automatisés dans le monde de la cryptographie. Il explique que le problème du trading est en grande partie résolu par les carnets d'ordres à cours limité électroniques dans la finance traditionnelle, mais il y a quelques problèmes avec l'adoption de cette structure en gros dans la cryptographie. Moallemi discute des coûts de calcul et de stockage liés à l'utilisation de la blockchain pour le trading et de la manière dont les teneurs de marché automatisés peuvent résoudre ces problèmes en utilisant des algorithmes de tarification pour citer à la fois les prix d'achat et de vente d'un actif, fournissant des liquidités au marché.

  • 00: 05: 00 Dans cette section, l'orateur discute des défis liés à l'utilisation de carnets d'ordres limités pour le trading dans un environnement avec des taux de mise à jour élevés et un calcul et un stockage limités. La création de marché nécessite la participation de teneurs de marché actifs et peut être difficile à démarrer dans le monde de la crypto-monnaie, en particulier pour les nouveaux jetons. Pour relever ces défis, les gens ont développé des teneurs de marché automatisés (AMM), qui utilisent des fournisseurs de liquidités pour mettre un pool d'actifs tels que les ETH et les dollars américains dans un pool. Ces AMM sont efficaces sur le plan informatique et ne nécessitent ni tri ni comparaison, ce qui les rend idéaux pour les environnements de blockchain. Les fournisseurs de liquidités perçoivent des frais pour les transactions contre le pool, et le prix est fixé en fonction de ce qui se trouve dans le pool.

  • 00: 10: 00 Dans cette section, Ciamac Moallemi discute de la fourniture de liquidités et de la tenue de marché automatisée (AMM) du point de vue des fournisseurs de liquidités, décrivant les coûts et les avantages de l'utilisation de systèmes AMM comme UniSwap. Moallemi explique que même si les fournisseurs de liquidité passifs peuvent gagner des frais via les systèmes AMM, il y a toujours un coût pour la tenue de marché, comme la sélection adverse. En utilisant un exemple concret d'UniSwap V2, Moallemi montre que le coût de sélection adverse pour la volatilité est généralement de trois points de base, ce qui entraîne un coût annualisé d'environ 39 000 sur un pool d'une valeur de 125 millions de dollars. Malgré le coût, Moallemi note que les systèmes AMM peuvent générer un rendement positif pour les fournisseurs de liquidités, mais il est essentiel d'évaluer avec précision les risques et les coûts impliqués.

  • 00: 15: 00 Dans cette section, Ciamac Moallemi de l'Université de Columbia discute de la fourniture de liquidités et de la tenue de marché automatisée. Moallemi met en évidence les moteurs des rendements des fournisseurs de liquidité, en particulier l'importance de la volatilité et du volume des transactions. Il décrit également un calcul au fond de l'enveloppe pour la décomposition du rendement des LP, qui comprend le rendement de la couverture, les frais de négociation et le coût du levier. Moallemi explique que le coût de levier est un coût de sélection adverse résultant du fait que les prix sont fixés sur une bourse centralisée et que les AMM se négocient à des prix inexacts, subissant un dérapage. Cela conduit à des opportunités d'arbitrage, les arbitragistes profitant du pool, ce qui entraîne un jeu à somme nulle. Les différences entre les traders avertis et les arbitragistes sont également discutées.

  • 00: 20: 00 Dans cette section, Ciamac Moallemi discute de la difficulté de mesurer le trading informé et de la manière dont la volatilité se produit, en utilisant un modèle classique de sélection adverse. Il parle également de l'interprétation des prix des options et de la commodité de travailler en temps continu en utilisant des formules de forum fermé. Moallemi mentionne d'autres sujets populaires dans le monde de la création de marché, tels que les marchés de prédiction et les teneurs de marché automatisés. Il explique ensuite comment la blockchain fonctionne comme un ordinateur, en gardant une trace des transitions et des paiements, Ethereum étant une version plus complexe et coûteuse du système. Bien qu'elle soit lente et coûteuse, la blockchain reste un élément essentiel des marchés du trading et de la prédiction.

  • 00:25:00 Dans cette section, Ciamac Moallemi discute de l'importance de la finance dans l'utilisation d'ordinateurs lents, en particulier dans les scénarios nécessitant de petites transactions ou de simples tâches de calcul. Il montre un graphique qui reflète le pourcentage de ressources dépensées sur le système Ethereum pour les applications liées à la finance, le commerce étant la sous-catégorie la plus importante et Uniswap étant le protocole ou le contrat intelligent le plus important. Bien que la plupart des échanges de crypto se produisent sur des échanges, les échanges décentralisés comme Uniswap sont également importants, avec un total d'environ un billion de dollars échangés. Moallemi présente une configuration Black-Scholes en temps continu avec une volatilité stochastique comme modèle de négociation de deux actifs, un actif risqué désigné par « x » et un actif sans risque appelé le numéraire désigné par « y », le prix du marché étant le prix de l'actif risqué au numérateur.

  • 00:30:00 Dans cette section de la vidéo, Ciamac Moallemi explique le concept de fourniture de liquidités et de tenue de marché automatisée dans le secteur financier, et leur fonctionnement. Il explique comment les rendements de ce processus sont une marche aléatoire et comment ce concept est un modèle très standard en finance. Il poursuit ensuite en expliquant le concept d'un teneur de marché automatisé en tant que teneur de marché à fonction constante, où la fonction est maintenue constante par la fonction de liaison. Les fournisseurs de liquidité contribuent aux réserves et les traders ne peuvent se déplacer que vers un autre point de la courbe, ce qui maintient la fonction constante. La pente de la ligne diagonale donne le prix instantané. Le mécanisme sait de quel inventaire il dispose pour satisfaire l'invariant et dire oui ou non aux échanges.

  • 00:35:00 Dans cette section, Ciamac Moallemi discute des avantages de l'utilisation de la tenue de marché automatisée (AMM) sur la blockchain par opposition aux échanges traditionnels comme Binance. Être sur la blockchain permet différents services tels que les prêts garantis ou l'optimisation de portefeuille, qui ne sont pas possibles sur les échanges traditionnels. De plus, le trading sur la blockchain peut être un sous-programme d'un programme informatique, une fonctionnalité non disponible sur les échanges traditionnels. Alors que les frais pour les AMM sont proportionnels à la quantité, le niveau du fournisseur de liquidité peut changer au fil du temps, affectant la répartition des frais. Le modèle de marché implique deux types de commerçants : les arbitragistes qui surveillent en permanence l'échange centralisé et le marché externe et les commerçants de bruit qui tirent profit de leur présence sur la blockchain. L'analyse suppose des fournisseurs de liquidité constants, des paiements en espèces pour les frais et ignore le temps discret par rapport au temps continu dans la blockchain.

  • 00:40:00 Dans cette section, Ciamac Moallemi explique le concept de fourniture de liquidités et de tenue de marché automatisée. Il utilise l'exemple de l'échange de x contre y et la partie la plus lente étant la vitesse à laquelle il peut être échangé. Il décrit comment le problème est mieux décrit en passant à des variables duales qui sont des prix supportant des hyperplans. Il explique que la fonction de valeur de pool est un objet critique, et l'hypothèse est faite que la fonction est lisse et deux fois continuellement différentiable. Moallemi discute également du cas du produit constant et des propriétés de la fonction de liaison, que les arbitragistes sont incités à équilibrer. Les arbitragistes surveillent constamment le marché, laissant le moins de valeur dans le pool pour gagner le plus d'argent possible.

  • 00: 45: 00 Dans cette section, Ciamac Moallemi de l'Université de Columbia discute des ingrédients clés nécessaires à la fourniture de liquidités et à la tenue de marché automatisée, y compris la stratégie de rééquilibrage et l'utilisation de l'arbitrage. La stratégie de rééquilibrage consiste à acheter et à vendre des actifs risqués de la même manière que les arbitragistes, mais en négociant sur la bourse centralisée à des prix équitables. Le théorème de la perte de levier par rapport au rééquilibrage caractérise le processus comme non négatif, non décroissant et prévisible, montrant que les valeurs de réserve du pool perdent systématiquement de l'argent par rapport à la négociation en bourse. Ces ingrédients clés sont importants pour un apport de liquidités et une tenue de marché efficaces.

  • 00:50:00 Dans cette section, Ciamac Moallemi discute des risques et des coûts associés à la stratégie de rééquilibrage et de la manière dont ils peuvent potentiellement être couverts. Il explique que la variation instantanée de la valeur d'un portefeuille a deux composantes : la première composante est le risque de marché, ce qui signifie qu'il est exposé au marché, tandis que la seconde composante est localement sans risque et prévisible, mais elle a un coût de fonctionnement systématique. Moallemi décompose en outre la formule du levier instantané et la manière dont il est affecté par la variance instantanée et la quantité de liquidités disponibles au niveau de prix actuel. Il démontre également comment la formule peut être appliquée au créateur de marché de produits constants.

  • 00:55:00 Dans cette section, Moallemi explique que la valeur du pool ne tombera jamais à zéro, mais qu'elle peut devenir moins précieuse qu'une alternative. La stratégie de rééquilibrage peut systématiquement gagner de l'argent au fil du temps, car elle vend lorsque les prix montent et achète lorsque les prix baissent. De plus, Moallemi discute des hypothèses du modèle, déclarant que pour les pools les plus liquides, il est raisonnable de supposer un marché externe, mais pour la longue traîne, ce n'est pas une bonne hypothèse. Cependant, le modèle est toujours utile en tant que modèle prédictif et donne une tarification cohérente. Moallemi explique ensuite une façon d'utiliser le modèle comme modèle prédictif, en examinant les frais perçus par le LP et l'évolution de la valeur du pool, et en couvrant le risque de marché avec des opérations de rééquilibrage négatives sur la finance.

  • 01:00:00 Dans cette section, Ciamac Moallemi de l'Université de Columbia discute des résultats empiriques de son modèle d'apport de liquidités et de tenue de marché automatisée. Il compare les profits et pertes couverts (P&L) de l'utilisation de sa formule aux données réelles de la blockchain Ethereum, et constate qu'ils sont proches, indiquant que son modèle est correct. Il examine ensuite la volatilité quotidienne et les fluctuations du P&L d'un exemple de pool Uniswap avec 200 millions de dollars en pièces. Les fluctuations du P&L sont dues au risque de marché, et Moallemi démontre qu'elles peuvent être couvertes à l'aide de sa formule, ce qui se traduit par un rendement positif et un ratio de Sharpe élevé, même s'il ne s'agit pas nécessairement d'une stratégie lucrative en raison des coûts de négociation et de financement. Il suggère que cet outil peut être utilisé pour améliorer les teneurs de marché automatisés en réduisant les coûts payés aux intermédiaires.

  • 01:05:00 Dans cette section, Ciamac Moallemi discute des moyens d'atténuer les inefficacités causées par les mauvais prix dans la fourniture de liquidités et la tenue de marché automatisée. Il suggère d'utiliser un oracle comme source de données pour prendre les prix d'échanges comme Binance afin d'incorporer des prix externes dans des contrats intelligents et d'empêcher les échanges hors marché. De plus, Moallemi présente l'idée de vendre des droits d'arbitrage à des participants autorisés qui peuvent négocier contre le pool sans payer de frais, en leur donnant la priorité pour profiter des plus petits écarts de prix et gagner de l'argent. Ces participants reverseraient une partie de leurs bénéfices au LPS pour aider à atténuer les mauvais prix et garantir que les LP et les commerçants de bruit bénéficient de la stratégie. Moallemi répond également aux questions sur la mise en œuvre des AMM pour négocier sur Binance et la vente à découvert sur les marchés de la cryptographie. Il note que la vente à découvert peut être coûteuse en raison des coûts de financement et que le volume et la volatilité sont fortement corrélés, ce qui peut rendre risquée la stratégie consistant à être long en volume mais à court de volatilité.

  • 01:10:00 Dans cette section, Moallemi explique les problèmes liés au protocole de demande de devis (RFQ) dans les contrats intelligents, car il nécessite d'attendre que les autres répondent, ce qui rompt l'atomicité des contrats intelligents. Cependant, une alternative indirecte populaire, appelée liquidité juste à temps, peut être utilisée pour anticiper et fournir des liquidités aux grosses commandes avant qu'elles n'aient été traitées. Moallemi explique également comment les teneurs de marché traditionnels couvrent leur risque et détiennent des actions pendant de courtes périodes avant de vendre, tandis que les fournisseurs de liquidités doivent également se couvrir pour gérer le risque de marché. Le modèle de pool de liquidité fonctionne mieux dans les crypto-monnaies car elles ont des ordinateurs lents et un grand nombre de pièces disponibles.

  • 01:15:00 Dans cette section, l'intervenant évoque les avantages des teneurs de marché automatisés (AMM) par rapport aux carnets d'ordres limités, notamment en termes de simplicité et d'accessibilité. Ils expliquent que la nature complexe des carnets d'ordres limités les rend difficiles à utiliser pour les teneurs de marché et même les commerçants sans algorithmes et une armée de PHD, créant des conditions plus équitables pour les investisseurs institutionnels qui utilisent également des algorithmes. Cependant, les AMM simplifient le processus, permettant aux participants moyens d'en bénéficier sans avoir besoin de connaissances ou de ressources approfondies. L'orateur voit un potentiel pour de meilleures structures qui profitent aux participants moins sophistiqués, faisant des AMM un pas dans la bonne direction.
Ciamac Moallemi (Columbia): "Liquidity Provision and Automated Market Making"
Ciamac Moallemi (Columbia): "Liquidity Provision and Automated Market Making"
  • 2022.09.14
  • www.youtube.com
Abstract: In recent years, automated market makers (AMMs) and, more specifically, constant function market makers (CFMMs) such as Uniswap, have emerged as t...
 

Andreea Minca (Cornell ORIE) : Regroupement de réseaux financiers hétérogènes



Andreea Minca (Cornell ORIE) : Regroupement de réseaux financiers hétérogènes

La professeure Andreea Minca, experte renommée dans le domaine des réseaux financiers à Cornell ORIE, a consacré ses recherches à l'exploration des complexités du regroupement de réseaux financiers hétérogènes. Elle introduit un terme de régularisation innovant pour relever les défis uniques posés par ces réseaux, en particulier la présence de valeurs aberrantes avec des modèles de connexion arbitraires. Ces valeurs aberrantes entravent les performances des algorithmes de clustering spectral et transforment le clustering en un problème de calcul difficile connu sous le nom de problème combinatoire NP-difficile.

Pour identifier ces valeurs aberrantes en fonction de leurs modèles de connexion, Minca utilise le modèle de bloc stochastique et le modèle de bloc stochastique corrigé en degré. Ces modèles offrent des garanties théoriques pour une récupération précise sans faire d'hypothèses sur les nœuds aberrants, sauf pour connaître leur nombre. L'hétérogénéité inhérente aux réseaux financiers complique davantage la détection des valeurs aberrantes basée uniquement sur les degrés de nœud.

Minca se penche sur le processus de partitionnement du réseau en clusters et en valeurs aberrantes en construisant une matrice de partition et une permutation de nœuds. Elle illustre cette approche en l'appliquant à l'analyse du système bancaire coréen. De plus, Minca utilise un échantillonneur Gibbs pour combler les lacunes du réseau, permettant une répartition efficace des risques et une diversification des investissements en regroupant les portefeuilles qui se chevauchent en fonction de leur force et de leur niveau de chevauchement.

Dans son travail, Minca souligne l'importance de générer des clusters qui présentent une inter-connectivité significative plutôt que des clusters sans connectivité. Elle propose une approche qui offre cinq alternatives de diversification dans un cadre de parité des risques de cluster, soulignant la nécessité d'une attention particulière lors de l'utilisation d'algorithmes de clustering pour parvenir à la diversification des réseaux financiers. Minca conseille de quantifier les performances des algorithmes de clustering à l'aide de catégories d'investissement standard et souligne l'importance d'une prise de décision éclairée lors de l'utilisation de ces techniques.

Dans l'ensemble, les recherches du professeur Andreea Minca fournissent des informations précieuses sur les subtilités du regroupement de réseaux financiers hétérogènes, offrant des approches innovantes et des solutions pratiques pour relever les défis associés à ces réseaux. Son travail contribue à l'avancement de l'analyse des risques, de la sélection de portefeuille et de la compréhension de la dynamique structurelle des systèmes financiers.

  • 00:00:00 Le professeur Andreea Minca discute de son travail sur le développement d'algorithmes pour regrouper les réseaux financiers sur la base de deux exemples différents. Le premier exemple concerne les réseaux de portefeuilles qui se chevauchent avec des applications dans la sélection de portefeuille, et le deuxième exemple concerne le réseau d'expositions, qui est lié à l'analyse du risque systémique et à la compréhension du niveau de risque dans le réseau. L'objectif est de faire correspondre les algorithmes de clustering aux réseaux financiers et de créer des clusters significatifs qui sont vulnérables à l'illiquidité ou au défaut dans une institution. Plus les clusters sont grands, plus l'impact potentiel du stress sur un membre de ce cluster est important, ce qui souligne l'importance de comprendre les structures des réseaux financiers.

  • 00:05:00 Andreea Minca discute des défis du regroupement des réseaux financiers, qui sont communs à tous les réseaux du monde réel. Le problème du regroupement existe parce que les nœuds ont tendance à former des groupes où la connectivité intra-groupe est plus grande que la connectivité inter-groupe. Il existe différents algorithmes de clustering, mais l'hétérogénéité des réseaux financiers pose un défi car les réseaux financiers présentent une hétérogénéité en termes de degrés, de poids et de connectivité intercommunautaire différente. De plus, la présence de valeurs aberrantes rend difficile l'application d'algorithmes prêts à l'emploi, car ils peuvent avoir les mêmes modèles de connexion que les nœuds en ligne, mais ils ne peuvent pas être traités comme un cluster à eux seuls. Plusieurs problèmes affectent le regroupement des réseaux financiers, ce qui rend difficile l'application des algorithmes existants.

  • 00:10:00 Andreea Minca de Cornell ORIE discute des défis rencontrés lors du regroupement de réseaux financiers hétérogènes et de l'introduction d'un nouveau terme de régularisation pour les surmonter. L'un des principaux défis est la présence de valeurs aberrantes qui ont des modèles de connexion arbitraires et se comportent comme des adversaires, entravant les performances des algorithmes de clustering comme le clustering spectral. Le problème de clustering lui-même est un problème combinatoire NP-difficile, qui peut être assoupli pour un programme semi-défini qui a des algorithmes traitables. L'objectif est de prouver que certaines conditions sont remplies pour la récupération des vrais clusters, et le terme de régularisation introduit pénalise les valeurs aberrantes avec des modèles de connexion inhabituels.

  • 00: 15: 00 Andreea Minca discute de l'application du modèle de bloc stochastique et du modèle de bloc stochastique corrigé en degrés pour détecter les modèles de regroupement dans les réseaux financiers hétérogènes. L'objectif est de détecter les valeurs aberrantes en fonction de leurs modèles de connexion. Les garanties théoriques fournies assurent une récupération exacte sans faire d'hypothèses sur les nœuds aberrants, sauf pour connaître leur nombre. Les conditions d'écart de densité sont basées sur la différence entre la densité de bord inter-cluster et intra-cluster. Les résultats sont plus robustes que ceux de la littérature précédente car ils sont indépendants du nombre de valeurs aberrantes et ne dépendent que du nombre de valeurs inliers. L'hétérogénéité des réseaux financiers rend difficile la détection des valeurs aberrantes en fonction des degrés, car les nœuds peuvent avoir des degrés élevés en raison de la structure des nœuds dans le même cluster.

  • 00:20:00 Andreea Minca explique le concept d'hétérogénéité dans les réseaux financiers et comment il affecte les algorithmes de clustering. Elle utilise l'exemple du système bancaire coréen pour illustrer comment les banques et les compagnies d'assurance d'un même secteur peuvent présenter une hétérogénéité et ne doivent pas être classées comme des valeurs aberrantes. Minca note que la distribution de degrés à queue lourde dans les réseaux financiers nécessite un examen attentif des modèles de connectivité et des contributions aux limites de la plage de degrés de chaque nœud. Elle souligne également la nécessité de termes de pénalité dans l'algorithme qui tiennent compte du degré puisqu'une pénalisation homogène ne peut pas être utilisée pour tous les nœuds. Enfin, Minca décrit les principes fondamentaux du modèle de clustering, qui comprend la spécification des paramètres d'hétérogénéité et des matrices de connectivité pour chaque cluster.

  • 00: 25: 00 Andreea Minca discute des défis du regroupement en présence de valeurs aberrantes lors de l'utilisation de méthodes de regroupement prêtes à l'emploi. L'objectif de la détection des valeurs aberrantes est de déclencher une alerte rouge sans entraver le regroupement lui-même ou entraver par erreur la classification des notes en couche. En ajustant la connectivité à travers les paramètres d'hétérogénéité, la matrice de contiguïté peut être écrite d'une manière qui correspond à la matrice de contiguïté de la première valeur aberrante pour trouver la matrice de permutation qui mappe de l'image observée à la structure sous-jacente des clusters et des valeurs aberrantes. Ces ajustements permettent de s'adapter à de nombreux choix de modélisation dans les réseaux financiers.

  • 00:30:00 Dans cette section de la vidéo, Andreea Minca explique le processus de recherche d'une matrice de partition et de permutation de nœuds pour identifier la structure des clusters et des valeurs aberrantes dans les réseaux financiers. L'algorithme est basé sur la recherche d'une matrice de partition qui indique quels nœuds appartiennent au même cluster, tandis que les entrées arbitraires représentent les valeurs aberrantes. Pour illustrer le concept, Minca montre un exemple de réseau financier coréen, où le but de l'algorithme est de déterminer l'identification correcte de chaque secteur présent dans le réseau.

  • 00:35:00 Andreea Minca, professeur à Cornell ORIE, parle de son travail de création de réseaux semi-synthétiques et de tests d'algorithmes. Elle explique qu'elle crée un réseau basé sur les données publiées par la Banque de Corée sur la taille des actifs et des passifs pour toutes les institutions financières et les relie sur la base d'un flux agrégé de n'importe quelle compagnie d'assurance vers n'importe quelle banque. Elle utilise ensuite un algorithme de maximisation de la modularité pour identifier quelles institutions financières appartiennent à quel secteur en fonction du modèle de connectivité observé. L'algorithme introduit également un paramètre de réglage et une contrainte de matrice de partition pour minimiser la différence de modularité.

  • 00:40:00 Andreea Minca explique le défi de la recherche de matrices de partition dans le regroupement de réseaux financiers hétérogènes, qui est un problème insoluble en raison d'une contrainte spécifique. Pour surmonter cela, une relaxation du problème est introduite où les entrées de la matrice sont comprises entre 0 et 1, et elle est semi-définie positive. L'hétérogénéité du problème est abordée par des termes de pénalité, où une pénalité sur le terme diagonal pénalise les valeurs aberrantes potentielles dont le degré est au-delà de la variation normale. Deux paramètres de réglage contrôlent la force de la pénalisation diagonale et sont déterminés par le degré observé des nœuds, permettant l'identification des valeurs aberrantes et celles ayant une forte appartenance à la communauté. L'exemple de l'industrie coréenne utilisé dans la vidéo est un instantané des expositions dans le réseau coréen, et il n'y a pas de composante de série chronologique.

  • 00: 45: 00 Andreea Minca de Cornell ORIE discute du regroupement de réseaux financiers hétérogènes et de la manière de recréer des exemples de réseaux cohérents avec les valeurs agrégées en utilisant un échantillonneur Gibbs pour combler les lacunes. Les performances de l'algorithme peuvent être testées via le taux d'erreur de classification et la probabilité de récupération, qui tend vers un à une certaine vitesse à mesure que la taille de l'échantillon devient grande. En utilisant le secteur coréen comme exemple, Minca montre comment la matrice de connectivité peut représenter la probabilité de connexion entre différents secteurs et comment les résultats de regroupement sont obtenus à partir de la matrice.

  • 00: 50: 00 Andreea Minca discute du défi d'identifier le bon secteur financier pour chaque institution dans un réseau en fonction de leurs modèles de connectivité. Elle explique qu'un algorithme doit être robuste à l'hétérogénéité de la connectivité et que les taux de mauvaise classification sont utilisés comme critère de performance. Minca compare les taux d'erreur de classification de l'algorithme qu'elle a présenté et d'autres algorithmes existants, soulignant que l'algorithme basé sur le regroupement spectral est le moins performant. Cela souligne la nécessité de modifier les algorithmes existants pour tenir compte des problèmes rencontrés par les réseaux financiers. De plus, Minca aborde brièvement les applications de l'algorithme dans la gestion de portefeuille d'investissement. En recréant un réseau de portefeuilles qui se chevauchent, les forces d'interaction des institutions peuvent être mesurées en fonction de leurs avoirs en portefeuille, et cela pourrait potentiellement aider à la prise de décision en matière d'investissement.

  • 00: 55: 00 Andreea Minca discute de l'algorithme de regroupement et de la manière dont il peut être appliqué à des portefeuilles financiers qui se chevauchent pour répartir efficacement les risques et diversifier les investissements. En regroupant les portefeuilles en fonction de leur force et de leur niveau de chevauchement, l'algorithme est capable de récupérer cinq clusters qui se sont agrandis au cours d'une décennie, indiquant un chevauchement accru. Cela fournit un outil pour générer des clusters qui sont plus efficaces que les autres méthodes de clustering existantes. De plus, Minca explique comment un algorithme supplémentaire comble les lacunes de l'exemple coréen et crée des réseaux individuels cohérents avec les données agrégées du gouvernement.

  • 01:00:00 Andreea Minca discute de la question de la diversification par le biais d'algorithmes de clustering pour les réseaux financiers. Elle montre qu'avoir un cluster avec une connectivité inter-cluster extrêmement élevée et un autre sans connectivité ne permettrait pas la diversification. Au lieu de cela, elle présente une approche qui identifie cinq alternatives de diversification dans le cadre d'une approche de parité des risques du cluster. Elle répond également aux questions sur la prépublication de son travail, la disponibilité d'un outil et la sensibilité de l'algorithme au nombre de clusters, tout en suggérant également l'utilisation de catégories d'investissement standard pour quantifier les performances des algorithmes de clustering.

  • 01:05:00 Andreea Minca discute du sujet des algorithmes de clustering et de la récupération des clusters, en utilisant l'exemple de la récupération de cinq clusters à partir de cinq stratégies d'investissement. Elle note également qu'il peut être difficile de comparer les résultats de clustering de différents choix sans une bonne connaissance du domaine ou des hypothèses sur le nombre de clusters. Cependant, il n'existe pas de résultats théoriques à ce sujet, ce qui souligne l'importance de prendre des décisions éclairées lors de l'utilisation d'algorithmes de clustering.
Andreea Minca (Cornell ORIE): Clustering Heterogeneous Financial Networks
Andreea Minca (Cornell ORIE): Clustering Heterogeneous Financial Networks
  • 2022.04.27
  • www.youtube.com
Abstract: For the degree corrected stochastic block model in the presence of arbitrary or even adversarial outliers, we develop a convex-optimization-based c...