定量的取引 (Quantitative trading) - ページ 32

 

Two Sigma が定量金融におけるシーケンスのための深層学習を発表 David Kriegman


Two Sigma が定量金融におけるシーケンスのための深層学習を発表 David Kriegman

プレゼンテーションでは、講演者がイベントを紹介し、金融分野に科学的手法を適用する有名な金融科学企業である Two Sigma についての背景情報を提供します。彼らは、ツー シグマがクオンツ ヘッジ ファンド、ブローカー ディーラー サービス、個人投資、保険、投資家向けソリューションなど、金融セクター内の複数の事業にわたって活動していることを強調しています。講演者は聴衆の背景の多様性を強調し、この講義があらゆる専門レベルの個人に対応し、深層学習が量的金融にどのように効果的に適用できるかを示していることを示しています。注目すべき点として、トゥー シグマは世界中で約 1600 人の専門家を雇用しており、そのうち 600 人が高度な学位を取得し、200 人以上が博士号を取得していると述べています。

次に、講演者はシーケンスの深層学習の概念を紹介し、過去 10 年間にわたるさまざまなアプリケーションに対するその概念の影響を説明します。感情分類、ビデオアクティビティ認識、機械翻訳などの例が提供されています。講演者は、シーケンス処理タスクには、シーケンスを入力として受け取り、出力としてシーケンスを生成することが含まれ、長さはさまざまであると説明します。具体的には、過去のシーケンスを使用して株式市場価値を予測する際のディープラーニングの応用について説明します。講演者は、収益性を最大化するために最高点と最低点の両方を予測することの重要性を強調しました。

次に講演者は、投資決定に関わる一連のプロセスを含む、金融における典型的な定量的投資パイプラインについて詳しく説明します。これらは、パイプラインの 2 つの主要な段階、アルファ モデリングと特徴抽出の概要を示しています。アルファ モデリングには、平均回帰モデルまたはモメンタム モデルを使用して株価の方向を予測することが含まれます。特徴抽出では、価格、出来高、買値と買値のスプレッドなどの技術的特徴を市場から抽出することに重点を置いています。講演者は、これらのプロセスが最終的に市場での売買に関する意思決定につながり、最終的な目標は利益を生み出し、損失を最小限に抑えることであると強調しました。彼らは感情的な意思決定を避けることの重要性を強調し、金融の分野におけるポートフォリオを多様化することの重要性を強調しています。

続いて、トゥー シグマのデビッド クリーグマンが壇上に上がり、株式取引において情報に基づいた意思決定を行う上で重要な役割を果たす要因について話し合います。最初に強調されている要素は、企業からの直接の報告を通じて入手できる、または公開情報から推測できる基本データの収集です。さらに、感情分析は、ニュース、ソーシャルメディア、アナリストのコメントなどのソースから得られる非構造化データを解釈することによって実行できます。講演者は、特定の銘柄のパフォーマンスを示す可能性のある情報を収集するために、駐車場の車の台数や港のコンテナ船の混雑状況など、従来とは異なる情報源を利用するというアイデアを紹介しました。アルファ モデルを使用して株価パフォーマンスを予測した後、パイプラインの次のステップにはポートフォリオの最適化が含まれます。このステップでは多くの場合、大規模な最適化問題を解決し、現在の株式保有状況、予測の信頼性、分散要件、関連する取引コストなどの要素を考慮する必要があります。最後に、実行フェーズでは、これらのアクションの潜在的な影響を理解するためのモデルを活用して、注文のサイズ、配置、種類に関する決定を行います。

ディープラーニングの話題に戻り、講演者は定量的金融の意思決定パイプラインの逐次的な性質を強調しました。その後、彼らは深層学習に焦点を移し、それを複数の層によって特徴付けられる一種のニューラル ネットワークとして説明します。講演者は、新しいネットワーク アーキテクチャの出現、大規模なトレーニング データセットの利用可能性、並列計算の進歩など、1950 年代の最初の導入以来のニューラル ネットワークの重要な発展について説明します。単一のパーセプトロンの背後にある基本的な考え方を説明するために、講演者は、パーセプトロンがどのように入力を受け取り、加重和を計算し、その結果を非線形関数に渡すのかを説明します。彼らは、従来の活性化関数であるしきい値が、しきい値未満の値にはゼロを出力し、しきい値よりも高い値には実際の値を出力する、整流線形単位 (ReLU) と呼ばれる代替関数に置き換えられたと述べています。

ニューラル ネットワークの話題を続けて、講演者は多層パーセプトロンの概念を紹介します。このアーキテクチャでは、各円は独自の活性化関数と重みのセットを持つパーセプトロンを表します。これは 1 対の重み行列で表すことができ、より大規模なネットワークの作成が可能になります。講演者は続けて、アルファ モデリング、特に過去の業績に基づいた株価の予測におけるニューラル ネットワークの応用について説明します。ネットワークは、総損失を最小限に抑えるという最適化目標を持って、機能と価格データの両方を含む一連のトレーニング データを使用してトレーニングされます。このトレーニング プロセスには、バックプロパゲーションや確率的勾配降下法などのさまざまな手法が含まれます。

アルファ モデルをさらに強化するために、講演者は、価格や過去の履歴などの単一のシグナルに依存するのではなく、複数の機能を組み込むことの重要性を説明します。関連するすべての機能を組み合わせることで、より強力で正確なモデルを作成できます。ただし、このアプローチで完全に接続されたネットワークを利用すると、重みの数が非常に多くなり、すべてを効果的にトレーニングすることができないため、次元の呪いとして知られる問題が発生する可能性があります。この課題を克服するために、講演者はリカレント ニューラル ネットワーク (RNN) と呼ばれる別のクラスのシーケンス処理ネットワークを紹介します。これらのネットワークは記憶の側面を導入し、情報を逆方向にフィードして、各時点の状態を構築します。その結果、過剰な数のウェイトの問題が軽減されます。 RNN では、重みが各要素間で共有されるため、ネットワークが深くなり、扱いやすいソリューションが提供されます。

講演者は、ディープ ネットワークのトレーニングの難しさと、ゲート付きリカレント ユニット (GRU) や長短期記憶 (LSTM) ネットワークなどのゲート型ネットワークがこれらの課題にどのように対処するかを強調します。ゲート型ネットワークには、情報の流れを制御し、以前の状態を潜在的な新しい状態で更新できるアナログ ゲートが組み込まれています。これらのネットワークのコンポーネントは微分可能であるため、バックプロパゲーションを使用してトレーニングすることができます。 LSTM と比較して、GRU はより長いメモリ容量を備えています。

講演者は、シーケンスの深層学習で使用されるさまざまなアーキテクチャについて説明し、LSTM および GRU ネットワークに加え、畳み込みニューラル ネットワーク (CNN)、アテンション メカニズム、トランスフォーマーなどの最近の開発について紹介します。また、取引や市場の相互作用などの一連の意思決定プロセスを最適化する強化学習についても触れています。強化学習はゲームでは成功を収めていますが、それを金融に適用するには、適切なシミュレーター、堅牢なソフトウェア インフラストラクチャ、および大量の計算リソースが必要です。全体として、講演者は、議論されたさまざまなアーキテクチャとモデルが定量的金融のための強力なツールを表しており、それぞれに独自の利点と課題があることを強調しました。

David Kriegman の寄稿に戻り、彼は量的金融で使用されるパイプラインと、そのさまざまな部分を実装するためにディープ ニューラル ネットワークをどのようにトレーニングできるかについて光を当てています。同氏は、毎日数千の株式を取引し、何億件もの意思決定を行うツー シグマの広範な業務を強調しています。このような膨大な量のデータを処理するには、相当な計算能力、堅牢なソフトウェア インフラストラクチャ、創造的な個人のチームが必要です。ディープ ニューラル ネットワークに関連する説明可能性と解釈可能性の欠如、および戦略開発への影響についての懸念に対処して、クリーグマン氏は、特定のアーキテクチャでは解釈可能な表現が導入される可能性があると説明しています。同氏はまた、急速に変化する取引シナリオでは異なる分配が必要になることも強調している。さらに、トゥー シグマには、極端な市場イベント中にシステムを監視および実装する人間のトレーダーが組み込まれています。

講演者は、深層学習アプローチが量的金融における効率的な市場の仮説とどのように相互作用できるかについて説明します。一般に市場は効率的であると考えられていますが、ディープラーニングは情報への迅速な対応を促進し、データを吸収する代替方法を提供し、非効率性や投資機会を特定できる可能性があります。また、特に非構造化データから特徴を抽出する初期段階において、金融分野における逐次モデリングにおけるコンピューター ビジョン技術の関連性も強調しています。ツー シグマでは、エンジニアリングとモデリングの役割を担える人材を積極的に募集しています。さまざまな役割がさまざまなチームに合わせて行われますが、ディープ ラーニングの適用は組織全体に浸透しています。最近大学を卒業した人および修士レベルの応募者は、Two Sigma の Web サイトから応募することをお勧めします。

Q&A セッションでは、講演者がディープラーニングを量的金融に適用することに関連するいくつかの課題について説明します。大きな課題の 1 つは、未来が過去に似ているときにディープ ラーニング モデルが最もパフォーマンスを発揮するため、財務時系列に定常性がないことです。この問題に取り組むために、講演者は、ドメイン移管方法の導入をシミュレーションおよび予測し、変化する市場状況にモデルを適応できるようにすることの重要性を強調しました。さらに、講演者は、クオンツ・ファイナンスにおけるエラー率は他の分野に比べて一般に高く、50% をわずかに上回るだけでもトレーディングにおいて大きな優位性が得られる可能性があると述べています。

量的金融への有望な影響について尋ねられたとき、講演者は、ディープラーニングとニューラルネットワークのほぼすべての研究分野に有望な影響があると述べました。特に、強化学習とドメイン転送が関心のある分野として強調されています。さらに、彼らは金融におけるデータストレージの課題を認識しており、データ圧縮技術がこれらの問題に対処するのに役立つ可能性があることを示唆しています。

講演者は、量的金融におけるディープラーニング モデルの実装を担当するエンジニアリング チームの話題を広げ、チームがストレージ管理、物理システム、およびそれらのシステム上に構築されたレイヤーなどのさまざまなタスクに取り組んでいることを説明しました。彼らは、深層学習モデルと統計モデリングの両方が特定のユースケースに応じて役割を持つことを強調しています。しかし、彼らは、深いモデルが線形回帰の退化した形式に還元されると、その本質的な興味と力を失うと指摘しています。

このプレゼンテーションでは、特にシーケンス処理と意思決定パイプラインのコンテキストにおける、量的金融におけるディープラーニングの応用を強調しています。この領域では、解釈可能性の必要性、非定常性への対処、多様なアーキテクチャの活用など、このドメインでディープ ニューラル ネットワークを利用する際に生じる課題と機会を浮き彫りにしています。プレゼンテーション全体を通じて、ツー シグマは、業務にディープラーニング技術を積極的に取り入れ、チームに加わる有能な人材を積極的に探している著名な企業として紹介されています。

  • 00:00:00講演者はイベントを紹介し、金融に科学的手法を適用する金融科学会社である Two Sigma についての背景を説明します。彼らは、同社がクオンツヘッジファンド、ブローカーディーラー、個人投資、保険、投資家向けソリューションなど、金融分野でさまざまな事業を展開していると説明している。彼らはまた、聴衆の背景の多様性について語り、ディープラーニングを量的金融にどのように応用できるかについて、あらゆるレベルでアイデアを提供する講義になると強調した。最後に、世界中で 1,600 人が Two Sigma で働いており、そのうち 600 人が高度な学位を取得し、200 人以上が博士号を取得していると述べています。

  • 00:05:00講演者は、シーケンスの深層学習の概念と、それが過去 10 年間に感情分類、ビデオ アクティビティ認識、機械翻訳などのさまざまなアプリケーションにどのような影響を与えてきたかを紹介します。彼は、シーケンス処理タスクはシーケンスを入力として受け取り、同じ長さまたは異なる長さのシーケンスを出力として生成すると説明します。講演者は、過去のシーケンスを使用した株式市場価値の予測についても話し、より多くのお金を稼ぐために高値と安値の両方を予測することの重要性を強調しています。

  • 00:10:00講演者は、投資決定を行うための一連のプロセスを含む、金融における典型的な定量的投資パイプラインについて説明します。これには、平均回帰モデルまたはモメンタム モデルを通じて株価の方向を予測するアルファ モデリングと、価格、出来高、買呼値スプレッドなどの技術的特徴を含む特徴抽出が含まれます。パイプラインは最終的に、損失を出さずに利益を上げることを目的として、市場での売買に関する意思決定につながります。講演者は、金融における感情的な意思決定を回避し、ポートフォリオを多様化することの重要性を強調しています。

  • 00:15:00 Two Sigma の David Kriegman は、株式取引で意思決定を行う際に考慮すべきさまざまな要素を紹介します。 1 つ目は、企業から直接報告されるか、公開情報に基づいて推測できる基本的なデータを収集することです。さらに、感情分析は、ニュース、ソーシャルメディア、アナリストのコメントなどのソースからの非構造化データを解釈することによって実行できます。駐車場の車の数や港でバックアップされているコンテナ船の数など、従来とは異なる情報源からも、特定の銘柄のパフォーマンスに関する情報が得られる場合があります。アルファ モデルを使用して株価パフォーマンスを予測した後、次のステップはポートフォリオを最適化することです。これは大規模な最適化問題を通じて処理されることが多く、すでに保有している株式の量、予測の信頼性、分散投資のあり方、および取引に関連するコストを決定する必要があります。最後に、実行は注文のサイズ、配置、種類に関する決定が行われる最後のステップであり、実行されたアクションの影響を理解するためにモデルが使用されます。

  • 00:20:00講演者は、特徴抽出、アルファ モデリング、実行など、クオンツ ファイナンスにおける売買意思決定のパイプラインを紹介し、プロセスの逐次的な性質を強調します。その後、焦点はディープ ラーニングに移ります。ディープ ラーニングは、多数の層を特徴とするニューラル ネットワークの一種です。講演者は、新しいネットワーク アーキテクチャ、大量のトレーニング データ、大規模な並列計算など、1950 年代に初めてニューラル ネットワークが導入されて以来起こった主な変化について説明します。次に話者は、入力を受け取り、結果を非線形関数に渡す前に重み付けされた合計を計算する、単一のパーセプトロンの基本的な考え方を説明します。従来の活性化関数はしきい値でしたが、整流線形単位 (ReLU) と呼ばれる代替関数に置き換えられました。この関数は、しきい値未満の値には 0 を出力し、それ以外の場合は実際の値を出力します。

  • 00:25:00講演者は、多層パーセプトロンの概念を紹介します。各円は、独自の活性化関数と重みのセットを持つパーセプトロンを表します。これは 1 対の重み行列で表すことができ、より大規模なネットワークの作成が可能になります。次に、講演者は、過去のパフォーマンスに基づいて株価を予測するためのアルファ モデリングのためのニューラル ネットワークの使用について説明します。ネットワークは、総損失を最小限に抑えるという最適化目標を持って、機能と価格データを含む一連のトレーニング データを使用してトレーニングされます。これは、バックプロパゲーションや確率的勾配降下法などの一連のトレーニング手法によって実現されます。

  • 00:30:00スピーカーは、価格や過去の履歴などの 1 つのシグナルだけではなく、複数の特徴を使用してアルファ モデルを構築する方法について説明します。関連するすべての機能を取り出して組み合わせることで、より強力なモデルを作成できます。ただし、このアプローチで完全に接続されたネットワークを使用すると、重みの数が非常に大きくなり、すべてをトレーニングできるわけではないため、問題が発生します。この問題を解決するために、講演者はリカレント ニューラル ネットワークとして知られる別のクラスのシーケンス処理ネットワークを導入しました。これらのネットワークはメモリの側面を導入し、情報を逆方向にフィードして、各時点で状態を構築し、その結果、重みが多すぎる問題を軽減します。これらのネットワークの重みは各要素間で共有されるため、このネットワークが深くなり、扱いやすいソリューションが提供されます。

  • 00:35:00講演者は、ディープ ネットワークのトレーニングの難しさと、GRU や LSTM などのゲート ネットワークが情報をさらに遡って伝播できるようにすることでこれらの問題にどのように対処できるかについて説明します。ゲート型ネットワークはアナログ ゲートを使用して、通過する情報の量を制御し、以前の状態を潜在的な新しい状態で更新します。ゲートネットワークのコンポーネントは微分可能であるため、バックプロパゲーションを介してトレーニングできます。 GRU は、LSTM (長期短期記憶) と比較して長いメモリを備えています。

  • 00:40:00講演者は、LSTM や GRU ネットワークを含むシーケンスの深層学習で使用されるさまざまなアーキテクチャに加え、畳み込みニューラル ネットワーク、アテンション メカニズム、トランスフォーマーなどの最近の開発について説明します。また、取引や市場とのやり取りなどの一連の意思決定プロセスを最適化する強化学習も導入されています。強化学習はゲームでは成功していますが、金融に適用するには、優れたシミュレーター、ソフトウェア インフラストラクチャ、および大量の計算が必要です。全体として、ここで説明したさまざまなアーキテクチャとモデルは定量的金融のための強力なツールを表しており、それぞれに独自の利点と課題があります。

  • 00:45:00 David Kriegman が、定量的金融で使用されるパイプラインと、その一部を実装するためにディープ ニューラル ネットワークをトレーニングする方法について説明します。同氏は、トゥー シグマは大規模に運営されており、1 日に数千の株式を取引し、数億件の意思決定を行っていると述べています。この量のデータを処理するには、大量の計算、優れたソフトウェア インフラストラクチャ、創造的な人材が必要です。ディープネットに関連する説明可能性と解釈可能性の欠如、そしてそれが戦略開発にどのような影響を与えるかについて尋ねられたとき、クリーグマン氏は、一部のアーキテクチャでは解釈可能な表現を導入することができ、取引の決定には迅速に行われ、異なる分布が必要になる場合があると説明しました。さらに、トゥー シグマには、極端な市場イベントでシステムを監視および実装する人間のトレーダーがいます。

  • 00:50:00講演者は、深層学習アプローチが量的金融における効率的な市場の仮説とどのように相互作用できるかについて議論しました。市場は一般に効率的ですが、ディープラーニングは情報により迅速に対応し、異なる方法で情報を吸収するのに役立ち、非効率性や投資の機会を特定できる可能性があります。コンピューター ビジョンには、金融における逐次モデリング、特に非構造化情報から特徴を抽出する初期段階に関連する側面もあります。 Two Sigma では、エンジニアリングとモデリングの両方の役割を積極的に採用しており、さまざまな役割がさまざまなチームに割り当てられていますが、組織全体でディープ ラーニングが確実に適用されています。最近の大学卒業生および修士レベルの応募者は、Two Sigma の Web サイトから応募することをお勧めします。

  • 00:55:00講演者は、深層学習を量的金融に適用する際の課題に関する質問に答えます。具体的には、金融時系列に定常性がないことが、未来が過去によく似ている場合に最適に機能するディープラーニングにとって問題を引き起こします。これに対処するには、ドメイン移行方法をどの程度シミュレーションおよび予測し、導入できるかが重要です。さらに、講演者は、この分野のエラー率は他の分野よりも高く、50% を超えると取引で有利になる可能性があると述べています。量的金融への有望な影響について尋ねられたとき、講演者は、深層学習とニューラル ネットワークのほぼすべての研究領域、特に強化学習とドメイン転送に有望な影響があると述べました。最後に、対処する必要があるデータ ストレージの問題があり、このプロセスではデータ圧縮技術が役に立ちます。

  • 01:00:00講演者は、定量的金融のための深層学習モデルの実行を担当するエンジニアリング チームの多様性について説明します。チームは、ストレージ、物理システム、それらの物理システムの上にあるレイヤーなど、さまざまなタスクに取り組んでいます。さらに、ディープ ラーニング モデルと統計モデリングに関しては、どちらも使用法に応じて果たすべき役割があり、ディープ モデルが線形回帰の縮退形式に変わってしまうと、面白くなくなります。
 

ツー シグマのプレゼンス: 財務データの機械学習モデル


ツー シグマのプレゼンス: 財務データの機械学習モデル

Two Sigma Securities の Justin Ceriano が、金融分野における機械学習モデルの統合に関する包括的なプレゼンテーションを行います。同氏はまず、予測能力と意思決定プロセスを強化するために機械学習を活用することに対する金融企業の関心が高まっていることを強調しました。具体的には、機械学習アルゴリズムを利用して、金融商品の将来の価格を予測し、最適な取引戦略を決定できます。

Ceriano は強化学習の概念を導入しています。これは、適切な目的関数を最大化するために、利用可能なデータから直接意思決定ポリシーを学習できる方法のクラスに分類されます。強化学習は、履歴データに基づいて結果を最適化することが目標である金融分野で特に価値があることが証明されています。

ここで説明する基本的な側面の 1 つは、電子市場の指値注文帳を分析するための機械学習モデルの適用です。このシステムでは、買い手と売り手は、特定の資産を売買したい価格を指定して注文を送信します。これらの注文は、利用可能な最良の売値または買値に基づいて照合されます。セリアノ氏は、株式の目に見える供給と需要を表す注文帳データが高次元のシーケンスを形成し、機械学習モデルを使用して将来の価格変動を予測するために効果的に利用できることを強調します。

さらに、Ceriano氏は、取引戦略においてゼロ以外のスプレッドを考慮することの重要性を強調しています。これらのスプレッドは価格予測の収益性に影響を与える可能性があるため、慎重な評価と調整が必要になります。

機械学習モデルの実際的な実装を実証するために、Ceriano 氏は、高頻度の金融データを使用して価格変動を予測するように設計されたリカレント ニューラル ネットワークの構築について説明します。このモデルは、次の価格変化がプラスになるかマイナスになるかを予測するようにトレーニングされており、そのパフォーマンスは線形反復モデルと比較されます。使用されたデータセットは、約 1,000 銘柄の 3 年間のイベントごとの高頻度データで構成されています。目的は、リカレント ネットワークなどの非線形機械学習モデルが、データ内の非線形関係を捉える際に線形統計モデルよりも優れているかどうかを評価することです。モデルの予測の最適化はバックプロパゲーション アルゴリズムによって実現され、予測誤差が最小限に抑えられます。計算コストを削減するために、時間による切り捨て逆伝播アルゴリズムが利用されます。

このプレゼンテーションでは、リカレント ネットワークの最適化に関連する課題、特によく知られた勾配消失問題について取り上げます。勾配消失問題とは、勾配がネットワークの下位層を通って伝播するにつれて極端に小さくなる問題を指します。その結果、これによりトレーニング速度が妨げられ、ネットワークがシーケンスの離れた部分からの情報を保持することが困難になる可能性があります。 Ceriano は、最も一般的なタイプのリカレント ネットワークの 1 つである Long Short-Term Memory (LSTM) ネットワークを導入しました。このネットワークは、メモリ状態を効率的に更新することでこの問題に対処するように特別に設計されており、これにより、モデルが関連情報を遠く離れた場所から保持できるようになります。過去。

プレゼンテーションでは、高頻度の注文帳データを使用した機械学習モデルのトレーニングと評価について説明します。著者らは、線形モデルの精度と LSTM リカレント ネットワークの精度を比較しており、その結果は、3 か月のサンプル外期間にわたって約 500 銘柄でテストした場合、深層学習モデルのパフォーマンスが優れていることを明確に示しています。この議論はまた、注文帳データと価格変動の間の関係の普遍的な性質についても掘り下げており、複数の銘柄に適用できる普遍的な価格形成モデルの存在を示唆しています。この発見は、計算コストの削減や、別の銘柄のデータを使用してある銘柄のモデルを改善できるなど、実用上重要な意味を持ちます。

この実験は、多数の銘柄からデータをプールし、銘柄固有のモデルと比較してその精度を評価することで、普遍的なモデルをトレーニングすることを目的としています。結果は一貫してユニバーサルモデルの優位性を示しており、さまざまな銘柄にわたるオーダーブックのダイナミクスに共通の普遍性があることを示しています。これにより、オーバーフィッティングが軽減されるだけでなく、モデルの精度も向上します。さらに、ユニバーサル モデルは、非同期確率的勾配降下法を備えた 25 個の GPU を利用するハイパフォーマンス コンピューティングの助けにより、1 年以上の安定性とスケーラビリティを示します。

このプレゼンテーションでは、最適な執行のために注文発行戦略を最適化するための強化学習の応用についても検討します。焦点は、成行注文または 1 株の限定注文に関するポリシーの開発にあり、離散的な時間間隔内で期待される報酬とコスト削減を最大化することを目指しています。過去の注文帳データを利用することで、強化学習モデルは少額注文の約定価格をシミュレートするようにトレーニングされます。このモデルは、指値注文帳データを入力として使用して、成行注文をすぐに発注するか、最良売値が下がるのを待つかを決定します。モデルのパフォーマンスは 1 年間のデータを使用して評価され、その後、別の 6 か月のデータセットでテストされます。

成行注文のみの強化学習戦略と単純な指値注文戦略の両方について、10 秒と 60 秒の期間を考慮した、100 株のユニバースにわたるシミュレーション結果が示されています。この結果は、ある程度のばらつきはあるものの、50 銘柄にわたって強化学習モデルによって達成されたプラスのコスト削減を一貫して示しています。さらに、コスト削減は期間が長くなるほど増加する傾向があります。このプレゼンテーションでは、過去の注文帳データを使用して、送信された指値注文が特定の時間間隔内に約定されるかどうかをシミュレートするという概念を紹介します。強化学習モデルは、予想されるコスト削減を最大化するために最適な時間を動的に選択するようにトレーニングされています。コスト削減は銘柄ごとに異なりますが、強化学習戦略は一貫してプラスの結果をもたらしており、一部の銘柄は他の銘柄よりも大幅に高いコスト削減を示しています。

このプレゼンテーションは、金融データに特化した高度な最適化手法と深層学習アーキテクチャを開発する必要性について述べて終わります。金融分野での機械学習の応用をさらに強化するために、強化学習と大規模な注文の正確なシミュレーションを融合するという継続的な課題を強調しています。ここで説明した概念を効果的に理解するために、Ceriano 氏は、大規模なデータセットに機械学習手法を実装して実践的な経験を積むことを推奨しています。彼は、基礎となる数学理論を理解し、TensorFlow や PyTorch などの深層学習ライブラリに習熟することの重要性を強調しています。さらに、モデル トレーニングを並列化するための高性能コンピューティング スキルも重視されます。

さらに、プレゼンターはツーシグマの採用方針とリモートワークの機会についても話し合います。フルタイムのリモートワークポリシーは導入されていませんが、ツーシグマは世界中のさまざまな国から個人を雇用し、リモートワーク用に Alpha Studio と呼ばれるオンラインチームを運営しています。彼らは、金融における機械学習の追求に興味がある人向けに、複数のコースを通じて定量的金融、確率、統計の知識を習得することの重要性を強調しています。このプレゼンテーションでは、Two Sigma のコードベースにおける TensorFlow や PyTorch などの深層学習ライブラリの利用についても言及されています。

ツー シグマの採用プロセスについて、年間を通じて、特に夏に行われる採用に重点を置いて説明します。秋と春の採用には例外があり、同社は興味のある人には、たとえ12月からでも、できるだけ早く入社することを奨励している。発表者らは、印象的なプロジェクトには、実際のデータのパターンと傾向を特定し、機械学習アプローチを適用して現実世界の問題を解決することが含まれると示唆しています。プロジェクトのオーナーシップとプロジェクト内での自分の貢献を強調することは、採用担当者が求める価値のある資質として強調されます。エンジニアやデータ サイエンティストと緊密に連携する Two Sigma のファンダメンタルズ株式研究チームについても簡単に説明します。

トゥー シグマのデータ サイエンティストとクオンツ研究者の違いが明らかになります。どちらの立場にもモデリングとトレーディングが含まれますが、データ サイエンスは主にデータ サイエンスの側面と特徴量エンジニアリングに焦点を当てますが、クオンツ研究者は最初から最後まで完全なトレーディング プロセスを考慮します。発表者はツー シグマのオフィス文化と会議について触れ、会議は主に非公式であり、共同で議論するためのホワイトボードを提供していると説明しています。特定の会議では、準備されたプレゼンテーションが必要になる場合があります。

最後に、株式固有のモデルと比較してユニバーサル モデルを採用する利点を強調します。転移学習を活用し、過学習の問題を軽減するユニバーサル モデルの機能が重要な利点として強調されています。プレゼンテーションは、録画されたセッションがトゥー シグマの YouTube チャンネルで公開されることに触れ、採用者の大部分が米国に拠点を置いている同社の世界的な採用慣行に焦点を当てて締めくくられています。

  • 00:00:00 Two Sigma Securities の Justin Ceriano が、金融における機械学習モデルの概念を紹介します。同氏は、金融会社が金融商品の将来価格の予測や最適な取引戦略の決定など、予測や意思決定を行うために機械学習を使用することにどのように興味を持っているかについて説明します。 Ceriano 氏は、強化学習は、適切な目的関数を最大化することを目的として、データから直接意思決定ポリシーを学習できる手法のクラスであると指摘しています。最後に、不十分なデータによる過剰適合の課題、深層学習モデルの利点、高頻度の金融データセットで大規模なモデルをトレーニングするためのハイパフォーマンス コンピューティングの重要性について説明しています。

  • 00:05:00電子市場に指値注文ブックの概念が導入され、買い手と売り手が売買したい価格で注文を提出し、最良の売り値または買い値に従ってマッチングされます。株式の目に見える供給と需要は注文帳データを通じて表され、機械学習モデルを使用して将来の価格変化を予測するために使用される高次元のシーケンスです。取引戦略ではゼロ以外のスプレッドを考慮することも重要です。これにより、価格予測の収益性が低下する可能性があります。

  • 00:10:00高頻度の金融データの価格変動を予測するためにリカレント ニューラル ネットワークが実装されています。このモデルは、次の価格変化がプラスかマイナスかを予測し、結果が線形反復モデルと比較されます。データセットは、約 1,000 銘柄の 3 年間のイベントごとの高頻度データで構成されています。深層学習モデルのパフォーマンスを評価して、リカレント ネットワークなどの非線形機械学習モデルが、データ内の非線形関係を学習する際に線形統計モデルを上回るパフォーマンスを発揮できるかどうかを判断します。逆伝播アルゴリズムを使用して目的関数を最適化し、予測誤差を最小限に抑えます。計算コストを削減するために、時間アルゴリズムによる切り詰められたバックプロパゲーションが使用されます。

  • 00:15:00このビデオでは、リカレント ネットワークを最適化する方法について説明します。これは、多層フィードフォワード ネットワークの最適化と精神的に似ています。ただし、勾配消失問題はよく知られた課題であり、勾配の大きさがネットワークの下位層に比べて小さくなります。これにより、トレーニングが遅くなり、遠い過去のデータを記憶するようにネットワークをトレーニングすることが困難になり、確率的勾配降下法がゆっくりと収束する可能性があります。このトランスクリプトでは、最も一般的なタイプのリカレント ネットワークの 1 つとして LSTM ネットワークも紹介されています。LSTM ネットワークは、モデルがシーケンス内のはるか過去のデータを記憶できるようにすることを目的として、メモリ状態を効率的に更新するように設計されています。

  • 00:20:00著者らは、高頻度の注文帳データで一連の機械学習モデルをトレーニングし、テスト データセットでそのパフォーマンスを評価した方法について説明します。著者らは、線形モデルの精度を LSTM リカレント ネットワークと比較し、3 か月のサンプル外テスト期間にわたる約 500 銘柄のテスト データセットにおいて、深層学習モデルが線形モデルよりも明らかに優れていることを発見しました。彼らは、注文帳データと価格変動の関係が銘柄全体に普遍的であるのか、それとも個々の銘柄が独自のモデルを必要とするのかという問題を調査し、注文の流れを価格変動にマッピングする普遍的な価格形成モデルの強力な証拠を発見しました。彼らはまた、計算コストの削減や、別の銘柄のデータを使用してある銘柄のモデルを改善できる機能など、この発見の実際的な意味についても議論しています。

  • 00:25:00この実験は、数百の銘柄からデータをプールし、その精度を銘柄固有のモデルの精度と比較することによって、普遍的なモデルをトレーニングすることを目的としています。この結果は、普遍的なモデルが一貫して銘柄固有のモデルを上回るパフォーマンスを示し、さまざまな銘柄のオーダーブックのダイナミクスに共通の普遍性があることを示しています。これにより、オーバーフィッティングを軽減し、モデルの精度を向上させることができます。さらに、ユニバーサル モデルは新しい株式に一般化することができ、非同期確率的勾配降下法を備えた 25 個の GPU を使用した高性能コンピューティングの助けにより、1 年以上にわたるモデルの安定性とモデルのスケーラビリティを実証します。このセクションで説明する 2 番目の例は、強化学習を使用して注文発行戦略を開発する最適な実行です。ただし、マルコフ決定プロセスの最適なポリシーは、遷移確率が不明なため困難です。

  • 00:30:00このビデオでは、強化学習を使用して、単純な注文実行の例に最適なポリシーを学習する方法について説明します。強化学習モデルは、過去の注文帳データを使用して、少額注文の約定価格を正確にシミュレートするようにトレーニングされています。焦点は成行注文または 1 株の限定注文の最適な執行にあり、対象期間までの各離散時間で期待される報酬とコスト削減を最大化することを目的としています。強化学習モデルは、成行注文を提出するか、最良売値が下がるのを待つかを選択します。入力は指値注文帳データであり、モデルは 1 年間のデータで評価され、その後 6 か月のデータでテストされます。

  • 00:35:00このビデオでは、成行注文のみの強化学習戦略と単純な指値注文戦略について、10 秒と 60 秒の期間で 100 株のユニバースにわたるシミュレーション結果を示しています。結果は、強化学習モデルが 50 銘柄全体で、大幅なばらつきはあるものの、一貫してプラスのコスト削減を提供していることを示しています。一般に、期間が長くなるほどコスト削減効果は高まります。このビデオでは、過去の注文帳データを使用して、1 株に対して送信された指値注文がその時間間隔内で実行されるかどうかをシミュレートし、期待されるコスト削減を最大化する時間を適応的に選択するように強化学習モデルをトレーニングすることも紹介しています。結果は、強化学習戦略が一貫してプラスのコスト削減効果をもたらしていることを示しています。ただし、コスト削減額は一部の銘柄で異なりますが、他の銘柄では比較的大きくなります。

  • 00:40:00このビデオでは、金融データ専用に設計された、より優れた最適化手法とディープ ラーニング アーキテクチャを開発する必要性を強調しています。財務データに機械学習を適用するために、より大きな注文サイズに対する強化学習と正確なシミュレーションを統合するなど、対処すべき未解決の課題がまだあります。 Justin 氏は、機械学習を学ぶ最良の方法は、大規模なデータセットに機械学習を直接実装し、その背後にある数学理論を理解することだと勧めています。 PiTorch や TensorFlow などのディープ ラーニング ライブラリと、金融データに機械学習を適用するモデルのトレーニングを並列化するためのハイ パフォーマンス コンピューティングの経験が不可欠です。最後に、セッションの録画は YouTube チャンネルで視聴できるようになり、トゥー シグマは世界中で採用を行っており、その採用のほとんどは米国に拠点を置いています。

  • 00:45:00ツー シグマの代表者が雇用とリモートワークに関するポリシーについて語ります。フルタイムのリモートワークポリシーはありませんが、世界中のさまざまな国から個人を雇用しており、リモートワーク用に Alpha Studio と呼ばれるオンラインチームがあります。また、この分野の機械学習に興味がある人にとって、定量的ファイナンス、確率、統計に関する複数のコースを受講することの重要性についても説明します。最後に、発表者は、コードに深層学習ライブラリ TensorFlow と PyTorch が組み込まれていることを明らかにしました。

  • 00:50:00講演者は、ツー シグマの採用プロセスと、夏に焦点を当てながら秋と春の例外も含めて、採用が行われる年間のさまざまな時期について話し合います。また、採用はローリングベースで行っており、たとえ12月からでもできるだけ早く働き始めることを奨励しているとも述べています。採用担当者にとって興味深いプロジェクトに関しては、実際のデータからパターンと傾向を見つけ出し、プロジェクトの所有権に焦点を当て、個人が取り組んだプロジェクトで何を所有しているかを強調しながら、機械学習のアプローチを現実世界の問題に適用することを提案しています。の上。講演者らはまた、同社のエンジニア、データサイエンティスト、その他のビジネス分野と緊密に連携するツーシグマのファンダメンタルズ株式研究チームについても言及した。最後に、自動取引執行を最適化するための強化学習の使用に関する質問に答えます。

  • 00:55:00講演者は、Two Sigma のデータ サイエンティストとクオンツ研究者の違いについて説明します。どちらの立場にもモデリングとトレーディングが含まれますが、データ サイエンスはデータ サイエンスの側面と特徴量エンジニアリングに焦点を当て、定量的リサーチはトレーディングの全体像を最初から最後まで考慮します。講演者はまた、ツー シグマのオフィス文化と会議に関する質問に答え、準備されたプレゼンテーションが必要な会議は時折ありますが、会議はディスカッションに利用できるホワイトボードが用意されているカジュアルな会議が一般的であると説明しました。最後に、講演者は、統合されたデータセットでトレーニングされた単一のユニバーサル モデルが特殊なモデルよりも優れたパフォーマンスを発揮する可能性がある理由として、転移学習と過剰適合の問題の可能性を挙げて、ユニバーサル モデルと銘柄固有モデルの利点について説明します。
 

アルゴリズム取引で成功するための鍵 |ポッドキャスト | EP チャン博士


アルゴリズム取引で成功するための鍵 |ポッドキャスト | EP チャン博士

クオンツ・トレーディング、またはトレーディング一般は、参入して成功するのが最も困難な職業の 1 つと考えられています。クオンツ・トレーディングのパイオニアであり、ニューヨークの数十億ドルのヘッジファンドの創設者である DE ショー博士は、次のように認めています。この分野は年を追うごとにますます困難になってきています。この意見は業界の多くの経験豊富なトレーダーからも同様です。

クオンツ取引はその難しさにもかかわらず、情熱を持っている人にとっては追求する価値があります。俳優、歌手、モデル、小説作家として成功するのと同じように、アルゴリズム取引で成功するには献身と忍耐が必要です。誰もが DE Shaw や Renaissance Technologies のような有名なトレーダーのレベルに到達できるわけではありませんが、意欲的なトレーダーは落胆すべきではありません。この分野での成功は異常値であるため、失敗に備えることが重要です。

まだ金融業界に従事していない個人の場合、卒業して最初の取引戦略を開始した後、すぐに本業を辞めないことをお勧めします。フルタイム取引を検討する前に、少なくとも 2 つの収益性の高い取引戦略を 2 年間実行することをお勧めします。このアドバイスは個人の経験と他の成功したトレーダーの経験に基づいています。

トレーダーは戦略の過去のパフォーマンスについて過度に楽観的になるという間違いを犯し、レバレッジが高くなりすぎることがあります。過剰なレバレッジはアカウントの資産をすぐに消し去る可能性があるため、避けることが重要です。さらに、戦略のパフォーマンスは、通常、同じ傾向を続けるわけではありません。過去の実績のみに基づいて資本を割り当てるのは、よくある間違いです。むしろ、戦略のボラティリティに反比例して資本を配分するリスク パリティ配分の方が、一般に優れたアプローチとなります。

もう 1 つのよくある間違いは、好況時に利益をデータ機器や人材に投資できないことです。将来の損失を防ぐためには、利益の一部をデータ インフラストラクチャの改善と熟練した人材の雇用に再投資することが不可欠です。

良い点としては、直感的に正当化できるシンプルな戦略から始めることをお勧めします。リカレント ニューラル ネットワークやディープ ラーニングなどのより複雑なアプローチを掘り下げる前に、既存の戦略を理解し、改善することが賢明です。シンプルな戦略から始めることで、トレーダーは成功や失敗の背後にある理由をより深く理解し、それらを特定の要因に帰することができます。

結論として、クオンツトレーディングはやりがいのある職業ですが、潜在的にやりがいのある職業です。忍耐力、継続的な学習、慎重な意思決定が必要です。避けるべき落とし穴もありますが、経験豊富なトレーダーから学ぶべき貴重な教訓もあります。シンプルな戦略から始め、リスクを管理し、インフラストラクチャと人材に投資することで、意欲的なトレーダーはクオンツ取引の分野で成功する可能性を高めることができます。

 

「基本的な統計的アービトラージ: ペア取引の背後にある数学を理解する」マックス・マージェノ著


「基本的な統計的アービトラージ: ペア取引の背後にある数学を理解する」マックス・マージェノ著

クオンツ・ファイナンスの世界を探索することに特化したイベント、Quanto Peon Algorithmic Trading Meetup へようこそ。私は Quanto Peon のデータ サイエンティストである Max Margit です。今日は、統計的アービトラージという興味深いトピックと、それに関連する基本的な統計的概念を詳しく掘り下げていきます。

理論的な側面に入る前に、Quanto Peon について簡単に説明しましょう。私たちの主な目的は、個人が独自のアルゴリズム取引戦略を研究および開発できるようにする無料のオープンソース ツールを提供することで、誰もがクオンツ ファイナンスにアクセスできるようにすることです。アルゴリズム取引には、金融市場で自動的に取引を実行するための命令が含まれます。その範囲は、毎日午前 10 時に Apple 株を購入するなどの単純なルールから、統計モデルを使用したより高度な定量分析まで多岐にわたります。

今日の議論の焦点である統計的裁定取引は、物理的な不均衡に依存するのではなく、統計分析を使用して市場の非効率性を利用することを中心に展開します。このアプローチは、資産価格の統計的不均衡を特定し、それを利用することを目的としています。この概念をより深く理解するには、いくつかの基本的な統計概念を理解することが重要です。

私たちが探求する重要な概念の 1 つは、特に時系列データのコンテキストにおける定常性です。定常性とは、時間の経過とともに一貫したパラメーターを持つ同じ確率分布から各サンプルが抽出される一連のデータ ポイントを指します。簡単に言うと、データの平均と標準偏差が時間の経過とともに一定のままであることを意味します。金融で使用される多くの統計モデルは定常性を前提としているため、これは重要です。定常性を確保することで、これらのモデルから得られた結果を信頼できます。

定常性の概念を説明するために、いくつかのデータ ポイントを生成してみましょう。 「generate_data_point」という基本関数を使用して、標準正規分布からサンプルのセットを作成します。これらのサンプルは、ホワイト ノイズと呼ばれることが多い定常時系列を表します。この場合、平均は 0、標準偏差は 1 です。このデータをプロットすると、ホワイト ノイズに似たランダム パターンが観察されます。

ただし、すべての時系列データが定常性を示すわけではありません。平均値に傾向を導入すると、時系列は非定常になります。金融では、非定常性はこの単純な例よりもはるかに複雑になる可能性があります。平均などの記述統計は、時系列全体を正確に表していないため、非定常データの場合は無意味になります。

では、時系列が定常であるかどうかをどのように判断するのでしょうか?ここで、定常性分析で一般的に使用される拡張ディッキー・フラー検定などの仮説検定が登場します。このテストは、特定の時系列が非定常である確率を評価するのに役立ちます。

生成された時系列データに拡張ディッキー フラー テストを適用してみましょう。この検定では、時系列が非定常であるという帰無仮説を棄却する可能性を示す p 値が得られます。データが意図的に定常として生成された最初の例では、p 値はゼロに近くなります。これにより、帰無仮説を棄却し、時系列が定常である可能性が高いと結論付けることができます。一方、傾向が導入された 2 番目の例では、p 値がしきい値 (0.01) を超えており、帰無仮説を棄却できず、時系列が非定常である可能性が高いことを示しています。

ただし、仮説検定には限界があることに注意することが重要です。誤検知は、特に金融データ内の微妙な関係や複雑な関係を扱う場合に発生する可能性があります。したがって、定常性を判断するために仮説検定だけに頼らず、注意を払うことが重要です。

さて、焦点をペア取引に移しましょう。ペア取引に参加したい場合は、複数のペアを検討し、それぞれに独立して賭ける必要があります。単一のペアに依存する代わりに、100、200、さらには 300 ペアを取引してポートフォリオを多様化することで、各ペアで持つ可能性のあるエッジを活用することができ、全体的な成功の可能性が高まります。

ペアの取引には、取引を効果的に管理および監視するための堅牢なフレームワークが必要です。これには、ペア間の関係を継続的に更新し、それに応じて位置を調整することが含まれます。ペア間の関係を表すベータ値は時間の経過とともに変化する可能性があるため、これらの変化に動的に適応するシステムが必要です。

さらに、各取引の明確な出口戦略を持つことが重要です。ペアが予期した動作を示さなくなった場合、またはペア間の関係が崩れた場合、いつポジションを決済するかを決定する必要があります。これには、スプレッドを継続的に監視し、取引を終了するための事前定義された基準が必要です。

さらに、リスク管理はペア取引において重要な役割を果たします。ボラティリティ、相関関係、ポートフォリオ全体のエクスポージャーなどの要因に基づいて、各ペアのポジションサイズを慎重に計算することが重要です。取引を多様化し、リスクを効果的に管理することで、不利な市況の影響を最小限に抑え、潜在的な利益を最大化することができます。

ペア取引戦略を効果的に実装するために、トレーダーは多くの場合、高度な定量的手法に依存し、高度なアルゴリズムを開発します。これらのアルゴリズムは、潜在的なペアの市場を自動的にスキャンし、それらの共積分と統計的特性を評価し、事前定義された基準に基づいて取引シグナルを生成します。

結論として、アルゴリズム取引の統計モデルを構築する際には、定常性を理解し、適切なテストを実施することが重要です。定常性の概念を理解し、拡張ディッキー・フラー検定などの検定を使用することで、トレーダーは時系列データの非定常性の可能性を評価できます。統計的な裁定戦略としてのペア取引を使用すると、トレーダーは、相関する 2 つの証券間の過去の関係からの一時的な逸脱を利用できます。ただし、実装を成功させるには、堅牢なフレームワーク、継続的なモニタリング、リスク管理、および高度な定量的手法の使用が必要です。

Quanto Peon では、Quanto Peon 講義シリーズを通じて統計と金融に関する無料講義を提供することで、金融とテクノロジーの間のギャップを埋めるよう努めています。私たちの使命は、定量的金融を民主化し、アルゴリズム取引戦略を開発するためのツールと知識を個人に提供することです。

 

金融数学のためのブラウン運動 |クオンツのブラウン運動 |確率微積分


金融数学のためのブラウン運動 |クオンツのブラウン運動 |確率微積分

こんにちは、YouTube。ASX ポートフォリオ チャンネルへようこそ。私の名前はジョナサンです。今日は、特に金融数学の文脈でブラウン運動の魅力的な世界を掘り下げていきます。これは、金融数学の分野で不可欠な確率過程と確率微積分の基礎を形成するため、重要なトピックです。ブラウン運動は伊藤積分の基礎であり、非常に重要な意味を持つため、理解することが最も重要です。今後のビデオでは、幾何学的なブラウン運動、その応用、伊藤積分などのトピックを取り上げ、数学をさらに探求していきます。今後のビデオを楽しみにしたい場合は、必ず購読ボタンを押してください。

このビデオでは、ブラウン運動とは何か、そしてそれがどのように発生するかを説明するために私が用意した Jupyter ノートブックを実行します。それでは、早速始めましょう。まず対称ランダム ウォークを検討し、次にスケーリングされたランダム ウォークに進み、ブラウン運動にどのように収束するかを示します。この説明では、Steven Shreve の著書『Stochastic Calculus for Finance II』の表記法と例を使用します。

何よりもまず、ブラウン運動の主な特性は次のとおりであることを理解することが重要です。ブラウン運動はマーチンゲールであり、期待値が粒子または株価の現在の位置のみに基づいていることを意味します。さらに、これはマルコフ過程であり、二次変分を蓄積します。二次変分は確率微積分における独特の概念であり、通常の微積分とは異なります。このエピソードでは、二次変分が何を意味するのかを詳しく説明します。

コードに沿って進みたい場合は、私の Web サイトから入手できます。このデモンストレーションに必要な依存関係をインポートしました。ブラウン運動は確率過程であることに注意することが重要であり、私たちの目的のために、結果とフィルター F を含むフィルターされた確率空間を、確率空間 P とともに考慮します。ここでは、区間内に実際の結果のセットがあります。 0から時間Tまで。

ブラウン運動の初期値は常にゼロです。独立した増分があり、ガウス分布に従い、ほぼ確実に連続的なサンプル パスを示します。これらすべてのプロパティについて詳しく説明します。

最も単純な例、対称ランダム ウォークから始めましょう。ランダム ウォークの概念に慣れていない場合は、ランダム ウォークを連続したコイン投げのシーケンスとして考えてください。変数オメガで表される各結果は、表または裏のいずれかになります。変数 X_j を使用して各結果を表し、表の場合は 1、裏の場合は -1 の値をとります。

m_0 が 0 に等しいプロセスを定義すると、m_k は、k 回コインを投げた場合のすべての可能なコイン投げパスに沿った合計になります。この場合、プロセスが 1 ずつ上または 1 ずつ下に移動できるランダム ウォークがあり、パス上のこれらの増分を合計します。 10 年間の期間にわたって 10 個のサンプル パスを生成するスクリプトを作成しました。プロットは、ランダム ウォークがパスに沿ってタイム ステップごとに 1 ずつ上下にどのように移動するかを示しています。

この例では、いくつかの興味深い特性が明らかになります。まず、m_k+1 - m_k などの期間間の増分は独立しています。さらに、これらの独立した増分の期待値はゼロであり、分散は時間の差またはタイム ステップ間の距離 (k_i+1 - k_i) に等しくなります。差異は単位時間あたり 1 の割合で累積します。

さらに、対称ランダム ウォークはマーチンゲールです。これは、現在の位置が与えられた場合の次の値の条件付き期待値が現在の位置と等しいことを意味します。対称ランダム ウォークのコンテキストでは、

中断したところから引き続き、次のビデオでは、Python を使用して幾何学的なブラウン運動のサンプルを作成する方法を検討します。幾何ブラウン運動は、株価をモデル化するために金融数学で一般的に使用される確率過程です。これは現場で理解することが不可欠な概念です。

しかし、その本題に入る前に、ブラウン運動の重要な特性のいくつかを要約してみましょう。ブラウン運動は、いくつかの特性を特徴とする確率過程です。

  1. 独立した増分: ブラウン運動の増分は独立しています。これは、任意の 2 点間の変化が他の 2 点間の変化と無関係であることを意味します。

  2. ガウス分布: ブラウン運動の増分はガウス分布または正規分布に従います。この分布はさまざまな結果の確率を表し、確率論の基本概念です。

  3. 連続サンプル パス: ブラウン運動には連続サンプル パスがあり、これは各期間で微分不可能であることを意味します。この性質により、ランダムな変動を伴うさまざまな現象のモデル化に適しています。

  4. 二次変分: 二次変分は、確率計算におけるブラウン運動の固有の特性です。これは時間の経過とともに蓄積された変動を測定し、確率過程の動作を理解するために非常に重要です。

さて、幾何学的なブラウン運動について説明しましょう。幾何学的なブラウン運動は、指数関数的な成長を組み込んだブラウン運動の拡張です。これは、株価などの金融資産の動きをモデル化するためによく使用されます。幾何学的なブラウン運動は次の形式になります。

dS(t) = μS(t)dt + σS(t)dW(t)

ここで、S(t) は時刻 t における資産価格を表し、μ は期待リターンまたはドリフト レート、σ はボラティリティまたはリターンの標準偏差、dt は短い時間間隔、dW(t) は標準ブラウン運動です。インクリメント。

幾何学的なブラウン運動をシミュレートするには、オイラー法や伊藤積分などの数値的手法を使用してプロセスを離散化できます。これらの方法により、一連の個別ステップを使用して連続プロセスを近似することができます。

次回のビデオでは、幾何学的なブラウン運動の数学的詳細と金融数学におけるその応用について探っていきます。また、幾何学的なブラウン運動をシミュレートおよび視覚化するための Python での実践的な例とコード スニペットも提供します。

このトピックについてさらに詳しく知りたい場合は、必ずチャンネルに登録して、次のビデオを楽しみにしてください。皆様とさらなる洞察を共有できることを楽しみにしています。ご清聴ありがとうございました。また次のビデオでお会いしましょう!

 

Python での幾何学的なブラウン運動のシミュレーション |クオンツの確率微積分


Python での幾何学的なブラウン運動のシミュレーション |クオンツの確率微積分

YouTube さん、こんにちは。ASX ポートフォリオ チャンネルへようこそ。私の名前はジョナサンです。今日は Python で幾何学的なブラウン運動をシミュレートします。このチュートリアルでは、幾何学的なブラウン運動の力学の導出や、Ito 微積分、Ito 積分、および確率過程については説明しません。ただし、これらのトピックについては、次のチュートリアルで詳しく説明します。もっと詳しく知りたい場合は、チャンネルに登録し、通知ベルを押してください。ビデオがリリースされたときに通知が届くようになります。

シミュレーションに入ってみましょう。この Jupyter ノートブックをデモンストレーションの目的で使用します。まず、シミュレーションのパラメーターを定義します。ドリフト係数 mu は、1 年間で 0.1 または 10% に設定されます。時間ステップの数を「n」として定義し、詳細なシミュレーションの場合は 100 に設定します。時間は年単位で測定され、「T」で示されます。シミュレーションの数は「m」で示され、100 に設定されます。初期株価 S0 は 100 に設定され、ボラティリティ シグマは 30 に設定されます。必要な依存関係をインポートしましょう: numpy as np および matplotlib .pyplot として plt。

次に、幾何学的なブラウン運動パスをシミュレートしましょう。タイム ステップを計算するには、T を n で割ります。次に、numpy 配列を使用して、パスを反復する代わりに 1 ステップでシミュレーションを実行します。 「st」という配列を定義し、numpy の指数関数を使用します。関数内で、コンポーネントを定義します: mu マイナスシグマの 2 乗を 2 で割って、dt を掛けます。次に、正規分布からサンプリングする numpy のrandom.normal 関数を sigma に乗算し、それに dt の平方根を乗算します。この配列のサイズは m × n となり、それぞれシミュレーション数とタイム ステップ数を表します。各タイムステップのシミュレーションが必要なので、この配列の転置を行います。

各シミュレーションの初期点を含めるには、numpy の vstack 関数を使用して、1 の numpy 配列を st シミュレーション配列とスタックします。これにより、各シミュレーションが確実に初期値で開始されます。最後に、積み上げ配列に初期値を乗算して、ドリフト、分散、確率成分の観点から日々の変化を考慮します。これにより、タイム ステップの実装が得られます。これらの値を時間の経過とともに累積するには、各シミュレーション パスに沿って numpy の累積積関数を使用し、軸 1 を指定します。これにより、各パスの累積積が計算されます。

シミュレートされたパスが得られたので、時間間隔を年単位で考えてみましょう。 numpy の linspace 関数を使用して、n+1 個のスペースで 0 から T までの等間隔のタイム ステップを生成します。これにより、「time」という配列が得られます。次に、関数をプロットできるように、st と同じ形状の「fill」という名前の numpy 配列を作成します。 numpy の完全な関数を使用し、fill_value を time に設定します。このベクトルを転置すると、30% のボラティリティと平均値またはドリフトの 10% 増加から生じる分散を考慮して、x 軸に年、y 軸に株価をとったグラフをプロットできます。この幾何学的なブラウン運動。

幾何ブラウン運動は、オプション価格理論やさまざまな金融数学の応用に役立つモデルです。このチュートリアルの価値を感じていただければ幸いです。次のビデオでは、金融数学、伊藤微積分、伊藤積分をさらに深く掘り下げ、さまざまなパラメーターを追加して確率微分方程式の複雑さを増す方法を探ります。さらに詳しく知りたい場合は、必ずチャンネルに登録し、通知ベルを押してください。来週そのビデオがリリースされたときに通知が届くようになります。それまでは、さらに価値のあるコンテンツにご期待ください。ご視聴いただきありがとうございます。また次のビデオでお会いしましょう。

 

クオンツの確率微積分 |伊藤微積分を使用した幾何ブラウン運動の理解


クオンツの確率微積分 |伊藤微積分を使用した幾何ブラウン運動の理解

YouTube さん、こんにちは。ASX ポートフォリオへようこそ。今日は、ブラウン運動が金融市場のモデリングに不適切な選択である理由について説明します。ブラウン運動によって株価がマイナスになることは明らかですが、これは現実的ではありません。代わりに、ブラウン運動の確率的特性の一部を保存し、それらをモデルに組み込む方法が必要です。これは、ブラウン運動によるリスク源を追加できる Ito プロセスを使用することで実現できます。

よく知られている Ito プロセスの 1 つは、幾何学ブラウン運動 (GBM) であり、多くの人がよく知っているかもしれません。ブラウン運動の特性を活用して、実際の例とよりよく一致する新しいモデルを開発できます。これを達成するために、金融確率数学で一般的に使用される、伊藤計算として知られる特別なタイプの計算を使用します。

今日は、伊藤積分の理解と、それが複雑な問題の解決にどのように役立つかに焦点を当てます。伊藤微積分の単位として機能し、ルールの導出に役立つ伊藤の補題について説明します。さらに、Ito-Dobelin の公式と幾何学的なブラウン運動の力学の導出についても学びます。

これらの概念をさらに深く掘り下げるには、Stephen Shreve の 2 冊目の著書『確率微積分の連続時間モデル』を強くお勧めします。第 4 章では、今日説明する内容について説明します。

では、まず伊藤積分とは何かを理解しましょう。これから説明するすべての数学は、フィルター処理された確率空間に基づいていることを覚えておくことが重要です。このスペースには、結果、フィルタリング、および確率の尺度が含まれます。フィルタリングは、時刻 t までのすべての情報を含むシグマ代数を指します。確率理論は複雑ですが、今日は簡単に触れるだけにします。より深く理解するには、シュリーブの本の最初の 3 章を参照することをお勧めします。

伊藤積分は記号 ∫δdW で表されます。ここで、δ は確率過程、dW はウィーナー過程です。その意味を理解するために、0 から T までの期間を小さな間隔に分割することを想像してみましょう。確率過程 δ の n 乗を表すことができます。ここで、n は時間間隔の数を表します。このプロセスは適応されており、その値は各時間間隔でのコイン投げの結果によって決定されます。

ここで、区間の数が無限に近づくときの積分を合計の限界として考えてみましょう。各加数は、確率過程 δ に区間間のウィナー過程の変化を乗じたもので構成されます。間隔が小さくなるにつれて、Ito 積分に収束します。ただし、この制限が存在するには、2 つの条件が満たされなければなりません。1 つはプロセス δ が濾過に適合している必要があり、もう 1 つは平方積分可能であることです。

表記法を理解したところで、一般的なitoプロセスに移りましょう。これらのプロセスは、同じ結果空間を持つ同じ時間領域で発生します。これらには、ウィナー過程に関する時間ベースの積分と伊藤積分が含まれます。時間ベースの積分は通常のリーマン積分に似ていますが、Ito 積分はプロセスの確率的性質を捉えます。これらのプロセスはドリフト項と拡散項に分けることができます。

Ito プロセスの例としては、Geometric Brownian Motion (GBM) があります。これはドリフト項と拡散項で構成されます。ドリフトは定数 μ によって決定され、拡散は揮発性パラメータ σ によって制御されます。 GBM のダイナミクスは、方程式に示すように積分を使用して表現できます。

これを拡張して、Ito プロセスの積分を考慮することもできます。たとえば、Ito プロセスの積分は、取引損益 (P&L) を表す場合があります。

Itô-Doob 分解では、この一般的なプロセスがドリフト項の積分、拡散項の積分、および Itô 積分項によって表されます。 Itô-Doob の公式は、プロセスの関数の微分を計算する方法を提供します。これは、関数の微分が、時間に関する関数の偏導関数に、状態変数に関する関数の偏導関数にドリフト項を乗じたものと、時間に関する関数の偏導関数を加えたものに等しいことを示しています。状態変数に拡散項を乗算し、状態変数に関する関数の偏導関数の積分に Itô 積分項を乗算したものを加算します。

この式を使用すると、プロセスが時間の経過とともに進行するにつれて、関数の値の変化を計算できます。これは伊藤微積分の基本的なツールであり、確率分析や数理ファイナンスで広く使用されています。

幾何ブラウン運動 (GBM) に移ります。これは、株価やその他の金融資産のダイナミクスをモデル化するために一般的に使用される特定のタイプの Itô プロセスです。 GBM にはドリフト コンポーネントと拡散コンポーネントの両方が組み込まれています。ドリフト項は資産の期待収益率を表し、拡散項は資産の価格変動のボラティリティまたはランダム性を捉えます。

GBM のダイナミクスは、Itô 計算を使用して導き出すことができます。伊藤の公式を資産価格の対数に適用すると、時間の経過に伴う価格の対数の変化を表す式が得られます。この変化は、ドリフト項に時間増分を乗算し、拡散項に Itô 積分を乗算したものに等しくなります。方程式の両辺を累乗することで、資産価格自体のダイナミクスを回復します。

GBM のダイナミクスを理解することは、オプションの価格設定とリスク管理において重要です。これにより、資産価格の確率的挙動をモデル化し、さまざまな結果の確率を推定することができます。 GBM は金融数学で広く使用されており、オプション価格設定の Black-Scholes モデルなど、多くの価格設定モデルの基礎として機能してきました。

要約すると、伊藤微積分は、金融における確率的プロセスをモデル化および分析するための強力なフレームワークを提供します。 Itô 積分を組み込み、Itô の補題と Itô-Doob の公式を適用することにより、さまざまな金融変数のダイナミクスを導き出し、現実世界の市場の確率的特性を捉えるモデルを開発できます。伊藤微積分は数理ファイナンスの分野に革命をもたらし、金融リスクの理解と管理に不可欠なツールであり続けています。

 

クオンツの確率微積分 |デリバティブのリスク中立的な価格設定 |オプション価格の説明


クオンツの確率微積分 |デリバティブのリスク中立的な価格設定 |オプション価格の説明

このビデオでは、モンテカルロ シミュレーションとリスク中立の価格設定を使用して、金融デリバティブの評価の背後にある財務数学を詳しく掘り下げます。なぜモンテカルロシミュレーションが使用されるのか、リスク中立の価格設定とは何か、なぜ株価の成長率がデリバティブモデルに入力されないのかなどの疑問に答えます。

リスク中立の価格設定は、オプションの価値が将来の利益の予想を割り引いたものになる方法論です。言い換えれば、これはデリバティブの考えられるすべての利益を現在まで割り引いた期待値です。リスク中立の価格設定フレームワークでは、基礎となる株式の成長率はオプション価格に影響を与えません。これは、デリバティブと原株に完全な相関関係があり、複製してリスクのないポートフォリオを作成できるためです。

リスク中立の価格設定アプローチを使用すると、他の評価方法に比べていくつかの利点があります。まず、複雑な導関数の定式化では、閉じた形式のソリューションは実現できない可能性があります。このような場合、レプリケーション手法を使用して偏微分方程式 (PDE) を解くと、計算コストが高くなる可能性があります。一方、リスク中立の価格設定では、計算コストが低いモンテカルロ シミュレーションを使用してオプションの価値を簡単に概算できます。

リスク中立の価格設定を説明するために、まず 1 期間の二項モデルを検討します。このモデルでは、株価は上がるか下がる可能性があり、オプションの価値はこれら 2 つの考えられる結果によって決まります。原株とリスクのない資産のポートフォリオを構築することで、オプションの利益を再現できます。裁定取引なしの原則を使用すると、時間ゼロでのオプションの価値は時間ゼロでのポートフォリオの価値と等しくなければなりません。線形方程式を解くことにより、二項モデルにおける割引期待値を表す式を取得できます。

q で示されるリスク中立の確率尺度の概念を導入します。これにより、株価の物理的な確率からリスク中立の確率に移行することができます。このシフトは、ランダム ニックデム導関数と呼ばれる確率変数によって物理的確率を再重み付けることによって実現されます。この導関数により、オプションの価値をリスク中立の価格設定の世界から物理的な確率の世界に変換することができます。

リスク中立の価格設定の目的は、すべての割引株価がリスク中立の確率尺度 q の下でマーチンゲールであることを保証する、Zt で示されるランダム ニックデム デリバティブ プロセスを特定することです。測定の変更を実行することにより、物理的確率測定に基づく元のブラウン運動を、リスク中立確率測定に基づく新しいブラウン運動に変換できます。この新しいブラウン運動はマーチンゲール過程であり、その期待値が時間の経過とともに一定であることを示しています。

これらの概念を適用するために、無配当株のダイナミクスを表す幾何学的なブラウン運動モデルを考慮します。モデルは、ボラティリティを表す決定論的コンポーネントと確率的コンポーネントで構成されます。ただし、元の株価ダイナミクスは、決定論的要素のため、物理的確率の下ではマーチンゲールではありません。ダイナミクスをマーチンゲールにするために、ドリフト項を削除し、リスク中立の確率尺度の下で株価ダイナミクスをマーチンゲール プロセスに変換するラドン ニコジム導関数を導入します。

要約すると、リスク中立の価格設定とモンテカルロ シミュレーションは、金融デリバティブを評価するための貴重なフレームワークを提供します。リスク中立の価格設定アプローチには、シンプルさ、計算効率、複雑なデリバティブ構造の処理能力などの利点があります。ランダム ニックデム デリバティブを使用し、物理的な確率からリスク中立の確率に尺度を変更することにより、デリバティブを正確に評価し、リスクのない方法でその利益を再現することができます。

 

オーンスタイン・ウーレンベック・プロセスを使用した株式ボラティリティの取引


オーンスタイン・ウーレンベック・プロセスを使用した株式ボラティリティの取引

2020 年の初めに、S&P 500 は価格の急落に伴いボラティリティが大幅に上昇しました。 1 か月以内に指数は 1,000 ポイント近く急落しました。同時に、取引されたインデックスオプションに基づく将来のボラティリティの期待もこの期間に急上昇し、最高値の66に達しました。インデックス値が低下する市場のボラティリティの期間中に、VIX(ボラティリティインデックス)が上昇することが明らかになりました。 VIX は将来のボラティリティの見積もりとして機能します。この現象により、マーケットメーカーやトレーディング専門家は、実現されたボラティリティが持続すると予想しました。

このビデオでは、ボラティリティの市場特性を説明し、オーンスタイン・ウーレンベックの式を特定のボラティリティ指数に当てはめることによってボラティリティをモデル化する方法論について説明することを目的としています。最尤推定法を使用して、モデルの 3 つのパラメーターを市場データに合わせて調整します。次に、このプロセスを Python でシミュレートし、時間の経過に伴うボラティリティのダイナミクスを理解して分析できるようにします。

これを達成するために、time、math、numpy、pandas、datetime、scipy、matplotlib、pandas_datareader、stats モジュールからの plot_acf 関数などのさまざまな依存関係をインポートします。利用するデータは2003年以降のS&P500のデータです。金融時系列におけるボラティリティ クラスタリングとその特性を研究するには、金融時系列の統計的特性を調査した Ramacant (2005) による研究論文「金融市場におけるボラティリティ クラスタリング」を参照します。私たちが注目する 3 つの重要な特性は、過剰ボラティリティ、ヘビーテール、ボラティリティ クラスタリングです。

ボラティリティ クラスタリングとは、価格の大きな変化の後には、その方向に関係なく、他の大きな変化が続く傾向がある一方、小さな変化の後には小さな変化が続くことが多いという観察を指します。この定量的な現れは、リターンには相関がない可能性があるが、絶対リターンまたはその二乗は時間の経過とともに徐々に減少する小さな正の相関を示すことを示唆しています。これを分析するために、時間の経過に伴う価格変化の対数を表す対数リターンを調べます。 S&P 500 のログ リターンを視覚的に調べることで、2008 ~ 2009 年や 2020 年の重要なクラスターなど、特定の期間に規模の大きなクラスターを観察できます。

次に、遅延ログリターン間の相関関係を評価します。特に、指定されたデータ範囲にわたるログの戻り値には統計的に有意な自己相関が見つかりません。ただし、絶対的な大きさに焦点を当てるために対数の戻り値を二乗すると、遅れた日や週にまで及ぶ強い正の相関が観察されます。これは、ボラティリティが高い期間には傾向が持続する可能性が高く、ボラティリティが低い期間にも傾向が継続する可能性が高いことを意味します。この現象はボラティリティ クラスタリングとして知られています。

特定の日数にわたるローリングボラティリティを視覚化するには、取引ウィンドウを選択し、そのウィンドウにわたる標準偏差を計算します。ボラティリティを年換算するには、1 年の取引日数 (通常は 252) の平方根を求めます。このアプローチにより、特定の期間における実現ボラティリティの大幅な上昇を観察することができます。

この実現されたボラティリティのプロセスをモデル化するために、オーンスタイン-ウーレンベックの公式に目を向けます。この公式は、金融数学の Vasicek モデルとしても知られており、次の 3 つのパラメーターを考慮します。シータ、価格が変動する平均ボラティリティ。そしてシグマ、ボラティリティそのもの。私たちは、観測データがこの分布に従う可能性を最大化するパラメータ値を見つけることを目指しています。

これを達成するために、ランダム サンプルと確率密度関数に適用される最尤推定 (MLE) 手法を採用します。正規分布の場合、尤度関数はパラメータが与えられた個々のサンプル確率の積です。尤度関数の対数を取ることで、次のように変換できます。

オーンシュタイン・ウーレンベック過程の期待値と分散を導出したので、このフレームワークを使用してボラティリティのモデル化に進むことができます。そのために、最尤推定 (MLE) 法を使用してモデル パラメーターを市場データに合わせて調整します。

まず、time、math、numpy、pandas、datetime、scipy、matplotlib、pandas_datareader などのライブラリ、stats モジュールからの plot_acf 関数など、必要な依存関係をインポートします。また、2003 年以降の S&P 500 データもインポートしており、これが市場データとして機能します。

次に、金融時系列におけるボラティリティ クラスタリングの概念を検討します。ボラティリティ クラスタリングとは、価格の大きな変化の後には他の大きな変化が続く傾向があり、小さな変化の後には小さな変化が続く傾向がある現象を指します。 S&P 500 の対数リターンをプロットするときに、このクラスタリング効果を視覚的に観察します。市場のボラティリティの期間中、対数リターンの大きさがクラスター化し、大きな価格変動間の相関関係を示していることがわかります。たとえば、2008 ~ 2009 年の金融危機や 2020 年のボラティリティの急上昇時にクラスターが発生したことがわかります。

ログリターン間の相関関係を定量化するために、自己相関関数 (ACF) を計算します。ログの戻り値自体は有意な自己相関を示しませんが、二乗されたログの戻り値 (絶対値を表す) は、時間の経過とともにゆっくりと減衰する小さな正の相関を示します。この絶対値の自己相関は、ボラティリティのクラスター化の存在を裏付けます。ボラティリティの高い期間は持続する傾向がある一方、ボラティリティの低い期間も持続する傾向があります。

ボラティリティをさらに分析するには、標準偏差を計算し、年間取引日数の平方根を使用してそれを年換算することで、指定した日数にわたるローリング ボラティリティを計算します。ローリングボラティリティをプロットすると、実現ボラティリティの大幅な上昇によって示される、ボラティリティが増加した期間を観察できます。

ここで、ボラティリティのモデル化に使用されるオーンスタイン・ウーレンベック (OU) 式を紹介します。 OU モデルには、平均回帰、平均レベル、平均価格付近のボラティリティが組み込まれています。モデルのパラメータには、カッパ (平均回帰率)、シータ (平均レベル)、シグマ (ボラティリティ) が含まれます。これらのパラメーターを推定するには、最尤推定 (MLE) 法を適用します。これには、OU 分布から得られる観測データの尤度を最大化するパラメーター値を見つけることが含まれます。

まず、パラメータを与えられた観測データの同時確率密度関数 (pdf) である尤度関数について説明します。正規分布の場合、尤度関数は個々の pdf 値の積です。尤度関数の対数を取得すると、確率の積が対数の合計に変換されるため、計算が簡素化されます。パラメーターの最尤推定量 (MLE) を見つけることにより、観測データの尤度を最大化する値を決定できます。

OU プロセスの場合、対数尤度関数の非微分可能性により、数値的手法を使用して最尤推定値を見つける必要があります。 scipy.optimize.minimize 関数を利用して負の対数尤度を最小化します。これは最大化問題に対する数値解を提供します。対数尤度関数、初期パラメータ、制約を定義することで、観測データの尤度を最大化するパラメータを推定できます。

OU プロセスのパラメーターを推定したら、Python を使用してプロセスをシミュレートできます。タイム ステップを離散化して時間の経過に伴うパスを取得することによって、または連続時間 Itô プロセスとしてシミュレートすることによってプロセスをシミュレートできます。後者の方法では、特定の時点でのボラティリティのダイナミクスをより正確に表現できます。

結論として、本書では、市場のボラティリティの期間中に S&P 500 で観察されるボラティリティの特徴について説明します。これはボラティリティ クラスタリングの概念を導入し、対数リターンと二乗対数リターンを使用してその存在を示します。次に、オーンシュタイン・ウーレンベック (OU) モデルがボラティリティをモデル化するためのフレームワークとして導入され、最尤推定 (MLE) 法がモデル パラメーターの推定に使用されます。最後に、OU プロセスのシミュレーションについて説明し、時間の経過に伴うボラティリティのダイナミクスの分析と理解を可能にします。

 

リスクフリーでオプションを取引するための魔法の公式



リスクフリーでオプションを取引するための魔法の公式

このビデオでは、ブリーデン-リッツェンバーガーの公式を使用して、オプション価格からリスク中立の確率密度関数を導出する方法を学びます。この手法は、オプション価格の計算に時間がかかり、計算量が多くなる場合、特に複雑なダイナミクスや高次元のシナリオの場合に非常に役立ちます。ブリーデン・リッツェンバーガーの公式を使用すると、さまざまなストライクおよび満期までの時間の値に対して複素微分値を 1 回計算できるため、さまざまな複素微分値の計算を簡素化するリスク中立の確率分布関数が得られます。

まず、リスク中立確率の概念を理解しましょう。ファインマン-Kac 分析を使用すると、リスク中立確率を時間 (t) における最終リスク中立確率の尺度 (Q) として定義できます。累積確率分布関数 (F) は、リスク中立の確率分布を表します。欧州コール オプションの時間 (t) と権利行使 (k) および満期までの時間 (tau) の価格設定は、リスク中立の割引されたペイオフ期待を考慮することによって行うことができます。これは、ストライク (k) と無限大の間のリスク中立密度関数 (pdf) を乗算した (S_t - k) の積分を、リスクフリー レートで割り引いたものとして表すことができます。

この式から直接リスク中立確率を計算するには、1978 年のブリーデン-リッツェンバーガー式を使用できます。この式では、ストライク (k) に関する積分の 1 次導関数は、指数割引係数を乗じた値を引いた値に等しいと述べられています。 (1 - F)、ここで F は累積密度関数です。ストライク (k) を中心とする積分の 2 階導関数によって pdf が抽出されます。これは、リスク中立 pdf に割引係数を乗算したものです。

ここで、この数式を Python に適用する方法について説明します。 NumPy、SciPy、Pandas、Matplotlib などのライブラリをインポートする必要があります。例として、ヘストン モデルに基づいて確率的ボラティリティを持つヨーロッパのコール オプションを検討します。ヘストン モデルは、原資産のダイナミクスとそのボラティリティを提供します。株価、権利行使価格、満期までの期間、リスクフリーレートなどの必要なパラメータと、平均回帰率、長期分散、初期ボラティリティ、相関関係、ボラティリティの変動率などのヘストンモデルパラメータを初期化します。

ブリーデン-リッツェンバーガーの公式を使用すると、リスク中立の確率分布関数を決定できます。有限差分近似を使用して二次導関数を近似することにより、さまざまなストライクおよび満期までの時間の値に対するリスク中立の分布を計算します。特定の成熟期間の 2D pdf を構築します。

ヘストンモデルでオプション価格を計算するには、特性関数を使用し、長方形積分を使用して数値積分を実行します。特性関数を定義し、直交積分を使用して指定された領域にわたる複素積分を計算します。統合のために選択されたステップ サイズは、特に高価なオプションの場合、精度に影響します。

長方形積分を使用して得られた結果を、C で実装され、より正確な数値積分を提供する QuantLib ライブラリと比較します。 2 つのアプローチにはいくつかの違いがありますが、平均二乗誤差 (MSE) は小さいです。この不一致は主に、Python での 10 進数値のバイナリ表現によって発生する丸め誤差が原因です。

離散近似確率密度関数を取得した後、それに順方向係数を乗算します。補間を使用して曲線を滑らかにし、連続的なリスク中立分布関数を作成します。最後に、このリスク中立の分布を使用して、さまざまな複雑なデリバティブの価格を簡単に設定できます。

結論として、ブリーデン-リッツェンバーガーの公式を使用すると、オプション価格からリスク中立の確率密度関数を導き出すことができます。有限差分近似を使用して二次導関数を近似し、数値積分を実行することにより、さまざまなストライクおよび満期までの時間の値に対するリスク中立の分布を計算できます。これにより、複雑なデリバティブの価格を効率的に設定できるようになります。

理由: