定量的取引 (Quantitative trading) - ページ 8

 

ラマ・コントとフランチェスコ・カッポーニ:「株式市場における相互影響」



ラマ・コントとフランチェスコ・カッポーニ:「株式市場における相互影響」

ラマ・コントとフランチェスコ・カッポーニは、注文フローと価格データの分析を通じて、株式市場におけるクロスインパクトの概念を掘り下げています。彼らは、クロスインパクトとは、資産の価格がその資産自体の注文フローだけでなく、他の資産の注文フローによっても影響を受けることを意味すると主張しています。これまでの理論研究では、クロスインパクト効果の結果を導き出し、単一資産の最適な取引実行モデルを複数の資産に拡張しようと試みられてきましたが、Cont と Capponi は、資産のリターンと注文フローの相関関係を説明するためのより合理化されたアプローチを提案しています。

彼らは、これらの相関関係を説明するために、価格影響係数の包括的な行列は必要ないと主張しています。むしろ、観察された相関関係は、市場参加者が複数の資産の取引に従事することが多く、それによって資産間で相関のある注文フローの不均衡が生じているという事実に起因する可能性がある、と彼らは主張している。クロスインパクト係数の重要性と約定コストの主な要因を特定するために、発表者らは、リターンと注文フローの不均衡の相関行列に主成分分析(PCA)を使用することを提案しています。

Cont と Capponi は、株式自体の注文フローのバランスと注文フローの不均衡の相関関係に焦点を当て、株式市場における相互影響を軽減するモデルを提案しています。彼らは、注文フローの不均衡に対する 1 要素モデルが収益の相互相関を説明するのに十分であることを発見しました。このモデルはポートフォリオの実行や取引コスト分析に利用でき、発表者らは、単一資産の影響に対する信頼性の高いモデルと、資産全体にわたる注文フローの共通要因に対する優れたモデルの使用を推奨しています。

講演者らは、因果関係モデルと方程式の解釈を確立することの重要性を強調します。彼らは、追加の資料や最新情報を共有する用意があることを表明し、この研究分野の理解を促進するというコミットメントを強調しています。

  • 00:00:00ビデオのこのセクションでは、Rama Cont と Francesco Capponi が株式市場におけるクロスインパクトの概念について話し合います。彼らは、株式市場からの注文フローと価格データを分析することでこの概念を調査し、市場への影響、つまり資産の価格を動かす取引の実行が約定コストに寄与すると説明しています。彼らはまた、価格変動が需要と供給の間の全体的な不均衡によって引き起こされることを示し、注文フローの不均衡の概念を影響モデルを構築するための有用なツールとして定義します。

  • 00:05:00このセクションでは、Rama Cont と Francesco Capponi が、集中注文帳市場における注文フローの不均衡の線形的な影響について説明します。この需要と供給の間の総不均衡が価格を動かすものであり、流動性の反対の概念を反映した影響係数を持つ回帰モデルとして見ることができます。この係数はオーダーブックの深さと高い相関関係があり、共分散計算を通じて影響係数を抽出できます。この調査は以前は単一の銘柄に対して行われていましたが、市場参加者は複数の資産にわたる相関関係にも関心を持っており、注文フローの不均衡とさまざまな証券のリターンの間に正の相関関係が見出されています。

  • 00:10:00このセクションでは、Rama Cont と Francesco Capponi が、クロスインパクトの概念とその理論的および実証的研究について議論します。彼らは、クロスインパクトとは、資産の価格がその資産自体の注文フローだけでなく、他の資産の注文フローにも影響されるという事実を指すと説明しています。実証研究では、少なくとも同種の資産クラスにおいては、ある資産の注文フローと別の資産の価格変動との間に正の相関関係があることが実証されています。理論研究では、このような相互影響効果の結果を導き出そうと試み、単一資産の最適な取引執行モデルを、モデルに相互影響効果が含まれる複数の資産に拡張しました。ただし、これにより、多数の相互衝撃係数を推定する必要が生じます。

  • 00:15:00このセクションでは、発表者はクロスインパクトの概念と、観察可能な市場現象を説明する際のその関連性について説明します。彼らは、市場における資産リターンと注文の流れの相関関係を説明するために、価格影響係数の完全な行列が必要なのかどうか、また、より倹約的なアプローチは可能なのかどうかを疑問視しています。彼らはまた、物理学における離れた場所でのアクションに類似性を示し、因果関係を確立するために資産を相互に結び付ける基礎となるメカニズムの必要性についても議論しています。目的は、必要な係数のみを含み、不必要な複雑さを回避するマルチアセット影響モデルを設計することです。

  • 00:20:00このセクションでは、講演者は、株式市場で観察される価格変動と注文フローの不均衡の共変動を説明するのにクロスインパクトの概念は不要であると主張します。観察された相関関係は、市場参加者が複数の資産を取引することが多く、資産間で相関関係のある注文フローの不均衡が生じ、それが結果的に異なる資産のリターンの相関関係につながるという事実によって説明できます。講演者は、資産の価格が注文フローの不均衡によって左右されることを示す因果モデル図を提示します。注文フローの不均衡とは、エンティティおよび複数資産の取引戦略によって生成されるすべての買い注文と売り注文の代数的合計です。彼らは、これらの相関関係を説明するには単一の資産影響モデルで十分であり、追加の相互影響モデルは必要ないと主張しています。

  • 00:25:00このセクションでは、需要と供給が各資産の価格を動かし、注文フローのバランスに相関関係を生み出すという従来の見方を、株式のリターンに影響を与えるメカニズムを仮定するクロスインパクトモデルと比較します。遠くから。これらの仮定は、図内の変数を条件付けし、条件付き回帰を実行することで、注文フローと返品に関する入手可能なデータを使用してテストできます。複数の資産に対する影響モデルの構築と、それが引き起こす固有の識別問題について説明します。リターンと OFI という 2 つの変数を持つ線形モデルを使用して、シータ係数とベータ係数の行列を作成します。株式の正味注文フローは、買値キューへの流入から売値キューからの流出を差し引いたものとして定義されます。

  • 00:30:00このセクションでは、Rama Cont と Francesco Capponi が、注文フローの不均衡による収益の共分散と、それがベータ マトリックスおよび相互影響にどのように関係するかについて説明します。彼らは、共分散はオーダーフローの相関関係またはクロスインパクト行列のいずれかから得られるため、共分散行列で非対角要素を取得するためにベータに非対角要素を含める必要はないことを強調しています。注文フローに相関関係はないが相互影響係数がある 2 つの銘柄の例は、相互影響係数を特定するために注文フローの相関関係を知ることの重要性を強調しています。共分散行列は、モデル内の相関係数と相互影響係数の影響を受けます。これらは、さまざまなシナリオの数値で観察できます。

  • 00:35:00このセクションでは、Rama Cont と Francesco Capponi が、銘柄間の相関関係と注文の流れをモデル化することと、それに影響を与える相互影響を理解してモデル化することの違いについて説明します。彼らは、ある資産の注文フローと別の資産のリターンとの間のゼロ以外の相関関係を観察するだけでは、モデルにゼロ以外の相互影響係数が必要であることを意味しないと説明しています。また、低い相関と注文フロー、高い相互影響、およびその逆の例も示し、これらの共分散だけから相互影響を推測するのは不可能であることを示しています。最後に、彼らは分析したデータ(2 年半にわたるナスダック 100 銘柄の純注文フロー、注文フローの不均衡、およびリターンを含む)について議論し、リターンと注文フローの不均衡をどのように再定義して正規化したかについて説明します。

  • 00:40:00ビデオのこのセクションでは、講演者が株式リターンの相関関係とさまざまな株式の注文フローの不均衡の間の関係を検証します。講演者らは、他の株式の注文フローの不均衡に対する株式リターンの相関関係をプロットすることにより、大多数の株式ペアが等価に非常に近い相関関係を持っていることを実証し、リターンと注文フローの不均衡との相関関係は単純に、異なるバランス間の相関関係。多変量の市場影響モデルが必要かどうかをテストするために、講演者は回帰分析を使用し、相互影響係数がゼロに非常に近いことを発見しました。これは、たとえ識別可能であったとしても、全体の影響に与える影響はごくわずかであることを示しています。

  • 00:45:00このセクションでは、Rama Cont と Francesco Capponi が、相互影響係数の重要性と実行コストの主な要因を特定するための別のアプローチを提案しています。彼らは、返品と注文フローのバランスの相関行列に主成分分析(PCA)を使用し、注文フローの不均衡に対して要因モデルを使用することを提案しています。ファクター モデルの第 1 主成分は、交差影響係数の残りの有意性をテストするために使用され、回帰の残差は、その銘柄のアクションのみによる特異な注文フローとして解釈されます。このアプローチは、株式自体の注文フローの特異な要素の寄与を、クロス取引による共通の要素から切り離すことを目的としています。

  • 00:50:00ビデオのこのセクションでは、Rama Cont と Francesco Capponi が、ナスダック 100 と S&P 500 を追跡する ETF のリターンの第一主成分と注文フロー残高との相関関係について議論しています。リターンは、ナスダック 100 に連動する ETF の全体リターンと 91% の相関関係があります。同様に、オーダーフロー残高の第 1 主成分は、同じ指数に連動する ETF QQQ のオーダーフロー残高と 82% の相関関係があります。 。彼らはまた、リターンと注文フローの不均衡の両方の第一主成分が市場全体の動きに関連していることも観察しています。これにより、彼らは注文の流れの共通性を取り除き、収益を高めるための 2 段階のアプローチを説明することになります。

  • 00:55:00このセクションでは、ラマ・コントとフランチェスコ・カッポーニが株式市場におけるクロスインパクトについて議論します。これは、銘柄独自の注文フローの不均衡と銘柄間の注文フローの共通性が株式のリターンにどのように影響するかを指します。彼らは、自己影響係数が株式のリターンの主な決定要因であるのに対し、相互影響係数は非常に小さく、主成分を考慮するとほとんどすべてがマイナスになることを示しています。次に、クロスインパクト条件がリターンの実行コストの説明にどの程度寄与するかをテストし、それらが統計的および経済的に有意であるかどうかを評価すると同時に、長期にわたる安定性にも疑問を呈します。

  • 01:00:00このセクションでは、Rama Cont と Francesco Capponi が、クロスインパクトの影響と株式市場におけるその重要性について議論します。彼らは、統計は経済的には重要かもしれないが、その規模は小さく、他のすべての次数の流れの不均衡を回帰に含めた場合、説明力にはほとんど区別できる差はないと結論付けています。彼らは、影響をモデル化するためのより倹約的な方法を主張し、銘柄自体の注文フローのバランスと、モデルの影響に対する注文フローの不均衡の相関のみを使用することを提案しています。また、長期にわたる安定性の重要性も強調し、サブサンプルを分析して相互衝撃係数が安定していることを確認します。

  • 01:05:00このセクションでは、Rama Cont と Francesco Capponi が株式市場における相互影響モデルに関する調査結果を要約しています。彼らは、さまざまな銘柄間のリターンと注文フローバランスの間の正の共変動現象は、多くの係数を持つ高次元モデルを導入しなくても説明できると主張しています。不均衡な注文フローの単純な 1 要素モデルは、収益の相互相関のこれらのパターンを説明するのに十分です。彼らは、マルチアセット影響モデルを構築するためのより良いアプローチは、線形因子モデルや注文フローの主成分分析など、注文フローの共通因子のモデルの構築に焦点を当てることであると示唆しています。注文フローをそれ自身のリターンに関連付ける単一資産影響モデルを導入することは、ポートフォリオ実行における実行コストの大きさを説明するのに十分です。

  • 01:10:00このセクションでは、Rama Cont と Francesco Capponi が、特にポートフォリオの実行と取引コスト分析 (TCA) のコンテキストにおいて、モデルの実際の応用について説明します。このモデルでは、資産間の注文フローの共通性を考慮して、約定コストの定量化が可能になります。単一資産とポートフォリオの実行コストの差は、共通係数に関連しています。このモデルを使用すると、ポートフォリオ レベルの約定コストを測定でき、トレーディング ポートフォリオの影響をより深く理解するのに役立ちます。彼らは、単一資産の影響についての優れたモデルと、資産全体にわたる注文フローの共通要因についての優れたモデルを使用することを提案しています。

  • 01:15:00このセクションでは、講演者は方程式 12 の収益の第 1 主成分の使用について議論します。彼らは、OFI の主成分の使用と収益の使用の間には高い相関関係があることに注意していますが、彼らは、それらが必要だったと主張しています。不均衡が収益を説明するために、因果関係分析に従い、共通点をモデル化します。彼らは、因果関係モデルと方程式の解釈を持つことの重要性を強調しています。講演者は聴衆の注目に感謝し、さらなる資料や最新情報を共有する意欲を表明します。
Rama Cont and Francesco Capponi: "Cross-Impact in Equity Markets"
Rama Cont and Francesco Capponi: "Cross-Impact in Equity Markets"
  • 2020.10.13
  • www.youtube.com
Title: "Cross-Impact in Equity Markets" Joint Work with Francesco CapponiAbstract: The empirical finding that market movements in stock prices may be correl...
 

アダム・グリーリッシュ: 「個人投資へのアルゴリズム的アプローチ」



アダム・グリーリッシュ: 「個人投資へのアルゴリズム的アプローチ」

Betterment の投資担当ディレクターである Adam Grealish が、個人投資に対する同社のアルゴリズム的アプローチと目標ベースの戦略についての洞察を提供します。 Betterment はロボ アドバイザリー モデルを活用し、アルゴリズムを活用し、人的介入を最小限に抑えて顧客に投資アドバイスと管理を提供します。

グリーリッシュ氏は、投資成果を決定する 3 つの重要な要素、すなわちコストの削減、税金の最適化、インテリジェントな取引を強調しています。すべての要素が重要ですが、Betterment では最初の 3 つを重視しています。同社は、Black Litterman 最適化手法を採用して世界的に分散されたポートフォリオを構築し、50 万人という広大な顧客ベース全体のターゲット ウェイトを継続的に監視しています。欠損金の回収、資産の所在場所、ロットの仕分けなどの戦略を含む税金の最適化は、市場を上回るパフォーマンスを発揮する機会を提供します。

グリーリッシュ氏は、議論の後半部分で、Betterment のアプローチを従来の自動化された財務アドバイザーと区別しています。従来のロボアドバイザーの「万能型」アプローチとは異なり、Betterment のアルゴリズム アプローチでは、目標、期間、リスク許容度などの個別の要素が考慮されます。このカスタマイズにより、各投資家の固有の状況に合わせてカスタマイズされたポートフォリオが可能になります。 Betterment は、税務効率を最大化し、利益を増やすための欠損金回収や税調整されたポートフォリオなどの追加機能も提供します。

グリーリッシュ氏は、ベターメントの投資戦略の詳細をさらに掘り下げています。同社は、目標配分に向けてポートフォリオを年に 1 回調整するだけで、長期的な配分の安定性を奨励しています。トリガーベースのリバランス アルゴリズムを利用して、目標割り当てからのずれを管理し、リスクを最小限に抑えます。ベターメントのポートフォリオは、幅広い時価総額ベースのETFを使用して構築されており、関連するリスクプレミアムを伴うリスクの高い資産クラスへのエクスポージャーを最適化しています。

コストの最適化は、Betterment の投資哲学の重要な側面です。同社はETFの手数料引き下げ傾向を利用し、ETF全体を四半期ベースで見直している。選択プロセスでは、トラッキングエラーや取引コストなど経費率を超えた要素が考慮され、Betterment の顧客にとって低コストのポートフォリオが実現します。

税金の最適化は、Betterment の戦略のもう 1 つの重要な要素です。グリーリッシュ氏は税務管理の重要性を説明し、欠損金の回収、資産の所在、ロットの仕分けという 3 つの効果的な戦略の概要を説明します。税金損失の回収には、税務上のキャピタルロスを実現するために損失を出して証券を売却することが含まれますが、資産の場所では、資産を複数の口座に戦略的に配分することで税引き後利益を最大化します。ロットの仕分けでは、税務上のメリットを最適化するために、損失が最も大きいロットを最初に売却する必要があります。

グリーリッシュ氏は、投資家の行動が投資結果に与える影響を認めています。ベターメントでは、スマートなデフォルトを実装し、自動化を使用し、目標に基づいた投資を奨励することで、ネガティブな行動と闘います。同社は意図的なデザインとデータ分析を採用して、ユーザーが財務目標から逸脱した場合に行動を起こすよう促します。

将来の展開に関して、グリーリッシュ氏はフィンテック分野における AI の潜在的な用途について説明します。 Betterment は、ロボアドバイスや資金管理などの財務タスクの自動化における AI アプリケーションを検討しています。同社は、これまで富裕層の個人や機関に限定されていた金融サービスを、より幅広い層が利用できるようにすることを目指している。ただし、税金の準備を個別に行うのは複雑なので、この分野では課題が生じます。

全体として、アダム・グリーリッシュは、目標ベースの戦略、コストの最適化、税金管理、および行動の軽減を強調する、個人投資に対するベターメントのアルゴリズム的アプローチについて貴重な洞察を提供します。

  • 00:00:00 Adam Grealish が、投資管理に目標ベースのアプローチを使用するオンラインの自動投資アドバイス プラットフォームである Betterment を紹介します。その目的は、最適な投資戦略を通じて顧客に高いリターンを提供することです。 Betterment は、顧客直販ビジネス、財務アドバイザー向けのホワイトラベル テクノロジー プラットフォーム、および 401k ビジネスを展開しています。 「ロボアドバイザー」という用語は、人間の介入を最小限に抑え、ソフトウェアによって実行されるアルゴリズムを通じてデジタル財務アドバイスを提供するというベターメントのアプローチを正確に表しています。

  • 00:05:00改善のための投資担当ディレクターのアダム・グリーリッシュ氏が、アルゴリズムと数学的モデリングに基づいた投資アプローチについて説明します。 Betterment プラットフォームは、人間の介入を必要としない完全に手動の投資管理体験を提供し、希望する人には人間のアドバイザーへのアクセスを提供します。グリーリッシュ氏によると、投資成果を決定する主な要素は、コストの低減、税金の最適化、賢明な取引、資産配分、証券の選択です。ただし、Betterment では、財務目標を達成する上で最も決定的であると考えられる最初の 3 つに主に焦点を当てており、資産配分や証券の選択にはそれほど重点を置いていません。彼らは、Black Litterman 最適化手法を使用して、世界的に分散されたポートフォリオを作成し、投資家に最適なリターンを実現します。

  • 00:10:00このセクションでは、アダム・グリーリッシュが、投資家が特定の投資目標と期間に基づいてどれだけのリスクを取るかを選択するのにどのように役立つかについて説明します。このアプリは、どの程度のリスクを取るべきかについての推奨事項と、時間の経過とともにどのようになるかについての予測を提供します。その後、毎日の監視を通じてターゲット ウェイトを管理し、50 万人の顧客に対してこれを実行し、最大 800,000 の個別ポートフォリオを毎日監視します。リバランスは主にリスク管理ツールとみなされ、キャッシュフローが発生したとき、配当金が支払われたとき、または口座から手数料を差し引くときに節税効率の高い方法で行われます。 Grealish は、相関関係のない証券を使用してポートフォリオのバランスを長期的にリバランスする利点を強調した Bushi (2012) の論文について説明しています。最後に、清算プロファイルに基づいて目標を区別し、水平線の長さに基づいてグライド パスを構築します。

  • 00:15:00アダムは、個人投資に対するアルゴリズム的アプローチがどのように機能するかについて説明します。彼らは投資家に対し、目標配分に向けて調整するのは1年に1回だけで、配分を長期間維持することを奨励している。同チームは顧客の目標配分を月次ベースで調整するため、潜在的なリスクを伴うリバランス取引を行うことなく、マージンドルを正しいリスク目標に近づけることができる。彼らのポートフォリオは完全に広範な時価総額ベースのETFに基づいており、リスクプレミアムを伴うリスクの高い資産クラスへのエクスポージャーを最適化しています。同チームはトリガーベースのリバランスアルゴリズムを採用し、目標配分からのずれを測定し、目標配分からのずれが生じた場合にはリバランスを行い、リスクを管理している。最後に、グリーリッシュ氏は、金融についてよく知っている人と個人の金融についてよく知っている人の間には大きな隔たりがあると指摘しています。

  • 00:20:00このセクションでは、Adam Grealish が ETF の手数料引き下げ傾向について議論します。これは、個々のファンドファミリーと結びついていない独立系のロボアドバイザー会社である Betterment にとって有利でした。ベターメントでは、四半期ごとにファンド選択プロセスを実施しており、投資可能なETF全体がレビューされ、経費率だけでなく、トラッキングエラーや取引コストなどの他の要素も考慮してランク付けされます。 Betterment は、保有コスト、取引コスト、その他の要因によって決定される年間総所有コスト、つまり「タコス スコア」に焦点を当てています。このプロセスにより、Betterment の低コストのポートフォリオが生まれます。

  • 00:25:00ビデオのこのセクションでは、Adam Grealish が Wealthfront の投資アプローチのさまざまな側面について説明します。同氏は、期待収益はキャップ m からの逆最適化によって生成され、税ロット レベルで動作するモンテカルロ シミュレーション エンジンを使用して税金戦略をテストしていると説明します。グリーリッシュ氏はまた、個別の証券を保有することでファンド業界を中抜きすることは、より多くの税金徴収の機会と個人化につながる可能性がある興味深いアイデアだが、それには運営コストが伴うとも指摘している。さらに、ウェルスフロントが投資の保有と取引にかかるコストをどのように秤量して、総コストの正確な測定値を提供するかを説明します。

  • 00:30:00 Betterment の CEO、Adam Grealish が、個人投資における税金管理の重要性について説明し、効果的な税金管理のための 3 つの戦略、つまり欠損金の回収、資産の所在場所、ロットの仕分けについて概説します。税損失の回収には、税務上のキャピタルロスを実現するために損失を出した証券を売却し、市場エクスポージャーを維持するために関連証券を購入することが含まれます。ベターメントは、目標リスク配分を維持し、投資家が損失で証券を売却し、30日以内に実質的に同一の証券を購入する場合に発生するウォッシュセールを回避しながら、回収される損失を最大化することを目指しています。グリーリッシュ氏はまた、税務管理には市場を上回るパフォーマンスを発揮する機会があり、特定の状況では大幅な租税回避につながる可能性があると指摘しています。

  • 00:35:00アダムは、納税義務の増加を避けるために、30 日後にやみくもに主要証券に戻さないようにアドバイスします。長期的には 1 ドルの損失が発生する一方、短期的には 4 ドルのキャピタルゲインが発生し、マイナスにつながる可能性があるからです。税金の裁定。同氏はまた、適格配当の軽減税率は 60 日の期間後にのみ適用され、あまりにも早く元に戻すと税務効率が損なわれる可能性があることも強調しています。グリーリッシュ氏は、プライマリ証券との相関性が高く、同等の手数料を備え、税務効率を確保するのに十分な流動性を備えたセカンダリ証券を選択することを推奨しています。収穫に関してグリーリッシュ氏は、特に証券のボラティリティが高い場合、期待される利益が取引コストや機会コストよりも大きくなるような閾値を設定することを提案しています。これらのコストは、オプション理論を使用して決定できます。グリーリッシュ氏のバックテストでは、年間 2% 近くのオフセットが示されていますが、この戦略に盲目的に従うことが常に最適であるとは限らない、と彼は警告しています。

  • 00:40:00このセクションでは、Adam Grealish が欠損金回収の利点について説明し、それを個人口座に効果的に適用する方法についてアドバイスします。税損失の回収はリスクを管理する効果的な方法となり得、バックテストの結果は、税引き後のアルファを促進することを示しています。ただし、この戦略を個人アカウントに適用する場合、ユーザーは取引コストと将来のウォッシュセールの機会コストを考慮する必要があります。資産の所在場所は、税引き後利益を最大化できるもう 1 つの戦略です。目標配分とポートフォリオのリスクを維持するために資産をアカウント間で配分することで、ユーザーは税引き後利益を増やすことができます。

  • 00:45:00 Adam Grealish は、さまざまな種類の証券に対する税務処理について説明し、個人投資に対するアルゴリズム アプローチを提供します。彼は、非効率な資産を税制上の有利な口座に移動し、効率的な資産を課税対象の口座に移動することで、3 つの口座への投資を最適化する方法を説明します。これには、資産の成長率、配当利回り、清算税、適格配当所得比率を考慮し、問題を線形計画問題として設定することが含まれます。このアルゴリズムによる投資アプローチは、最適化されていない戦略に年間約 50 ベーシス ポイントを追加します。

  • 00:50:00このセクションでは、Adam Grealish が税金ロット管理について、またユーザーがすべてのロットを分類し、利益に移って最小のロットを最初に販売する前に、最大の損失を最初に売却するのを Betterment がどのように支援しているかについて語ります。彼はまた、税務上の損失の重要性と、損失をキャピタルゲインに対してどのように使用したり、所得に対して償却したり、繰越したりできるかについても強調しています。次にグリーリッシュ氏は、税率の不確実性の問題と、税引後のアウトパフォーマンスを見解として組み込み、それに対する信頼レベルを指定することにより、ベターメントがブラック・リターマン・プロセスを通じてこの問題にどのように対処しているかについて説明します。その後、資本市場の前提条件と戦略的資産の配置を毎年見直しながら、事後リターンをしっかりと最適化し、そこから最適なポートフォリオを構築します。最後に、彼は税引後の予想パフォーマンスが高いため、課税対象ポートフォリオにおける地方債の配分が増加していることについて詳しく説明します。

  • 00:55:00アダム・グリーリッシュが、行動のテーマとそれが個人投資家にどのような影響を与えるかについて説明します。同氏は、投資家が市場が上昇すると買い、下落すると売却する傾向があり、それがパフォーマンスの低下と資産の減少につながると説明しています。これに対抗するために、ロボアドバイザーはスマートなデフォルトを設定し、自動化を使用し、より良い行動を促進するために目標に基づいた投資を奨励します。アダムはまた、投資家の行動による年間のアンダーパフォーマンスを通常 1 ~ 4% の範囲で定量化した研究についても言及しています。

  • 01:00:00アダムは、意図的な設計とデータ分析を通じて悪い投資行動と闘うベターメントのアプローチについて説明します。同氏は、顧客の約 4 分の 3 が市場のタイミングに関与しておらず、同社は顧客の活動を注意深く監視していると指摘しました。 Betterment はカラー デザインを使用して、顧客が財務目標の達成に向けて軌道から外れていることを示し、軌道に戻るための行動を促します。市場が不確実な時期に、同社は自社のプラットフォームを利用してさまざまなメッセージングや介入をテストしましたが、市場のネガティブな傾向について顧客に通知すると不安を引き起こし、ネガティブな結果につながることがわかりました。むしろ、アプリ内での介入やメッセージングの方が、マイナスの結果を減らし、顧客の入金を増やす上でより効果的であることが証明されました。

  • 01:05:00このセクションでは、Betterment の最高投資責任者である Adam Grealish が、アルゴリズム投資が資産を収集したいという欲求によってどの程度動機付けられているか、またそれが倫理的であるかどうかについて説明します。同氏は、このシステムが主に目標を達成できていない個人や、目標を達成するかぎりぎりの個人に影響を及ぼしていると指摘し、それが会社の目標であれば資産を引き出すもっと良い方法があると述べている。彼が議論する他の戦略には、貯蓄や預金の変更、または目標計画の変更が含まれます。グリーリッシュ氏はまた、顧客の潜在的な納税義務を示し、性急な意思決定の可能性を減らすのに効果的であることが証明されている「税務影響プレビュー」機能など、行動バイアスを軽減するためのベターメントのアプローチについても説明している。

  • 01:10:00アダムは、フィンテック分野における AI の潜在的な用途について説明します。同氏は、AIが最初に導入されるのは、ロボアドバイスや資金管理などの財務周辺部分の自動化だと考えている。たとえば、Betterment は、AI を使用して外部口座をプロキシ ティッカーにマッピングし、取引データを使用して当座預金口座にいくら現金を入れるべきかを人々にアドバイスすることを検討しています。グリーリッシュ氏はまた、長期的にはベターメント社がファイナンシャル・アドバイザーをすべての人の金融生活の中心に据え、これまで超富裕層や機関投資家のみが利用できたものを納税準備も含めて広く利用できるようにすることを目指していると示唆している。ただし、税金の準備を個別に行うと、問題の領域がさらに複雑になります。

  • 01:15:00 Betterment の Adam Grealish 氏は、州固有の地方債は Betterment のプラットフォームに載っていない、その理由は州内にあることが最良の選択肢であるとは必ずしも明らかではなく、それはちょっとメニュー外のようなものであると説明しています。 。 Betterment プラットフォームを使用すると、他の不動産保有の外部口座をリンクして純資産を手動で追跡できますが、リソースを大量に消費する他のファンドのリスク リターン評価も利用できません。 Betterment は、税務上の理由で資産クラスを除外するのではなく、資産クラスについて考えることに焦点を当てており、独立したアドバイザーとしての構造と、顧客の日常取引に押し込むことで、よりフルサービスの財務アドバイザーとなるため、ロボアドバイザー業界ではユニークです。 。同社は研究計算の一部を AWS で実行していますが、まだ AWS や既存のパブリック API の高度なユーザーではありません。

  • 01:20:00このセクションでは、Adam Grealish が Betterment の取引プロセスについて説明します。彼らは顧客の注文フローの内部化を検討しましたが、代替取引会場として分類されたため、このオプションは最終的に追求されませんでした。代わりにBettermentにはトレーディングデスクがあり、Apex経由で取引が実行され、Apexが決済も行ってくれます。顧客には取引コストは請求されず、定額のプラットフォーム手数料のみが請求されるため、取引頻度は低くなります。ベターメントのETFは株式と債券で構成されており、債券ファンド内で節税効果も得られます。さらに、Betterment は、期待リターンを除いたすべてのリターンを追跡します。これは、実現リターンと期待リターンに分類できるためです。
Adam Grealish: "An Algorithmic Approach to Personal Investing"
Adam Grealish: "An Algorithmic Approach to Personal Investing"
  • 2020.09.17
  • www.youtube.com
In this talk, Adam Grealish of Betterment will explore how technology can be used to improve investor outcomes. Technology and automation can play a signific...
 

ミケル・ノゲルとアロンソ: 「金融におけるディープラーニングの最新開発」



ミケル・ノゲルとアロンソ: 「金融におけるディープラーニングの最新開発」

この包括的なビデオでは、ミケル・ノゲル・イ・アロンソが、業界固有の複雑さと経験的な性質にもかかわらず、金融分野におけるディープラーニングの可能性を探求しています。ディープラーニングは、特に非構造化データや金融アプリケーションにおいて、非線形関係を捕捉し、繰り返し発生するパターンを認識する上で貴重な機能を提供します。ただし、過剰適合や非定常状況での有効性の制限などの課題も生じます。これらの課題に対処するために、要因、感情分析、自然言語処理を統合することで、膨大な量のデータを扱うポートフォリオ マネージャーに貴重な洞察を提供できます。万能のモデルは存在せず、ディープ ニューラル ネットワークは従来のベンチマーク モデルを置き換えるべきではないことに注意することが重要です。さらに、アロンソ氏は、オープンソースで効率性の高い言語モデルである BERT の重要性を強調しています。BERT は、財務文書の数値を深く理解していることを実証し、金融データセットにとって特に価値のあるものとなっています。

ビデオ全体を通じて、アロンソは重要な洞察を共有し、金融における深層学習モデルの利用に関するさまざまな側面について説明します。彼は、畳み込みニューラル ネットワークを使用した分析用の画像への金融データの変換、非線形データ圧縮のための自動エンコーダの活用、時系列分析のためのメモリ ネットワークの適用を検討しています。ディープラーニング技術を使用して金融関連の問題に効果的に対処するための重要な要素として、ドメインの専門家と機械学習の実践者のコラボレーションが重要視されています。

アロンソ氏は、データ生成プロセスの動的な性質や、こうした変化に適応できるモデルを開発する必要性など、金融分野でディープラーニングを扱う際に遭遇する課題を詳しく掘り下げています。彼は、情報理論、複雑さ、最も簡潔な表現を見つけるための情報の圧縮の概念に焦点を当てています。ユニバーサル近似定理について説明し、任意の精度で任意の関数を近似するディープ ニューラル ネットワークの能力を強調しますが、一般化は保証されません。講演者は、正則化、ニューラル ネットワークの固有次元、および過剰パラメータ化されたニューラル ネットワークに関する研究論文をさらに調査することを推奨しています。

講演者はまた、補間レジームのアイデアについても触れています。このレジームでは、ディープ ニューラル ネットワークが、より小さなノルムを持つ補間関数を識別する、より大きな関数クラスを発見できます。彼らはディープ ニューラル ネットワークの定性的側面について議論し、さまざまなレイヤーの重要性の変化と時系列予測におけるレイヤーの役割を強調しています。ただし、線形モデルは引き続きベンチマークとして機能し、深層学習モデルの結果は線形モデルと比較する必要があることを強調します。

アロンソは、金融における深層学習モデルのパフォーマンスに関する洞察を提供し、複数の銘柄で長期短期記憶ネットワークを使用した結果を示し、他のニューラル ネットワークに対する優位性を実証します。深層学習モデルは、S&P 500 の最良の銘柄を選択する際に線形モデルよりも優れたパフォーマンスを発揮し、サンプル外の情報比率が向上することが示されています。講演者は、ディープラーニングが一貫して優れたパフォーマンスを発揮し、モデルを選択する際に信頼できる選択肢となり得ることを強調しました。

因子は金融の深層学習モデルにおいて重要な役割を果たし、収益との非線形関係の探索を可能にします。非線形性の利用により、このアプローチは純粋な時系列演習とは区別されます。講演者はまた、トレーニング期間中のパラメータ選択の重要性を強調し、より多くのデータを使用することが常に精度の向上につながると仮定しないように警告します。これらのモデルは主に履歴データに基づく研究目的であるため、コストや実際の考慮事項が組み込まれていないことに注意することが重要です。

講演者は論文の焦点を明確にし、その意図はディープニューラルネットワークが優れていると主張することではなく、むしろディープニューラルネットワークを従来のベンチマークモデルと並行して使用する必要性を強調することであることを強調しました。学習ウィンドウなどのパラメーターを考慮する必要性とともに、非線形関係を把握し、繰り返し発生するサイクルを理解することの重要性について説明します。ディープ ニューラル ネットワークは、線形モデルでは見落とされる可能性のある 2 次または 3 次の効果を捕捉することで、特定のシナリオで独自の洞察を提供する可能性があります。ただし、普遍的なモデルはなく、ディープ ニューラル ネットワークは既存のベンチマーク モデルを置き換えるのではなく、補完する必要があることが強調されています。

金融における自然言語処理、特に感情分析の応用も研究されています。市場で生成される膨大な量の情報を考慮すると、高次元空間を調査および分析するにはビッグデータ ツールが不可欠です。機械学習、特にディープラーニングは、これらの課題に対処する上で有益であることが証明されています。言語モデルはセンチメント分析などのタスクに活用でき、市場の勢いについての洞察を得ることができます。インターネットのスクレイピングは、市場の変化を示す可能性のある情報の変化を検出するための効率的なアプローチであることが証明されています。全体として、自然言語処理は、大量のデータを扱うポートフォリオ マネージャーに貴重な洞察を提供します。

このビデオでは、講演者が金融におけるセンチメント分析の 2 つのアプローチを詳しく説明しています。従来の方法では、肯定的な単語と否定的な単語の頻度をカウントしますが、より高度なアプローチでは、深層学習と単語の埋め込みを利用して、単語の文脈上および意味上の意味を把握します。講演者は、単語のより正確かつ効率的な表現を提供する最先端の言語モデルである、トランスフォーマーによる双方向エンコーダ表現 (BERT) の有効性を強調します。 BERT の財務テキストの数値を理解する能力は、正確な財務分析にとって特に重要です。多層パーセプトロン、メモリ ネットワーク、コブネットなどの他の関数近似器も、金融における有用なツールとして言及されています。

さらに、講演者は金融データを画像に変換し、分析に畳み込みニューラル ネットワークを使用するという概念についても説明します。このアプローチは、教師なし学習の問題に対して特に有益であることがわかります。非線形データ圧縮のためのオートエンコーダと時系列分析のためのメモリネットワークの使用が導入されています。環境が十分に安定している場合、メモリ ネットワークは時系列データの分析に適しています。さらに、講演者は金融における言語処理のためのトランスフォーマー モデルの使用について触れ、TensorFlow を使用したその実装についての洞察を提供します。

金融におけるオープンソースの深層学習モデルの実装に関して、講演者は、金融アプリケーション向けの特別なトレーニングが必要になる可能性があるものの、利用可能なオープンソース コードが豊富にあるため、達成可能な目標であると強調しました。現場では機械学習を活用する機会が数多くあるため、金融関連の問題を解決するには、ドメインの専門家と機械学習者のコラボレーションが不可欠です。講演者は、手作りの自然言語処理アプローチは現在金融分野で利用されているが、深層学習モデルはまだ業界で広く採用されていないと述べています。

このビデオでは、個人が辞書を使用して JP モルガンなどの企業を説明する際に、タイプミスがないことを確認するという、金融における手作りの管理の伝統的な方法についても詳しく説明しています。長短期記憶ネットワークや BERT などのさまざまな機械学習アルゴリズムの有効性について説明します。 BERT は、公表された研究において最先端のものと考えられています。クロスセクション投資における機械学習の可能性も探求されており、機械がフラットなリターンやファクターを解釈するのを支援するファクターやリターンの使用が提案されています。

講演者は、深層学習で最適な値を見つけることの難しさに言及し、それが NP 問題である可能性があることを認めています。経験と直感を持つヒューマン データ サイエンティストは、専門知識に基づいてヒューリスティックな選択を行う必要があります。ディープ ニューラル ネットワークの理解と解釈の課題が浮き彫りになっており、数学者ですらその並外れたパフォーマンスを説明する方程式を定式化するのに苦労しています。このような場合には、定性分析がよく使用されます。ただし、時間の経過とともに、さまざまなデータセットを扱ううちに、データ サイエンティストは特定の状況に最適なパラメーターを選択するための直観を養うことができます。

  • 00:00:00ミゲル・ノゲル・アロンソが金融におけるディープラーニングの応用について語ります。同氏は、ディープラーニングは画像認識や言語モデルなどの他の分野で成功を収めているが、業界の経験的でノイズの多い性質のため、金融分野でどのようにうまく応用できるかは複雑だと指摘する。複雑さにもかかわらず、非構造化データや金融アプリケーションでのディープラーニングの使用には刺激的な可能性があります。 Education Finance Institute は大学や企業と協力して、金融における AI の使用を研究しています。

  • 00:05:00ビデオのこのセクションでは、ミケル・ノゲル・イ・アロンソが金融における機械学習モデルの使用の可能性と、この分野で行われている研究の不足について説明しています。彼は続けて、教師あり学習、教師なし学習、強化学習など、金融で使用できる機械学習のさまざまな分野を強調します。ノゲル・イ・アロンソ氏は、この分野での研究は現在限られているため、教師なし学習のためのより多くのツールの構築に注力するよう研究者に勧めています。同氏は、信用損失の予測やデータセットの整理などの目的で機械学習を利用できない金融業界は存在しない、と締めくくっています。

  • 00:10:00講演者は、非線形関数を使用した不可能学習、回帰問題、教師なし学習のエンジンとしてディープ ラーニングを紹介します。ニューラル ネットワークは、多数のパラメーターを持つ非線形関数として説明されており、その実現可能性について統計学者やエンジニアから警告が生じています。しかし、深層学習の先駆者たちは、深層学習を統計的な期待に反して機能させる活性化関数、層の数、ニューロンの適切な組み合わせを発見しました。講演者は、畳み込みニューラル ネットワーク、リカレント ニューラル ネットワーク、トランスフォーマーなどの深層学習のさまざまなアーキテクチャについても説明します。

  • 00:15:00講演者は金融におけるディープラーニングの長所と短所について議論します。プラスの面としては、ディープ ラーニング モデルは、データセットの非線形性と表現力豊かな性質を捉えるのに優れており、多変量時系列で効率性を示します。また、カテゴリデータや数値データに最適な手法の 1 つであるブースティング ツリーとも競合します。ただし、主な短所は、深層学習モデルのパラメーターが多数であることと、非定常状況では有効性が欠如しているため、過剰適合であることです。時系列が変化し続けるため、これは金融業界で大きな問題となります。講演者は、現在のモデルではこの問題に対する適切な解決策が提供されていないと指摘しています。

  • 00:20:00 Miquel Noguer i Alonso は、金融におけるディープラーニングが直面する課題、特にデータ生成プロセスの性質の変化とその中で機能するモデルの作成方法について説明します。彼が提案する解決策の 1 つは情報理論から来ています。複雑さと情報を可能な限り短いプログラムに圧縮するという考え方。彼はまた、普遍近似定理と、それがディープ ネットが任意の精度であらゆるものを近似できることを保証する方法についても説明していますが、一般化するという保証はありません。彼は読者に、正則化だけでは一般化には十分ではないと主張する Sun の論文を読むことを奨励し、ニューラル ネットワークの固有次元と過剰パラメータ化されたニューラル ネットワークに関する論文を推奨しています。

  • 00:25:00このセクションでは、講演者は、補間レジームと呼ばれる新しいレジームについて話します。このレジームでは、ディープ ネットが膨大な数の重力を返すことで証明書を書き込むことができる可能性があり、これにより、次のような大規模な関数クラスの発見につながる可能性があります。より小さいノルムを使用して関数を補間します。目的は、その数の機能を備えたよりシンプルなものを見つけることです。また、すべてのレイヤーがどのようにして均等に作成されないのか、時系列予測におけるディープ ニューラル ネットワークの役割など、モデルの定性的側面についても説明します。ただし、それらのベンチマーク モデルは依然として線形モデルであるため、結果をベンチマークと比較する必要があります。

  • 00:30:00講演者は金融における深層学習モデルのパフォーマンスについて説明します。彼らは、1 つだけではなく 30 のストックを含む長期短期記憶ネットワークを使用した結果を実証し、他のニューラル ネットワークと比較して絶対誤差が低いことに注目しています。講演者はまた、S&P 500 の最良の銘柄を選択する際にディープ ラーニング モデルが線形モデルよりも優れたパフォーマンスを発揮し、サンプル外の情報比率が向上することも示しました。全体として、ディープ ラーニングは常に最良のモデルに近いことがわかっており、モデルを盲目的に選択する場合には適切な選択肢となります。

  • 00:35:00講演者は、金融のための深層学習モデルにおける因子の使用について説明します。品質、価値、勢いなどの要素を使用して、収益との非線形関係を調査します。この方法と純粋な時系列演習の違いは、非線形性を使用していることです。講演者は、トレーニング期間パラメーターの重要性についても説明し、より多くのデータを使用することが必ずしも精度の向上を意味するわけではないと指摘しています。このモデルは純粋に研究目的であり、過去のデータに基づいているため、コストや実際の考慮事項は含まれていません。

  • 00:40:00このセクションでは、講演者が更新中の論文について議論し、その論文の主張はディープ ネットが優れているということではなく、ディープ ネットは従来のベンチマーク モデルと並行して実行する必要があるということであることを明らかにしました。さらに講演者は、ディープネットが非線形関係を捉え、正しいサイクルを学習するのに役立つと説明します。ただし、ネットワークが学習するウィンドウなどのパラメーターも考慮する必要があります。さらに、ディープネットは、線形モデルが見逃す可能性のある二次または三次効果を学習するため、一部の修復体制では異なることを伝える可能性があります。講演者はまた、万能のモデルは存在せず、ディープ ネットが従来のベンチマーク モデルに取って代わるべきではないことも強調しました。

  • 00:45:00 Miguel Noguer i Alonso が、金融における自然言語処理の使用、特にセンチメント分析について説明します。市場では膨大な量の情報が生成されるため、調査にはビッグデータ ツールが必要であり、機械学習、特にディープ ラーニングは高次元空間を扱うのに役立ちます。言語モデルは、金融における勢いの前兆となる感情分析などのタスクに使用できます。インターネットのスクレイピングは、市場の変化を示す可能性のある情報の変化を検索する効率的な方法であることも証明されています。全体として、自然言語処理は、ポートフォリオ マネージャーが大量のデータを扱う際に有益な洞察を提供できます。

  • 00:50:00このセクションでは、講演者は金融における感情分析の使用と、それを実行できる 2 つの方法について説明します。1 つはポジティブな単語とネガティブな単語の頻度を数える伝統的な方法、もう 1 つは感情分析を使用するより高度な方法です。単語のコンテキストと意味を理解するための学習と単語の埋め込み。最も高度なモデルは、トランスフォーマーからの双方向エンコーダー表現であり、単語をより効率的かつ正確に表現できます。このテクノロジーは、気象管理やサプライチェーンの問題などに役立つ可能性があります。

  • 00:55:00このセクションでは、Miquel Noguer i Alonso が、双方向の複雑なアーキテクチャ、BERT、および言語モデルにおける数値の重要性に焦点を当てて、金融における深層学習の最新の開発について説明します。 BERT は、金融データセットのトレーニングに使用できるオープンソースの非常に効率的な言語モデルであり、時間と人的労力を節約できます。他のモデルよりも優れたパフォーマンスを発揮し、正確な分析に不可欠な財務文書の数値を理解することに特に優れています。多層パーセプトロン、メモリ ネット、およびコブネットは、金融に役立つ他の関数近似器です。

  • 01:00:00 Miguel Noguer i Alonso は、金融データを画像に変換し、畳み込みニューラル ネットワークを使用して分析するというアイデアについて説明します。これは教師なし学習の問題に特に役立つ可能性があります。また、データの非線形圧縮に使用できるオートエンコーダーの概念と、環境が十分に安定している場合は時系列分析に適している可能性があるメモリー ネットワークの概念も紹介します。最後に、Noguer i Alonso は、金融における言語処理のためのトランスフォーマー モデルの使用と、これらのモデルを TensorFlow で実装する方法について言及しています。

  • 01:05:00ビデオのこのセクションでは、ESADE ビジネス スクールの金融イノベーション担当ディレクターであり金融上級講師である Miquel Noguer i Alonso が、金融におけるオープンソースの深層学習モデルの実装の実現可能性について説明します。同氏は、利用可能なオープンソース コードが多数存在しており、金融アプリケーションに特化したトレーニングが必要になる可能性はあるものの、達成できない目標ではないと説明しています。アロンソ氏はまた、金融分野では機械学習の機会が数多くあるため、金融関連の問題を解決するにはドメインの専門家と機械学習者の協力が重要であると強調しています。さらに、金融業界では手作りの NLP アプローチが使用されているものの、深層学習モデルはまだこの業界では広く採用されていないと同氏は指摘します。

  • 01:10:00講演者たちは、JP モルガンなどを説明するために辞書を使用し、タイプミスがないようにするという、金融における手作りの管理の伝統的な方法について議論します。彼らは続けて、金融における機械学習の使用と、ショート・ロングショット・メモリー・ネットワークやBERTなどのさまざまなアルゴリズムの有効性について議論し、これらが現在公表されている研究の最先端であることを示唆しています。講演者はまた、機械学習を横断的な投資に使用する可能性についても議論し、機械がフラットなリターンやファクターを理解できるようにファクターやリターンを使用することを提案しています。

  • 01:15:00このセクションでは、Noguer と Alonso が、深層学習で最適な値を見つけることの難しさと、それが経験と直感に基づいてヒューリスティックな選択を行うヒューマン データ サイエンティストのスキルと直感が必要な NP 問題となり得ることについて議論します。 。彼らは、ディープネットの理解と解釈における課題を強調しています。数学者ですら、なぜこれがうまく機能するのかを理解するために方程式を作成するのに苦労しており、代わりに定性分析に頼らなければならないからです。これらの課題にもかかわらず、データ サイエンティストは、いくつかのデータセットを操作した後、特定の状況で使用する最適なパラメーターについての直観を養うことができます。
Miquel Noguer i Alonso: "Latest Development in Deep Learning in Finance"
Miquel Noguer i Alonso: "Latest Development in Deep Learning in Finance"
  • 2020.03.19
  • www.youtube.com
Title of Seminar: "Latest Developments in Deep Learning in Finance"Date of Seminar: 9/24/19Speaker Bio: Miquel Noguer i Alonso (Artificial Intelligence Finan...
 

ゴードン・リッター: 「強化学習と裁定機会の発見」



ゴードン・リッター: 「強化学習と裁定機会の発見」

このビデオでは、ゴードン リッターが金融市場のコンテキストにおける強化学習の応用を探求し、特にデリバティブ取引における裁定取引の機会の発見に焦点を当てています。彼は、不確実性に直面した場合には、複数期間にわたる複雑な計画と戦略の重要性を強調します。 Ritter は、最適なポリシーの検索をガイドするための値関数の使用を実証し、平均からの偏差の 2 乗を乗算した定数と単一期間の増分を組み合わせる報酬関数を提案しています。

Ritter は、裁定取引の機会を見つける場所をマシンに明示的に指示せずに、裁定取引の機会を含むシミュレーションを作成するプロセスについて説明します。彼は、金融市場をモデル化するための確率的シミュレーションの使用を強調し、十分なデータがあれば、強化学習を通じて訓練されたエージェントが市場の裁定取引を識別できることを示唆しています。ただし、過剰学習や予期せぬシナリオを処理する際の課題など、強化学習の限界を認めています。訓練を受けたエージェントの能力を拡大するために、ガンマ中立性取引戦略の探索など、さらなるテストが提案されています。

このビデオには、デリバティブ ヘッジにおけるベースライン エージェントと比較した強化学習エージェントのパフォーマンスの分析が含まれています。訓練を受けたエージェントは、同様の範囲の実現ボラティリティを維持しながら大幅なコスト削減を実証し、コストとリスクの間でトレードオフを行う能力を示しています。リッター氏は、デリバティブ価格自体が価値関数の一形態と見なすことができるため、デリバティブ取引の強化学習における価値関数の関連性について議論しています。

リッター氏は、強化学習において適切な状態ベクトルとアクション空間を構築することの重要性も強調しています。効果的な意思決定には、関連情報を状態ベクトルに組み込み、適切なアクションを定義することが不可欠です。彼は、潜在的に裁定取引の機会につながる可能性がある平均回帰ダイナミクスをモデル化する手段として、オーンスタインおよびリムビックプロセスの使用を紹介しています。

さらに、ビデオでは、短期利益を取引機会に利用する際の課題と有限状態空間の制限についても説明しています。 Ritter 氏は、これらの課題に対処し、値関数の推定を改善するために、連続状態空間と、モデル ツリーやニューラル ネットワークなどの関数近似手法を採用することを提案しています。

最後に、リッター氏は、強化学習は裁定取引の機会を発見する上で貴重なツールとなり得るものの、現実の取引において保証されたアプローチではないことを認めています。同氏は最後に、確率システムを通じて収益性の高い取引を発見する強化学習の可能性を強調しているが、市場に裁定取引の機会が存在しない場合に裁定取引の機会を見つけることを期待することには警告を発している。過剰学習や予期せぬシナリオに対処できないなど、強化学習の限界も認識されています。

  • 00:00:00このセクションでは、ゴードン・リッターが、不確実な環境で時間の経過とともに報酬を最適化するために、経験を通じて学習することについて話します。彼は、ロボットがどのように部屋の中を移動できるのか、ガゼルが脚の筋肉に信号を送ってどのように歩行を学習するのかの例を示しています。彼はまた、世界最高の囲碁プレイヤーが現在、強化学習手法によって訓練されたエージェントであることにも言及しており、これが彼の講演の焦点です。リッター氏は、不確実性が存在する場合の複雑な複数期間の計画と戦略の重要性と、アービトラージの機会を発見するために強化学習を金融にどのように適用できるかを強調します。

  • 00:05:00 Gordon Ritter は、エージェントが環境と対話し、報酬信号を最適化するためのアクションを実行するプロセスである強化学習の概念を説明します。エージェントは環境の状態を観察し、自分の行動がプラスの報酬をもたらしたかマイナスの報酬をもたらしたかを判断します。強化学習には、長期的な報酬の期待を最大化するための最適なポリシーの検索を構造化するための価値関数の使用が含まれます。リッター氏は、価値関数の考え方は数理ファイナンスの背景を持つ人にはよく知られていると指摘しています。

  • 00:10:00ビデオのこのセクションでは、Gordon Ritter が強化学習の概念、特に最適なポリシーの価値関数を見つけるために使用されるハミルトン-ヤコビ ベルマン方程式について説明します。ただし、現実世界のシナリオでは、方程式を明示的に解くことが不可能な場合があると彼は指摘します。次に、Ritter はアクション価値関数を導入します。これは、特定の状態で特定のアクションを実行し、その後ポリシーに従うことで期待される長期的な利益を見つけるために使用されます。強化学習の目標は、それに対応するキューまたはアクション値関数を見つけて、最適なポリシーを見つけることです。次に、リッター氏は、人工知能が、ビッド・オファー・スプレッドや手数料などの取引コストを考慮して、現実的なシナリオで最適な動的な取引戦略を発見できるかどうかという問題を提起します。彼は、市場に裁定取引があったとしても、強化学習によって生成されたエージェントは十分なデータがあればそれを見つけることができるだろうと示唆しています。

  • 00:15:00 Gordon Ritter は、金融市場で裁定取引の機会を発見するための強化学習の使用について説明します。リッター氏は、一貫した裁定取引のない価格に依存する従来の手法とは異なり、強化学習を使用して特定の動的システムに裁定取引の機会があるかどうかを確認できると主張しています。このアプローチは、シャープ レシオが高い戦略を見つけるアルゴリズムをトレーニングするために使用できます。これは、純粋な裁定取引ではなく、優れた取引戦略である統計的裁定取引を識別するために使用できます。リッター氏は、そのようなアプローチは人間の指導なしで碁を打ち、人間のチャンピオンに勝つことを学習したAlphaGo Zeroに似ていると主張している。

  • 00:20:00ゴードン・リッターは、期待される富の効用を最大化するときに使用される仮定と、それが平均分散二次形式を最大化することと数学的にどのように同等であるかを説明します。彼は、二次関数は効用関数になり得ないことを明確にし、フォン・ノイマン・モルゲンシュテルン投資家のように行動する合理的なエージェントを訓練するために使用する報酬シグナルについて説明します。彼は、単一期間の増分から報酬関数の平均値の約 2 乗の定数倍を差し引いたものを組み合わせることを提案し、状態に何を入れるかを選択することについてアドバイスし、エージェントが適切な決定を下すのに役立つ関連情報を含めることの重要性を強調しました。

  • 00:25:00 Gordon Ritter が、強化学習で状態ベクトルとアクション空間を構築する方法について説明します。彼は、エージェントがシグナルを使用して取引の意思決定を行うことを学ぶためには、そのシグナルが状態ベクトルに含まれている必要があると説明しています。さらに、アクションスペースには、使用する約定戦略の選択、アルゴリズムの動作を変更するためのパラメーターの選択、またはスプレッドを横切るかオーダーブックの手前側のキューに参加するかを決定することが含まれる必要があります。リッター氏はまた、オーンスタインとリンビックのプロセスを金融分野でどのように利用して、裁定取引の機会につながる可能性のある平均反転ダイナミクスをモデル化できるかという例も示しています。

  • 00:30:00このセクションでは、Gordon Ritter が、たとえ利益が保証されていないとしても、統計的裁定取引として少なくとも近似的な裁定取引を含む確率的シミュレーションの構築について説明します。彼は、エージェントはゲームをプレイして何度か負けることによってすべてを理解する必要があると強調します。シミュレーションには、線形価格影響関数に基づくスプレッド コストと影響コストが含まれており、場合によっては、全体のコストの前に乗数をいじるのが好きです。彼は、状態ベクトルは非常に単純であり、その状態にはエージェントが保持しているものと、シグナルを含む価格のみが含まれると述べています。最後に、これは実際の取引で機能することが保証されていないため、単なる概念実証であると彼は述べています。

  • 00:35:00 Gordon Ritter は、マシンに裁定取引の機会を探す場所を明示的に指示せずに、裁定取引の機会を持つシミュレーションを作成するプロセスについて説明します。彼は、これは価値関数を学習し、Q 学習と呼ばれる古典的な方法によって機能すると説明しています。ただし、Q 関数のモデルは連続性なしに各行列要素を独立して学習する必要があるため、特に好きではないことを彼は認めています。リッターはまた、さまざまな行動の価格の関数として価値関数のプロットを提示し、均衡価格の周囲に貿易禁止ゾーンが出現することを示しています。

  • 00:40:00このセクションでは、Gordon Ritter が、取引機会に短期リターンを使用することの限界と、有限状態空間を使用するときに生じる課題について説明します。彼は、連続状態空間とモデル ツリーなどの関数近似手法を使用して、ベルマン値関数 Q を推定し、トレーニング データに適合する最良の未知関数を見つけることを提案しています。この方法により、価値関数を近似し、取引機会を見つけるためのより効率的かつ効果的な方法が可能になります。

  • 00:45:00 Gordon Ritter は、長期および短期の報酬の形で報酬を近似するように強化学習エージェントをトレーニングするための、関数近似器などの統計的機械学習手法の使用について説明します。ニューラル ネットワークなどのより優れた関数近似器を使用すると、ベルメン値関数をより正確に近似して連続関数を取得できるため、最適なアクションをより深く理解できるようになります。次に、リッター氏はこれらのテクニックをデリバティブのヘッジの例に適用します。この場合、銀行はデリバティブを市場に放出することなくポジションのリスクを中和したいと考えています。目標は、動的複製戦略に基づいてデリバティブのバスケットを最適に取引できる強化学習エージェントを使用し、自動ヘッジを可能にし、市場の影響によるコストを削減することです。

  • 00:50:00このセクションでは、Gordon Ritter が、動的な複製ポートフォリオ戦略を可能にするために、ヨーロッパのオプション市場に最低限存在する必要がある状態変数について説明します。彼は、ブラック・ショールズ型の世界でデルタを計算する際に使用される状態変数は、基礎となる価格と満了までの時間であり、オプションの権利行使価格はオプションが何であるかの定義の一部であると述べています。さらに、彼は、国家はオプションのギリシャ人を含む必要はなく、エージェントはそれらの非線形関数を自ら学習することが期待されると述べています。同氏は、マシンはシミュレーションを通じて大規模なエクスペリエンスセットをどこで生成するかを経験によってのみ学習できる、と締めくくった。

  • 00:55:00 Gordon Ritter は、コストをボリュームと交換する強化学習エージェントの出力について説明し、それをデルタ ヘッジを使用するベースライン エージェントと比較します。訓練されたエージェントはデルタ ヘッジのよりスムーズなポジション追跡を示しますが、ベースライン エージェントはデルタ ヘッジによる過剰な取引とコストの増加を示します。訓練を受けたエージェントはコストとリスクの間でトレードオフを行うことを学習しており、大幅なコスト削減のためには多少の変動は許容できるとリッター氏は指摘しています。市場は高い取引コストでシミュレートされましたが、トレーニングを受けたエージェントは依然としてベースライン エージェントよりも優れたパフォーマンスを示しました。

  • 01:00:00このセクションでは、講演者はデルタ エージェントと強化学習法のパフォーマンスを比較するためにシミュレーションのヒストグラムを提示します。デルタ エージェントは非常に予測可能な実現ボリュームを示しますが、トレーニングを受けたエージェントは同様の範囲の実現ボリュームを維持しながら大幅なコスト削減を示します。講演者は、エージェントによって発見される可能性のあるガンマ中立性を達成する取引戦略を検討するなど、さらなるテストを提案しています。講演者は、デリバティブ価格自体が価値関数の一形態であるため、強化学習で見られるような価値関数ベースの手法の使用はデリバティブ取引の分野とよく交差すると結論付けています。

  • 01:05:00 Gordon Ritter は、強化学習を使用して、収益性の高い取引を見つけることができる確率システムをトレーニングすることで裁定取引の機会を発見できると説明しています。ただし、数百万回または数十億回のシミュレーションを行ってもシステムが機会を見つけられなかった場合は、市場が裁定取引を認めていないことを示している可能性があります。また、過剰学習や無限の取引やフラッシュ クラッシュなどの予期せぬシナリオに対処できないことなど、強化学習の限界についても説明します。
Gordon Ritter: "Reinforcement Learning and the Discovery of Arbitrage Opportunities"
Gordon Ritter: "Reinforcement Learning and the Discovery of Arbitrage Opportunities"
  • 2019.05.30
  • www.youtube.com
Seminar Date: March 20, 2019Info: Reinforcement learning is a way of training a machine to find an optimal policy for a stochastic optimal control system, ...
 

マルコス・ロペス・デ・プラド: 「ほとんどの機械学習ファンドが失敗する 7 つの理由」



マルコス・ロペス・デ・プラド: 「ほとんどの機械学習ファンドが失敗する 7 つの理由」

Marcos Lopez de Prado は、金融業界におけるほとんどの機械学習ファンドの失敗の背後にある理由を概説する包括的なプレゼンテーションを行いました。同氏は、この分野での成功に寄与するいくつかの重要な要素の重要性を強調しました。

デ・プラド氏が強調した主な要因の一つは、裁量ファンドにおいて十分に定式化された理論が欠如していることであった。同氏は、投資に関する会話の多くには、確固たる理論的基盤がないため、建設的で抽象的なアプローチが欠如していると指摘した。意思決定の指針となる理論がなければ、裁量型ファンドは他者と交流したりアイデアを試すのに苦労し、その結果、選択が不十分になり、損失が生じる可能性があります。

De Prado 氏は、機械学習ファンド内で孤立したサイロで作業することの悪影響についても議論しました。同氏は、成功にはコラボレーションとコミュニケーションが不可欠であることを強調し、多数の博士号を雇用し、別々の任務に分離することに対して警告した。その代わりに、専門家が独立して働きながらも互いの専門知識を持ち、より良い戦略と成果につながるチームベースのアプローチを提唱しました。

チーム内の専門化は、デ・プラド氏が強調したもう一つの重要な側面でした。同氏は、複雑なシステムやタスクを処理できる専門家のグループを編成することの重要性を強調した。これらの専門家は、全体的な戦略を理解し、同僚の専門分野を意識しながら、独立したスキルを備えている必要があります。このメタ戦略パラダイムは、効果的な戦略を開発するためだけでなく、採用、投資の監視、停止基準の定義など、不確実な状況で情報に基づいた意思決定を行うためにも役立ちます。

財務データの適切な取り扱いも、デ・プラド氏が議論した重要な要素でした。同氏は、貴重な情報を保存しながらデータの定常性を達成する必要性を強調しました。彼は、データを分数で微分して以前の観測からの記憶情報を保持し、特定の時点で重要な予測を可能にすることを提案しました。さらに、過剰なメモリを使用せずに、定常系列と元の系列の間のほぼ完全な相関関係を達成するには、特定のしきい値を使用することをアドバイスしました。デ・プラド氏は、流動的な将来契約がない場合にはリターンを使用しないよう警告し、ほとんどのシナリオで単一の観測値を使用することを推奨した。

サンプリング頻度とデータの適切なラベル付けについても、de Prado 氏が取り上げました。彼は、毎日または分単位での観察などの従来の方法に依存するのではなく、市場情報の到着に基づいてサンプリング頻度を設定することを提案しました。取引量に基づいてサンプリングするドルバーなどの手法を使用すると、サンプルに同量の情報が含まれていることを確認できます。タッチバリアラベリング手法を使用するなど、観察結果を適切にラベリングすることで、価格動向やストップアウトの可能性を考慮したリスク認識戦略の開発が可能になります。

ある機械学習モデルが別のモデルの予測の精度を予測するメタ学習の概念は、精度と再現率を達成する手段として議論されました。 2 つの別々のモデルを構成することにより、調和平均を使用して精度と再現率の間のトレードオフのバランスを取ることができます。 De Prado 氏は、パフォーマンスを最適化するために、個別のタスクに異なる機械学習アルゴリズムを採用することを推奨しました。

デ・プラド氏は、機械学習を金融分野に適用する際の課題を強調し、機械学習アルゴリズムを使用する前に人間の専門家がデータをフィルタリングする必要性を強調しました。財務データは本質的に乱雑で非 ID であるため、特定の観察結果を資産に結び付けることが困難になります。さらに、規制や法律による金融市場の絶え間ない変化により、機械学習アルゴリズムの実装には慎重かつ微妙なアプローチが必要になります。財務データを機械学習モデルに組み込むだけでは、金融業界で成功するには十分ではありません。

非一意性と過剰適合の問題に対処することは、デ プラド氏のプレゼンテーションのもう 1 つの重要な側面でした。彼は、観測値の一意性を判断する方法論を提案し、テスト セットで共有されている情報よりも古い情報を含む観測値を削除すること、つまり「パージ」として知られるプロセスを推奨しました。これは、相互検証手法の前提に合わせて、より正確な機械学習モデルを作成するのに役立ちます。デ・プラド氏はまた、過剰適合の危険性について警告し、戦略のバックテストを繰り返すと偽陽性が発生し、時間の経過とともに有用性が低下する可能性があることを強調した。戦略の発見に必要な試行回数を考慮することは、過剰適合や誤検知を避けるために非常に重要です。デ・プラド氏は、過剰適合に伴うリスクを軽減するために、戦略の実行に高い閾値を設定するようアドバイスした。

「しぼんだイチゴ」の概念はデ・プラドによって導入され、ファンドマネージャーが意図的にこれらの特性をターゲットにしていなかったとしても、多くのヘッジファンドが負の歪度と正の超尖度を示すことを示しました。これは主に、ファンド マネージャーがシャープ レシオに基づいて評価されており、これらの統計的特性によりレシオが膨らむ可能性があるためです。デ・プラド氏は、リターンを分析する際には、発見に関わるサンプルサイズと試行回数を考慮することが重要であると強調した。同氏は、ゼロを超える真のシャープレシオを達成する可能性が低い戦略に投資しないよう警告した。

de Prado 氏は、モデルの適合と過剰適合の間のバランスを達成することを強調しました。同氏は、完璧なフィット感を追求することは過信やリスクの増加につながる可能性があるため、やめるようアドバイスした。代わりに、統計モデルを効果的に適用しながら重要な記憶を保存する方法を見つけることを推奨しました。デ・プラド氏はまた、過度に複雑なモデルを使用しないように警告しました。モデルはデータフィードや相互受粉を妨げ、機械学習アルゴリズムの全体的な有効性を妨げる可能性があるからです。

デ・プラド氏は、特定の特性や指標が好まれ、戦略の収束につながる業界の現象について言及しました。同氏は、人間の好みや美的感覚によって特定の形質が形成される犬の繁殖と比較しながら、たとえ当初はそうではなかったとしても、シャープレシオと負の歪度の組み合わせなどの特定の指標の使用がどのようにしてヘッジファンドで好まれるようになったのかを説明した。ターゲットにされた。この現象は特定のトリガーイベントなしに発生するため、対処するのは困難であることが判明しています。

さらに、デ・プラド氏は、直近の価格データは近い将来との関連性がより高いため、予測する際には最新の価格データを使用することの重要性を強調した。彼は、利用可能なすべてのデータを使用する場合、指数関数的な重み減衰を使用してサンプル長を決定することを推奨しました。さらに同氏は、機械学習ファンドの失敗につながる一般的な落とし穴として、試行数の管理と孤立した作業環境の回避の重要性を強調した。同氏は、金融は機械学習が大幅に進歩した他の分野とは異なり、統計学者を雇用することが、成功する取引アルゴリズムを開発するための最も効果的なアプローチであるとは限らないと指摘した。

要約すると、マルコス・ロペス・デ・プラド氏のプレゼンテーションは、金融業界でほとんどの機械学習ファンドが失敗する理由を明らかにしました。同氏は、よく定式化された理論、チームのコラボレーション、専門化、財務データの適切な処理と区別、適切なサンプリングとラベル付け、非一意性や過剰適合などの課題への対処、機械学習アルゴリズムの実装における人間の専門知識の組み込みの必要性を強調しました。これらの要因を理解し、慎重かつ微妙なアプローチをとることで、実務家はダイナミックで複雑な金融の世界で成功する可能性を高めることができます。

  • 00:00:00マルコス・ロペス・デ・プラドは、一任型ファンドにおいて十分に定式化された理論が欠如していることが、人々が投資について真に建設的で抽象的な会話をどのように妨げているかについて議論します。投資カンファレンスに出席すると、ほとんどの会話が逸話に過ぎず、実際の理論が議論されていないことに気づきました。その結果、裁量的資金は他者と交流したり理論を検証したりすることができなくなる可能性があります。このように十分に定式化された理論が欠如していると、意思決定が不十分になり、最終的にはビジネスの損失につながる可能性があります。

  • 00:05:00このセクションでは、Marcos Lopez de Prado が、サイロでの作業の問題を主な要因として挙げ、ほとんどの機械学習ファンドが失敗する理由について議論しています。同氏は、50 人の博士号を雇用し、彼らをサイロ化して共同作業させ、コラボレーションやコミュニケーションをまったくとらずに同じタスクを繰り返し行うことは不可能であると説明しています。これにより、複数の戦略が試行されることが多く、その結果、欠陥が発見され、実行が失敗し、最終的にはファンドが閉鎖されることになります。ロペス・デ・プラド氏は、戦略の策定にはチームの努力が必要であり、成功するには多くの戦略が必要であると主張します。

  • 00:10:00 Marcos Lopez de Prado は、金融における機械学習の導入を成功させるための重要な要素として、グループ内での専門化の重要性を強調しています。同氏は、産業プロセスや機械学習戦略などの複雑なシステムを処理できる高性能インフラストラクチャを構築するには、専門家のチームを編成することが不可欠であると主張しています。個々の専門家は独立して作業できる必要がありますが、それでもゲーム計画全体についての知識があり、互いの専門分野とそれに関連する疑問や問題を認識している必要があります。このメタ戦略パラダイムは、戦略の策定に役立つだけでなく、採用、投資の監督、戦略の停止基準など、不確実性の下での意思決定にも役立ちます。

  • 00:15:00このセクションでは、マルコス・ロペス・デ・プラドは、最も貴重な情報を保存しながら定常性を達成するために財務データを適切に扱うことの重要性を強調しています。データを微分すると貴重な信号情報が消去され、何も予測できなくなるため、コストがかかります。したがって、彼は、データを分数で微分して、系列が予測を行う上で重要な点にあるかどうかを識別できるように、以前の観測に関する記憶情報を保存することを提案しています。微分データと定常データを組み合わせると、古典的な分析に役立つ情報が得られます。

  • 00:20:00スピーカーは、固定シリーズの作成とそれを実現する方法について説明します。特定のしきい値を使用すると、メモリをあまり使用せずに、元の系列とほぼ完全に相関する定常系列を実現できます。元の系列との相関が事実上ゼロである場合、定常性を達成しても意味がありません。さらに、講演者は、将来的にリターンの使用が正当化されるような流動的なケースは存在しないと述べ、日次データであってもリターンを使用しないようにアドバイスしています。彼は、ほとんどの場合、単一の観測値を使用するだけで十分であると示唆しています。

  • 00:25:00講演者はサンプリング頻度の重要性について議論し、毎日または 1 分間の観測などの標準的な方法を使用するのではなく、市場に届く情報の量に基づくべきであると提案しています。彼は、サンプルに同じ量の時間や価格だけではなく、同じ量の情報が確実に含まれるようにするために、取引量に基づいてサンプリングするドルバーを使用する例を挙げています。講演者はまた、市場活動に影響を与える重要な情報を提供するため、サンプリングの際に価格を考慮することの重要性を強調しました。

  • 00:30:00 Marcos Lopez de Prado は、金融におけるデータのサンプリングとラベル付けを正しく行うことの重要性について説明します。市場に大量の情報が入ってくると、より多くの情報が含まれるため、より多くのサンプルを採取することが重要であると彼は説明します。彼は、タッチバリアラベリング手法を使用して、価格に何が起こったのか、そして特定の結果にどのように到達したのかを考慮して、観測値を正しくラベル付けすることを提案しています。そうすることで、リスク レベルを考慮した戦略を立てることができます。これは重要です。なぜなら、ほとんどの人はリスク レベルに従い、阻止される可能性を考慮する必要があるからです。

  • 00:35:00 Marcos López de Prado は、機械学習モデルを使用して別の機械学習モデルの予測が正しいかどうかを予測するメタ学習の概念について説明します。彼は、2 つの決定を 2 つの異なるモデルに合成することの重要性と、それが機械学習アルゴリズムの精度と再現率の達成にどのように役立つかを説明します。ロペス・デ・プラドはまた、精度と再現率の間のトレードオフのバランスをとるために使用される調和平均の概念を導入し、2 つの非常に異なるタスクを処理するために異なる機械学習アルゴリズムを使用することを提案しています。

  • 00:40:00このセクションでは、Marcos Lopez de Prado が金融における機械学習の使用の課題について説明します。同氏は、財務データは乱雑で非効率的であるため、機械学習アルゴリズムを使用する前に人間の専門家にデータをフィルタリングさせることの重要性を強調しています。つまり、特定の観察結果を特定の患者、この場合は特定の資産に結び付けるのは簡単ではありません。 。さらに、金融市場は新しい規制や法律によって常に変化しており、機械学習モデルのパフォーマンスに大きな影響を与える可能性があります。したがって、金融で機械学習を使用するには、慎重かつ微妙なアプローチが必要であり、金融データを機械学習アルゴリズムに組み込むだけでは実装できません。

  • 00:45:00 Marcos Lopez de Prado は、観測値の非一意性の問題について議論し、それに対処する方法論を提案しています。彼は、各観測値の重複量を特定し、それらの一意性を判断して解決策を導き出すことを提案しています。相互検証手法は観測値が独立しており、同一に分布していることを前提としているため、IID の仮定を避けるためにトレーニング セットからどの観測値を削除する必要があるかを特定することも推奨しています。 「パージ」と呼ばれるこのプロセスは、テスト セットと共有されている情報よりも古い情報を含む観測結果を削除し、その結果、金融におけるより正確な機械学習モデルが得られます。

  • 00:50:00このセクションでは、Marcos Lopez de Prado が、ほとんどの機械学習ファンドが失敗する 7 番目の理由である過学習について説明します。たとえ戦略のシャープレシオがゼロであっても、戦略のバックテストを繰り返すことで、最終的には紙の上で素晴らしい戦略を見つけることができると彼は説明します。ただし、バックテストを繰り返すと偽陽性が発生する可能性があり、時間の経過とともに役に立たなくなります。過剰適合や誤検知を避けるためには、発見に関わる試行回数を考慮して賢明に練習する必要があります。練習すればするほど、練習に要求する閾値は高くなります。

  • 00:55:00マルコス・ロペス・デ・プラドは、しぼんだイチゴの概念を説明しています。これは、ファンドマネージャーがこれらの瞬間を意図的にターゲットにしていないにもかかわらず、ほとんどのヘッジファンドは負の歪度および正の超尖度を持っているという考えです。これは、ファンドマネージャーはシャープレシオに基づいて評価されており、統計的には負の歪度とプラスの過剰尖度によってこのレシオが膨らむ可能性があるためです。デ・プラド氏は、リターンを分析する際に、発見を生み出すためにサンプルサイズと試行回数を考慮することの重要性を強調し、真のシャープレシオがゼロを超える可能性が低い戦略に投資することに対して警告している。

  • 01:00:00 Marcos Lopez de Prado は、モデルをデータに適合させることと、過剰適合を避けることとの間のトレードオフのバランスをとることの重要性を強調しています。彼は、完璧なフィット感を実現することにあまり焦点を当てすぎないほうがよいと提案しています。それは、自信過剰やリスクの増加につながる可能性があるためです。代わりに、統計モデルを効果的に購入して適用しながら、記憶を保存する方法を見つけることを推奨しています。ロペス・デ・プラドはまた、複雑すぎるモデルを使用すると他家受粉やデータの供給が困難になる可能性があるとも指摘しています。

  • 01:05:00 Marcos Lopez de Prado は、特定の特性や指標がどのようにして機械学習ファンドやヘッジファンドで好まれるものとなり、業界の統合につながるのかを説明します。人間の好みや美的観点から特定の形質が好まれる犬の繁殖の例を用いて、彼はこの現象をシャープレシオ取引とマイナスの歪度の使用と比較しています。これは、当初はそうではなかったものの、ヘッジファンドにとって好まれる組み合わせとなっています。ターゲットにされた。同氏は、この現象は特定のイベントが発生しなくても発生するため、対処するのは困難であると述べています。

  • 01:10:00このセクションでは、マルコス・ロペス・デ・プラドが、直近の将来により関連性があるため、予測する際に最新の価格データを使用することの重要性について説明します。彼は、利用可能なすべてのデータを重み付けの指数関数的減衰とともに使用してサンプル長を決定することを提案しています。ロペス・デ・プラド氏はまた、機械学習ファンドが失敗する一般的な理由として、試行数を制御し、サイロ化した作業を回避する必要性を強調しています。さらに、金融は機械学習が大幅に進歩した他の分野とは異なり、統計学者を雇用することが、成功する取引アルゴリズムを開発するための最良のアプローチであるとは限らないことも強調しています。
Marcos Lopez de Prado: "The 7 Reasons Most Machine Learning Funds Fail"
Marcos Lopez de Prado: "The 7 Reasons Most Machine Learning Funds Fail"
  • 2019.05.13
  • www.youtube.com
Seminar Date: September 5, 2017For more information, please visit Marcos Lopez de Prado's website: http://www.quantresearch.org/Summary: In this popular thro...
 

アイリーン・アルドリッジ: 「長期ポートフォリオ最適化におけるリアルタイムリスク」



アイリーン・アルドリッジ: 「長期ポートフォリオ最適化におけるリアルタイムリスク」

Able Alpha Trading の社長兼マネージング ディレクターであるアイリーン アルドリッジが、長期ポートフォリオ マネージャーに対する高頻度取引 (HFT) の影響と、業界全体に影響を与える市場の体系的な変化について包括的なディスカッションを行います。彼女は、ビッグデータと機械学習の進歩によって進む金融分野の自動化と、それがポートフォリオ最適化に与える影響について探ります。さらに、オルドリッジ氏は、日中のボリュームデータによってもたらされる課題と機会を掘り下げ、ビッグデータを使用したリアルタイムのリスク識別を統合する段階的なアプローチを提案しています。彼女は、微細構造要因を組み込んだ、より微妙なポートフォリオ最適化戦略を提唱し、防御策として要因を使用することを提案しています。アルドリッジ氏はまた、クオンツ戦略の 3 年間のライフサイクル、データ分析における仮想現実と自動化の可能性、ポートフォリオ最適化におけるコンピューター マトリックスの応用についても触れています。

アルドリッジ氏はプレゼンテーションを通じて、高頻度取引は長期的なポートフォリオ・マネージャーに影響を与えないという誤解に異議を唱えています。彼女は、市場の体系的な変化は、期間に関係なく、すべての投資戦略に影響を与えると主張します。アルドリッジ氏は、電気工学、ソフトウェア開発、リスク管理、金融の専門知識を活かして、リアルタイムのリスク評価やポートフォリオの最適化などの新しい分野を探求することの重要性を強調しています。

オルドリッジ氏は、金融業界における自動化への大きな変化を強調し、株式、外国為替、債券、商品取引においては手動取引が自動化システムに取って代わられたと指摘した。業界関係者は関連性を維持するために、ビッグデータと機械学習技術を採用してきました。しかし、自動化によって専門知識が時代遅れになるのではないかと懸念した一部のトレーダーからの初期の抵抗は彼女も認めています。

講演者は、ビッグデータの進化とポートフォリオ最適化におけるその役割について探ります。彼女は、膨大な量の構造化データと非構造化データの利用が金融情勢に革命をもたらしたと指摘します。アルドリッジ氏は、特異値分解 (SVD) などの技術により、大規模なデータセットを処理して貴重な洞察を抽出する方法を説明します。 SVD は、投資決定に情報を提供するためにできるだけ多くのデータを組み込むことを目的として、ポートフォリオ配分の自動化にますます使用されています。

Aldridge は、特異値分解を使用してデータ次元を削減するプロセスを詳しく調べています。このプロセスを通じて得られた特異値をプロットすることで、研究者は残りのベクトルをノイズとして扱いながら、重要な情報を含むベクトルを特定できます。この手法は、時価総額、ベータ、価格、日中のボラティリティなどのさまざまな財務データ セットに適用できます。結果として得られる縮小されたデータセットは、研究目的のための信頼できるガイダンスを提供し、長期的なポートフォリオ最適化のための重要な要素を特定するのに役立ちます。

講演者は、価格、市場リスク (ベータ)、時価総額、配当利回りなど、ポートフォリオ アナリストが採用する一般的な要素について説明します。機関の活動も重要な要素であり、オルドリッジ氏は、ティックデータを分析してパターンを検出するためのビッグデータの使用を強調しています。機関投資家の活動を認識すると、市場参加者に目に見えるシグナルが提供され、取引量の増加と有利な約定につながります。

アルドリッジ氏は、アグレッシブな HFT 戦略とパッシブな HFT 戦略、およびそれらの流動性への影響を区別しています。注文キャンセルを特徴とする積極的な HFT 戦略は、流動性を侵食してリスクを増大させる可能性がありますが、マーケットメイクなどの消極的な HFT 戦略は、流動性を提供することでボラティリティを低減することができます。彼女は、機関投資家が出来高加重平均価格を好み、外国為替など、出来高情報が常に入手できるとは限らない特定の市場では時間加重平均価格が使用されていると指摘しています。

講演者は、取引所の数の多さ、時間間隔の短縮、および複数の取引所間で最適なビジネスと最適なオファーを決定する必要性を考慮して、日中のボリューム データによってもたらされる課題について説明します。これらの課題にもかかわらず、オルドリッジ氏は、日中ボリューム データのスライスと分析におけるイノベーションとさらなる研究に大きなチャンスがあると考えています。彼女は、複数の取引所からの指値注文を集約する SEC が運営するセキュリティ情報プロセッサー (SIP) について言及していますが、異なる取引所間で問題を調整し解決するという継続的な課題があることを認めています。

アルドリッジ氏は、ポートフォリオ最適化における未解明の微細構造要因とリスクを強調しています。長期的なポートフォリオ管理者は伝統的にリスクとリターンの特性に焦点を当て、微細構造要因を見落としがちですが、オルドリッジ氏は、それらをインプットとして組み込み、入手可能な豊富なデータを活用することを提案しています。彼女は、特異値分解を使用して以前のリターンに基づいてパフォーマンスを予測し、ビッグデータを利用してリアルタイムのリスクを特定して対処するという段階的なアプローチを提案しています。アルゴリズムは、人間のトレーダーが気付かない可能性のある、注文の ping など、取引所の複雑な仕組みを特定して活用するのに役立ちます。

従来のポートフォリオ最適化の限界に挑戦する中で、オルドリッジは、微細構造要因とその他の市場ダイナミクスを統合する、より包括的なアプローチを導入しています。彼女はETFやフラッシュクラッシュなどの要因が破壊的な可能性を秘めていることを強調し、リスク分析には相関行列だけでは十分ではない可能性があることを強調しています。アルドリッジ氏は、より広範な市場の動きを超えた独立した微細構造要因を考慮することで、収益を高め、シャープ・レシオを改善できる微妙なポートフォリオ最適化戦略を提唱しています。彼女のアプローチの詳細は彼女の著書に記載されており、高頻度取引に関する聴衆からの質問を歓迎します。

オルドリッジ氏は、1 日以内の高頻度取引の持続性と、長期的なポートフォリオ配分への影響についてさらに詳しく掘り下げています。彼女はこれを、Google の日中の高頻度取引量の例で説明しています。これは、時間の経過とともに一定の範囲内で安定性を示します。オルドリッジ氏は、高価格株の高頻度取引に伴うコストの低下と、ペニー株の高頻度取引量の割合が低いことを強調している。さらに、コーディングの複雑さにより、高頻度トレーダーが高配当株に取り組むことを妨げることが多いと彼女は指摘しています。積極的な高頻度取引戦略には、市場価格に近い成行注文または積極的な指値注文が含まれます。

講演者はクオンツ戦略の 3 年間のライフサイクルを説明し、成功する戦略を生み出す際にクオンツが直面する課題に光を当てます。通常、最初の 1 年は前職で成功した戦略を引き継ぎ、多額のボーナスを獲得する必要があります。 2 年目は革新への試みが特徴的ですが、多くの人がこの期間に成功する戦略を立てるのに苦労しています。 3 年目では、成功した戦略を見つけた人は多額のボーナスを得るかもしれませんが、他の人は退職して以前の戦略を新しい会社に移すことを選択するかもしれません。これにより、同様の高頻度取引戦略が集中し、微調整またはわずかに修正され、ほぼ同時に取引が実行されることがよくあります。オルドリッジ氏は、高頻度取引は他の形態の自動化と同様に有益であり、無視されるべきではないと強調する。

アルドリッジ氏は、データ分析における仮想現実と自動化の可能性について議論してプレゼンテーションを締めくくります。彼女は、靴下の購入とデルのコンピュータの購入を例に挙げて、ベータベースのポートフォリオと要素の有用性について触れ、ベータの変更が価格にどのように異なる影響を与えるかについて触れています。返品を正規化し、営業日のランダム性に対処することの重要性も強調されています。オルドリッジ氏は、防御の一形態としてファクターを採用することを提案し、ファクターの使用は楽しいアプローチになり得ることを強調しています。

あるセクションでは、オルドリッジは、ポートフォリオ内の各銘柄の重要性または係数を決定する際のコンピューター マトリックスの適用について説明しています。マトリックスには、分散共分散と縮小手法が組み込まれており、リターンを調整してより正確な結果を達成します。前日の収益のパターンを特定することで、マトリックスは将来の結果を予測し、ポートフォリオを最適化できます。ここで説明した玩具モデルは基本的な例を表していますが、長期的なポートフォリオ最適化にコンピューター マトリックスを使用する可能性を例示しています。

要約すると、アイリーン アルドリッジのプレゼンテーションは、長期ポートフォリオ マネージャーに対する高頻度取引の影響と金融業界の進化する状況についての貴重な洞察を提供します。彼女は、ポートフォリオの最適化における自動化、ビッグデータ、機械学習の役割を強調しています。アルドリッジ氏は、日中量データによってもたらされる課題と機会について議論し、微細構造要因を組み込むことを提唱し、リアルタイムでリスクを特定するための段階的なアプローチを提案しています。彼女のアイデアは、ポートフォリオの最適化についてのより微妙な理解に貢献し、データ分析における仮想現実と自動化の可能性を強調しています。アルドリッジの包括的なアプローチは、ポートフォリオ マネージャーがテクノロジーの進歩を受け入れ、利用可能な膨大なデータを活用して情報に基づいた投資決定を行うことを奨励します。

さらに、オルドリッジ氏は、従来のポートフォリオ最適化では見過ごされがちな微細構造要因を考慮することの重要性を強調しています。 ETF やフラッシュ クラッシュなどの要素を分析に組み込むことで、ポートフォリオ マネージャーは市場のダイナミクスと関連するリスクをより正確に理解できます。彼女は、リスク分析には相関行列だけで十分であるという概念に異議を唱え、独立した微細構造因子を考慮したより洗練されたアプローチを提案しています。このアプローチには、ポートフォリオの収益が向上し、リスク調整後のパフォーマンスが向上する可能性があります。

オルドリッジは、高頻度取引の複雑な世界にも光を当てています。彼女は、アグレッシブな HFT 戦略とパッシブな HFT 戦略の区別について説明し、市場の流動性とボラティリティに対するそれらの影響を強調しています。注文キャンセルを伴う積極的な戦略は流動性を侵食しリスクを増大させる可能性がありますが、指値注文とマーケットメイクに重点を置いたパッシブな戦略は流動性を提供し、ボラティリティを低減することができます。高頻度取引のダイナミクスとポートフォリオ配分に対するその影響を理解することは、長期的なポートフォリオ マネージャーにとって不可欠です。

さらに、Aldridge 氏は、日中のボリューム データに関連する課題と機会についても説明します。複数の交換が行われ、時間間隔が短縮されているため、このデータを効果的に分析および解釈することは複雑になる可能性があります。しかし、オルドリッジ氏はこれをイノベーションとさらなる研究の機会とみなしている。彼女は、SEC が運営するセキュリティ情報プロセッサー (SIP) について言及します。SIP は、さまざまな取引所からの指値注文を集約して、最適なビジネスと最適なオファーを決定します。しかし、彼女は、異なる取引所間で問題を調整し、解決することが依然として課題であることを認めています。

アルドリッジ氏のプレゼンテーションでは、ポートフォリオ最適化における防御の一形態としてファクターを使用することの重要性も強調しています。従来のリスクとリターンの特性を超えたさまざまな要因を考慮することで、ポートフォリオ マネージャーはより深い洞察を獲得し、意思決定プロセスを改善できます。時価総額、ベータ、価格、日中のボラティリティなどの要素は、長期的なポートフォリオを最適化するための貴重な情報を提供します。

最後に、オルドリッジ氏はデータ分析における仮想現実と自動化の可能性について触れています。これらの技術の進歩は、複雑な財務データを分析し、市場のダイナミクスをより深く理解するための新たな可能性をもたらします。自動化の力を活用し、仮想現実ツールを活用することで、ポートフォリオ マネージャーはデータ分析能力を強化し、より多くの情報に基づいた投資決定を下すことができます。

結論として、高頻度取引と進化する金融情勢の影響に関するアイリーン アルドリッジの議論は、長期的なポートフォリオ マネージャーにとって貴重な洞察を提供します。彼女の自動化、ビッグデータ、機械学習の探求は、ポートフォリオの最適化におけるこれらのテクノロジーの変革の可能性を浮き彫りにしています。微細構造要因を組み込み、防御手段として要因を利用し、技術進歩を受け入れることで、ポートフォリオ・マネージャーは変化する市場力学に適応し、最適な長期ポートフォリオ・パフォーマンスを達成するための新たな機会を切り開くことができます。

  • 00:00:00アイリーン・アルドリッジは、高頻度取引は長期的なポートフォリオ・マネージャーに影響を与えないという誤解について議論します。多くの運用会社は長期にわたって資産を保有できるため、高頻度取引の影響を回避できると主張しているが、オルドリッジ氏は、長期的なポートフォリオ運用会社には実際に高頻度取引が影響を及ぼしていると主張する。彼女は、市場の体系的な変化がどのように、そしてそれがすべての人にどのような影響を与えるかが、投資戦略が長期か短期かにかかわらず、ポートフォリオ マネージャーに影響を与える可能性があることを説明します。 Aldridge は、電気工学、ソフトウェア開発、リスク管理、金融のバックグラウンドを持ち、リアルタイム リスクやポートフォリオの最適化などの新しい分野の探索に取り組んでいます。

  • 00:05:00このセクションでは、講演者が金融業界における自動化への移行と、10 年前ですらほとんどの取引が手動で行われていたことについて説明します。しかし現在では、株式取引だけでなく、外国為替、債券、商品取引でも自動化が普及しています。自動化の目標は人間の取引に取って代わることであり、業界に関係し続ける人々は最新情報を保つためにビッグデータと機械学習を採用しています。しかし、一部のトレーダーは、すぐに自動化され、自らの陳腐化につながることを恐れ、知識をコンピューターと共有することに抵抗を感じていました。

  • 00:10:00アイリーン・アルドリッジがビッグデータの進化とポートフォリオの最適化におけるビッグデータの利用方法について語ります。彼女は、ほんの数年前までほとんどの金融機関は大量のデータにアクセスできなかったが、状況は変わり、現在ではさまざまな方法で処理して有用な洞察を得ることができる構造化データと非構造化データのデータベースが存在すると指摘しています。そのような方法の 1 つは特異値分解 (SVD) で、これは膨大な量のデータをより管理しやすい形式に縮小します。アルドリッジ氏は、自動化の瀬戸際にある業界であるポートフォリオ配分を自動化するために SVD がどのように使用されているかについて説明します。一部の企業は依然としてリサーチャーを利用して毎月のデータを分析し、そのデータに基づいて投資決定を行っていますが、投資決定に情報を提供するためにできるだけ多くのデータを組み込む傾向にあります。

  • 00:15:00 Irene Aldridge が、特異値分解を通じてデータ次元を削減するプロセスについて説明します。このプロセスを通じて抽出された特異値をプロットすることで、研究者はどのベクトルに重要な情報が含まれているかを判断し、残りをノイズとみなしながらそれらのベクトルを維持することに集中できます。この手法は、時価総額、ベータ、価格、日中のボラティリティなどの財務データを含むさまざまなデータセットに適用できます。結果として得られる削減されたデータセットは、研究目的のための信頼できるガイダンスを提供し、長期的なポートフォリオ最適化のための重要な要素を特定するのに役立ちます。

  • 00:20:00このセクションでは、アイリーン・アルドリッジが、価格や市場リスク、ベータなど、ポートフォリオ・アナリストが一般的に使用する要素について説明します。時価総額と配当利回りも、MSCI、Barra などの企業が使用するフレームワークに含まれるポートフォリオの最適化に使用される要素です。アルドリッジ氏は、ティックデータのビッグデータを使用し、データ内の特定のパターンを探して機関の活動をどのように推定するかを説明します。制度的な活動は、市場参加者にとって目に見えるシグナルであるため重要であり、それが他の市場参加者の飛びつきにつながり、注文の量が増加し、結果として注文の有利な執行につながる可能性があります。

  • 00:25:00アイリーン・アルドリッジが、どちらも流動性に影響を与えるアグレッシブな HFT 戦略とパッシブな HFT 戦略の違いについて説明します。アグレッシブな HFT 戦略はアルファ駆動であり、多くの注文キャンセルを伴うため、流動性が損なわれリスクにつながりますが、パッシブな HFT 戦略はマーケットメイクのような純粋な指値注文を伴い、より多くの流動性を提供することでボラティリティを低減できます。機関投資家は出来高加重平均価格を好みますが、外国為替のように常に出来高が利用できるわけではない一部の市場では時間加重平均価格が依然として使用されています。全体として、HFT は利点とリスクの両方を伴う複雑なトピックです。

  • 00:30:00このセクションでは、Irene Aldridge が、データ列の構造と、多数の交換、変更の時間間隔の短縮、および最適なビジネスとサービスの発見の問題を考慮した、日中ボリューム データに伴う課題について説明します。複数の取引所の中で最高のオファー。課題はありますが、彼女は、日中のボリュームデータはさまざまな方法でスライスしたり細分化したりすることができ、イノベーションとさらなる研究の機会を提供すると信じています。同氏はまた、複数の取引所からの指値注文を集約し、最適なビジネスと最適なオファーを決定するSECが運営するセキュリティ情報プロセッサー(SIP)についても触れているが、異なる取引所間での問題を調整し解決することは依然として課題であると指摘する。

  • 00:35:00講演者は、長期ポートフォリオ・マネージャーは主にリスク・リターン特性に関心があり、実行には関心がないが、インプットとして使用できる完全に未調査の微細構造やリスク要因が数多くあると説明しています。新しい情報や洞察を提供する可能性のある多くのデータも含まれます。彼らは、特異値分解を使用して以前のリターンに基づいてパフォーマンスを予測し、ビッグデータを活用してリアルタイムのリスクを特定して対処するという段階的なアプローチを提案しています。講演者はまた、取引所には多くの ping 注文やその他の複雑さがあり、人間のトレーダーには必ずしも明らかではないが、アルゴリズムを使用すれば特定して活用できることにも言及しています。

  • 00:40:00このセクションでは、アイリーン・アルドリッジが長期投資における従来のポートフォリオ最適化の限界について議論し、微細構造やその他の市場要因を最適化プロセスに統合する新しいアプローチを紹介します。彼女は、ETF やフラッシュクラッシュなどの要因がどのように市場を混乱させる可能性があるか、そして相関行列がリスク分析にどのように十分ではない可能性があるかを説明します。アルドリッジ氏は、市場の大きな動きとは独立した微細構造要因を考慮することで、リターンとシャープ・レシオを改善できるポートフォリオ最適化へのより微妙なアプローチを提案しています。彼女のアプローチは著書でさらに詳しく説明されており、高頻度取引に関する聴衆からの質問も受け付けていると彼女は述べています。

  • 00:45:00 Irene Aldridge が、1 日以内の高頻度取引の持続性と、それが長期的なポートフォリオの配分にどのような影響を与えるかについて説明します。同氏は、日中の高頻度取引量は 0 ~ 100 の範囲であるものの、時間の経過とともに、たとえば Google の場合は 36 ~ 42% の範囲でかなり安定していると指摘しています。この安定性は他の銘柄でも同様です。高価格株を取引する場合は高頻度取引のコストが低くなり、ペニー株の高頻度取引量の割合は低くなります。さらに、高頻度トレーダーはコーディングの複雑さのため、高配当株を避ける傾向があります。積極的な高頻度取引とは、成行注文または市場価格に近い積極的な指値注文を使用する取引です。

  • 00:50:00アイリーン・アルドリッジはクオンツ戦略の 3 年間のライフサイクルを説明します。1 年目はクオンツが前職で戦略を成功させて多額のボーナスを獲得し、2 年目は革新を試みますが、多くの人は成功する戦略を立てるのに苦労しており、3 年目で何か良いものを見つければ良いボーナスを獲得できるかもしれませんが、そうでなければ退職して以前の戦略を新しい店に持ち込んでしまいます。これにより、同様の高頻度取引戦略が集中し、微調整またはわずかに変更される可能性があり、ほとんど同時に実行されることがよくあります。アルドリッジ氏は、高頻度取引は良いことであり、床を掃除するロボットや冷暖房を制御するホームオートメーションシステムと同様の自動化であるため、許されることではないと考えています。

  • 00:55:00 Able Alpha Trading の社長兼マネージング ディレクターである Irene Aldridge が、仮想現実とデータ分析の自動化の可能性について語ります。彼女はまた、ベータベースのポートフォリオと要因の有用性についても触れ、靴下を購入する場合とデルのコンピューターを購入する場合の例を挙げ、ベータの変更が価格にどのように異なる影響を与えるかについても言及しました。彼女は返品の正規化の重要性を強調し、営業日のランダム性の問題に取り組んでいます。最後に、オルドリッジは防御の一形態としての因子の使用について取り上げ、因子の使用は楽しいものになり得ると示唆しています。

  • 01:00:00このセクションでは、オルドリッジは、ポートフォリオ内の各銘柄の重要性または係数を決定するためのコンピューター マトリックスの使用について説明します。マトリックスの行は各銘柄を表し、最初の行はリンゴを表し、他の行はさまざまな銘柄の市場データを表します。分散共分散と縮小を組み込むことで、マトリックスにリターンを組み込み、より具体的な結果に到達するための調整を行うことができます。これは、前日のリターンで X マスを見つけ、そこから予測することで行われます。説明した玩具モデルは基本的な例にすぎませんが、コンピューター マトリックスを使用してポートフォリオを最適化する方法を示しています。
 

定量取引の基本



定量取引の基本

クオンツ取引の基本に関するこのビデオでは、アルゴリズム トレーダーのショーン オーバートンがアルゴリズム取引に伴う課題と機会について説明します。オヴァートン氏は、データ収集、分析、取引がアルゴリズム取引に関わる 3 つの単純な問題であるが、高品質のデータの発見と適切な分析によりプロセスが複雑になる可能性があると説明しています。トレーダーの目標を満たす優れたデータと機能を備えた適切なプラットフォームを選択するのは難しい場合があります。最も人気のあるプラットフォームは、好みの取引タイプに応じて MetaTrader、NinjaTrader、TradeStation です。オヴァートン氏はまた、ライブ市場で取引する際に口座がいかに簡単に破壊されるかという厳しい現実と、リスク管理がいかに重要であるかについても語ります。さらに、クオンツトレーダーが市場の過度な動きを予測する方法を説明し、通貨戦争の影響についても説明します。

YouTube の「定量取引の基礎」ビデオでは、センチメント分析やチャート ラインに基づく長期戦略など、アルゴリズム取引のさまざまな戦略を取り上げています。ただし、最大の利益はビッグテールイベントやトレンドの際に得られます。このビデオの参加者は、バックテスト用のさまざまなプラットフォーム、取引分析のための複数のプラットフォームを統合する際の課題、取引戦略の形式化と自動化に対する関心の高まりについて話し合います。一部の長期トレーダーは、長期間ゲームに参加しているため自動化を求めており、プログラミング言語の NinjaTrader が推奨されますが、制限があります。

  • 00:00:00アルゴリズム トレーダーのショーン オーバートンが、アルゴリズム取引に伴う 3 つの単純な問題、つまりデータ収集、分析、取引について説明します。ただし、特に取引ではデータを慎重に検討する必要があるため、高品質のデータの検索や適切な分析などの障害により、プロセスが複雑になる可能性があります。無料オプションを使用した取引は、データに重複やギャップが含まれる可能性があるため推奨されません。さらに、有料オプションの使用は、商品ごとに数千ドルの費用がかかる可能性があるため、小売トレーダーの領域を超えています。それにもかかわらず、ソフトウェアとブローカー API を提供するプラットフォームを使用することで取引を簡素化できます。

  • 00:05:00講演者は、データの分析と取引の実行に利用できるさまざまなソフトウェア オプションについて説明します。外国為替取引で最も人気のあるプラットフォームは、好みの取引の種類に応じて、MetaTrader、NinjaTrader、TradeStation です。 MetaTrader は圧倒的に最も人気があり、世界中で 1,000 を超えるブローカーがそれを提供しています。講演者は、これらのオプションのような事前構築されたプラットフォームを使用すると、取引とデータ分析がより簡単になり、取引時に分析を何度も再コーディングする必要がなくなると説明しました。講演者は、各プラットフォームで使用されるさまざまなプログラミング言語についても説明します。

  • 00:10:00講演者は定量取引用のさまざまなプラットフォームについて説明し、マルチチャートが TradeStation のプラットフォームと言語をコピーすることでどのように普及したかについて説明します。ただし、言語間には違いがあり、必ずしも完全に互換性があるわけではありません。講演者はまた、クオンツ取引におけるデータの重要性と各プラットフォームに伴う課題についても語ります。同氏は、MetaTrader は使い方は簡単ですが、より複雑な分析を行えるほど洗練されておらず、提供されるデータの品質が低い場合が多いと指摘しています。全体として、講演者は、トレーダーの目標を満たす優れたデータと機能を備えたプラットフォームを慎重に選択することの重要性を強調しています。

  • 00:15:00 Shaun Overton が、定量的取引戦略のためのデータの収集と保存の課題について説明します。彼は、何年にもわたるテスト データを保存することの難しさと、サーバーの制限によりブローカーがデータの取得に課す制限について説明します。彼は、MetaTrader は無料のデータを提供しますが、それは高品質のデータではなく、NinjaTrader は優れたデータを提供しますが、セットアップには急な学習曲線があると指摘しています。同氏はまた、特定のブローカーに特有のプログラミング戦略がトレーダーをその特定のブローカーと結びつけることになり、満足できない場合に乗り換えるのが難しくなる危険性についても警告している。同氏は、トレーダーがブローカーに腹を立てる可能性がある理由として、サービスの悪さや約定の悪さなどを挙げている。

  • 00:20:00ショーン・オーバートンは、トレーダーとその取引から利益を得るためにブローカーが行ういくつかの問題とゲームについて説明します。ブローカーは、ある価格を提示してトレーダーにそれより悪い価格を受け入れさせることで、市場価格と取引を操作して、トレーダーに取引に対してより多くの支払いを強制することができます。さらに、トレーダーは遅延やソフトウェアの障害により不適切な執行を受ける可能性があります。現在、アルゴリズム取引に関する最大の問題は、制度化された汚職と、技術的事故によって金融機関がどのようにしてトレーダーから資金を盗むことができるか、また取引を操作するための独自のルールを設けているダークプールやその他の取引会場である。

  • 00:25:00講演者は、クオンツ取引におけるブローカー固有のプラットフォームの制限について説明します。非常に単純な戦略には効率的かもしれませんが、制限があり、より高度なものはサポートできません。講演者は、NinjaTrader や MultiCharts などの安定したプラットフォームを推奨しています。これらは調査品質が高く、カスタム プログラミングや GUI 調整が可能です。ただし、講演者は、これらのプラットフォームは複数のチャートと対話する機能がなく、多くの手作業が必要なため、ポートフォリオの管理や資金の運用には適していないと警告しています。

  • 00:30:00ショーン・オヴァートンは、ライブ市場での取引時に口座がいかに簡単に爆発するかという厳しい現実について語ります。口座の 90 ~ 95% は 6 か月または 1 年以内に閉鎖されます。ブローカーがお金を稼ぐ方法は、手数料またはリスクによる 2 つありますが、多くの場合、より人気があり儲かる方法は、取引の損失を引き受けることです。通常のトレーダーは、ボラティリティが低いときは利益を上げますが、ボラティリティが高いときは損をします。リスク管理が話題になりますが、ほとんどの人にとってそれは単なる熱気であり、リスクを管理しないことで損失を出し続けます。

  • 00:35:00ショーンは、ボラティリティが定量的取引戦略にどのような影響を与えるか、また小売トレーダーが市場予測をどのように誤る傾向があるかについて説明します。彼は、顧客口座にアクセスできるブローカーがロングポジションとショートポジションの比率をどのように追跡できるか、また、この情報を使用して過剰な動きを予測する方法について説明します。 Overton 氏は、MyFxBook や OANDA などの Web サイトが市場ポジショニングに関するデータを公開しており、この情報はより広く入手できるようになっていると指摘しています。ただし、この情報はブローカーにとって宝の山になる可能性がある一方で、安定したキャッシュフローがもたらされず、一時的に大きな損失が発生する可能性があると同氏は警告する。

  • 00:40:00ショーン・オーバートンは、クオンツトレーダーが大手銀行の顧客資金を調べて、特定の方向に向かう取引の割合に基づいてロング戦略とショート戦略を考案できる可能性について論じています。同氏はまた、特に最近のネガティブなニュースを考慮して、株式市場に参加している個人投資家が懐疑的であり、前回の暴落以来数十億ドルの資金流出につながっていることについてもコメントした。オヴァートン氏はまた、大手ファンドマネージャーと彼らが大企業の株式に与える影響に関するCNBCの最近のニュース記事にも言及し、市場を動かす際の機関投資家マネーの力を実証している。

  • 00:45:00トレーダーの平均口座規模により、機関投資家取引、特に外国為替が個人取引ほど市場に影響力を及ぼさない可能性について議論されています。しかし、評価額が大きくなり取引金額が大きくなると、価格をいじる人が増え、飲酒取引などの小さな出来事でも市場に影響を与える可能性があります。通貨の主な原動力は金利であり、誰もがゼロ金利を望む通貨戦争となっており、どの国の通貨が最も弱いかを判断することが難しくなっている。最後に、日本の通貨ペアであるドル円について、その歴史とその価格下落がドル安・円高にどのように関係するのかを分析します。

  • 00:50:00ショーン・オヴァートンは通貨戦争が輸出業者に与える影響について語ります。彼は、トヨタなどの輸出業者が、事業を行う通貨の価値が上昇したときにどのように大きな影響を受けるかを説明します。オヴァートン氏は、現在、主要通貨間で通貨戦争が起きており、各国が自国の価値を切り下げようとしており、各国がゼロを目指して競争していると述べている。したがって、トレーダーは、通貨を破壊する上で最も悪い仕事をするのは誰なのか、この環境で最も優れているのは誰なのかを推測する必要があります。オヴァートン氏は、ドルは現在大惨事だが、これまでで最高の惨事だと感じている。 9 月 11 日や福島原発事故など、国固有の社会リスクや出来事も通貨価格に影響を与える可能性があります。

  • 00:55:00講演者は、薄い市場とエキゾチックな通貨での取引について話し合いました。アルゴリズム取引には流動性と狭いスプレッドが必要であり、そのため南アフリカランドやトルコリラのようなあまり人気のない通貨での取引は困難であると述べました。さらに、これらの通貨のスプレッドは、ユーロとドルの取引コストの 8 ~ 9 倍になる可能性があるため、利益を上げることが困難になります。口座残高が 50,000 未満の人の戦略について、講演者は、市場のポジションに関する洞察を得るために、先物市場におけるトレーダーのコミットメント レポートなどに焦点を当てることの重要性について言及しています。

  • 01:00:00グループは、センチメント分析やチャートラインに基づくシンプルな長期戦略など、アルゴリズム取引のさまざまな戦略について話し合います。トレードにおける課題は、ほとんどの場合単なるノイズであるため、リターンの分布を理解することです。ただし、最大の利益はビッグテールイベントやトレンド中に得られます。したがって、最良の戦略は常にお金を稼ぐものではありませんが、チャンスがあればそれを掴むものです。シグナルやアクションが欲しいという欲求にもかかわらず、市場がやろうとしていることをやらせるのが最善です。市場データを分析するプログラム Quantopia についても言及されています。

  • 01:05:00このセクションでは、YouTube ビデオ「定量取引の基礎」の参加者が、バックテストと最適化に使用するさまざまなプラットフォームと、取引分析と戦略開発のための複数のプラットフォームの統合の課題について話し合います。一部の出席者は、Quantopian が個別分析用のプラットフォームを提供し、プラットフォーム統合の課題を潜在的に解決するためにブローカーとの契約交渉を行っていることに注目する一方で、NinjaTrader のようなプラットフォームの限界や他のプラットフォームとの統合の難しさについて議論する参加者もいます。手動取引や単純なバックテスト ツールとして適しています。さらに、ショーン・オヴァートン氏は、自身のビジネスがトレーダー自身の戦略の形式化と自動化を中心に構築されていると述べ、出席者は、個人のトレーダーと市場の両方がトレーディング戦略の形式化と自動化にますます関心を示していると指摘しました。

  • 01:10:00クオンツ取引セミナーに参加するトレーダーは、特定の取引戦略を自動化する利点について尋ねます。講演者のショーン・オヴァートン氏は、10年、20年、さらには30年もゲームに携わっているトレーダーの中には、自分の戦略を自動化して、一日中監視する必要がなくなることを望んでいるという人もいると指摘する。取引固有のプログラミング言語について議論する際、Overton 氏は C Sharp 上で動作する NinjaTrader を支持していますが、その中で実行できることには制限があると指摘しています。
Basics of Quantitative Trading
Basics of Quantitative Trading
  • 2013.02.26
  • www.youtube.com
http://www.onestepremoved.com/ Shaun Overton speaks to the meetup group Dallas Algorithmic Traders about quantitative trading. Most members of the audience h...
 

クオンツトレーダーとは何ですか?



クオンツトレーダーとは何ですか?

「クオンツトレーダーとは何ですか?」は、マイケル ホールズ ムーアがクオンツ取引の世界を掘り下げ、取引戦略を開発し、市場の非効率性を分析するために数学と統計がどのように使用されるかを説明するビデオです。クオンツファンドは主に短期戦略に焦点を当てているが、講演者は低頻度で自動化されたアプローチも利用されていることを強調した。機関投資家トレーダーはリスク管理を優先しますが、個人トレーダーは利益を重視します。効果的な市場体制の検出は非常に重要ですが、市場ではランダムなイベントが発生するため、困難を伴います。クオンツトレーダーは、単一のモデルだけに依存するのではなく、既知および未知の市場ダイナミクスを考慮して新しいモデルを常に調査およびテストすることをお勧めします。リスクが伴うにもかかわらず、成功したクオンツトレーダーは手数料で年間 35% という驚異的な利益を達成できます。

このビデオでは、マイケル ホールズ ムーアが「クオンツ トレーダー」の概念について洞察力に富んだ視点を提供しています。同氏は、クオンツトレーダーは金融分野で計算および統計的手法を活用し、数学的および統計的手法を採用していると説明しています。彼らの仕事は、取引構造のプログラミングから徹底した調査の実施、堅牢な取引戦略の開発まで、幅広い活動に及びます。売買ルールは役割を果たしますが、クオンツトレーダーはシグナルジェネレーターが 1 つのコンポーネントにすぎないより大きなシステム内で動作するため、それだけが焦点ではありません。

クオンツファンドは通常、高頻度取引に従事し、市場資産内のテクノロジーと微細構造の最適化に努めています。クオンツ取引に関わる時間枠は、マイクロ秒から数週間まで、大きく異なります。小売トレーダーには、高頻度スタイルの戦略を採用する大きなチャンスがあります。

一般に信じられていることに反して、クオンツ取引は高頻度取引と裁定取引だけに焦点を当てているわけではありません。また、低頻度の自動戦略も組み込まれています。しかし、システムの物理的な非効率性を利用する科学的アプローチにより、クオンツファンドは主に短期戦略に集中します。講演者は、クオンツ取引の分野で成功するには、科学的背景とトレーディング的背景を融合させることの重要性を強調しています。

個人トレーダーと機関投資家の注目すべき違いは、リスク管理のアプローチにあります。個人トレーダーは主に利益動機によって動かされますが、機関トレーダーはたとえ潜在的な利益を犠牲にしてもリスク管理を優先します。機関投資家トレーダーはリスク第一の考え方を採用し、リスクを効果的に軽減するためにデューデリジェンス、ストレステスト、下値保険政策の導入を重視しています。

リスク管理には、ケリー基準などの数学的フレームワークを使用して口座資本に基づいてレバレッジを調整するなど、さまざまな手法が含まれます。より保守的なトレーダーは、制御された成長率を達成するためにドローダウンを減らすことを選択します。 VIX などの先行リスク指標は、将来のボラティリティを測定するために利用されます。こうしたトレードではエントリーシステムよりもリスク管理システムの方が重要です。トレンドフォローではストップロスが使用されますが、平均回帰戦略では、ドローダウン計画のためにさまざまなシナリオと履歴データを再評価および調査する必要があります。取引アルゴリズムを実装する前に、リスク要因を効果的に管理するためにバックテスト段階が実施されます。

このビデオでは、トレーディング戦略をフィルタリングし、それらを直接本番環境に導入するのではなく、それらをフィルタリングするためのツールとしてバックテストを使用することの重要性について詳しく説明しています。これは、実行中の戦略の適切性を判断するために、ウォークフォワード中にさらに悪化するドローダウンを予測し、フィルタリングメカニズムを利用することの重要性を強調しています。次に会話では、ファットテールに対するナシム・ニコラス・タレブの信念を掘り下げ、機械学習テクノロジーをどのように利用してレンジ取引やトレンド取引戦略を適用し、市場体制の検出を可能にするかを探ります。

効果的な市場体制の検出は、量的金融の重要な側面です。ただし、金利の低下や市場動向などのランダムなイベントに依存しているため、課題が生じています。より洗練された企業は、基本的なデータを追跡し、それをモデルに組み込んで市場体制の検出を強化します。取引する場合、株式や ETF の選択は特定の市場に依存し、適切な資産を選択することは複雑な作業となる場合があります。講演者は、過去のボラティリティの高かった時期が将来のボラティリティと市場の変化を予測するための洞察を提供する可能性があるため、ブラックスワン現象に対する効果的な防御には数学的モデルと市場ファンダメンタルズの組み合わせが重要であると強調しました。

このビデオでは、クオンツ取引に伴う潜在的なリターンとリスクについてさらに詳しく説明しています。クオンツトレーダーは、特に博士号などの確かな学歴と効率的な管理プロセスが組み合わさった場合、手数料で年間 35% という驚異的な利益を得る可能性があります。ただし、高頻度のクオンツは、基盤となるハードウェアまたは交換に変更が発生すると問題に直面し、システムのクラッシュにつながる可能性があります。

リスクは伴うものの、長期的に収益性の高い機会を活用して 15% ~ 20% の安定したリターンを達成することは好ましいと考えられます。クオンツトレーダーは、単一の魔法のアルゴリズムに依存したり、問題に直面したときにパニックを起こすことはありません。代わりに、分析が複雑である可能性があるが、潜在的な課題に対処するために事前に準備できる統計的特性を詳しく調べます。

このビデオでは、クオンツ取引において単一モデルへの過度の依存を避けることの重要性を強調しています。過去のウォール街の暴落やモデルの欠陥に起因する投資の失敗が証明しているように、モデルは将来のすべての出来事を正確に予測することはできません。クオンツトレーダーにとって、新しいモデルを継続的に研究およびテストし、そのパフォーマンスを評価することが不可欠です。ドローダウン期間は取引過程に不可欠な部分であり、トレーダーはドローダウン期間を乗り越える準備をしておく必要があります。

結論として、一部のトレーダーはモデルを細かく管理することに過度に集中するかもしれませんが、モデルが未知の要素を含むすべての市場ダイナミクスを考慮しているかどうかを理解することが重要です。クオンツトレーダーは、市場の行動を包括的に理解するために、数学的モデルと市場のファンダメンタルズを組み合わせた多次元的なアプローチを採用する必要があります。クオンツトレーダーは戦略を常に洗練し多様化することで、進化し続ける金融情勢の中で成功する可能性を高めることができます。

  • 00:00:00このセクションでは、マイケル ホールズ ムーアが、金融における数学や統計を計算的および統計的な方法で使用する人を指す「クオンツ トレーダー」の意味を説明します。これは、取引構造のプログラミングから、本格的な取引の研究や戦略の開発まで多岐にわたります。売買ルールの重要性は他の側面ほど重要ではなく、信号発生器はより大きなシステムの一部にすぎません。クオンツファンドは通常、より高頻度の取引を扱い、市場資産内のテクノロジーと微細構造の最適化に重点を置いています。クオンツトレーダーの典型的な時間枠はマイクロ秒から数週間の範囲であり、個人トレーダーの最大のチャンスは高頻度スタイルの戦略にあります。

  • 00:05:00このセクションでは、クオンツ取引は高頻度取引と裁定取引だけではなく、低頻度戦略や自動戦略も含まれることを学びます。ただし、クオンツファンドはシステム内の物理的な非効率性を利用する科学的なアプローチにより、一般に短期戦略に重点を置いています。講演者は、クオンツ取引で成功するには、科学とトレーディングの両方の背景を併せ持つことが重要であると信じています。リスク管理に関して同氏は、個人取引と機関投資家取引の間には文化的な違いがあると指摘し、後者はリスク第一の精神を持ち、デューデリジェンス、ストレステスト、ダウンサイド保険契約を重視する。

  • 00:10:00このセクションでは、リスク管理に関して個人トレーダーと機関投資家のトレーダーが使用するさまざまなアプローチについてビデオで説明します。個人トレーダーは主に利益を追求しますが、機関投資家は、たとえ潜在的なリターンが可能性のほんの一部であっても、リスク管理に重点を置いています。ビデオでは、口座資本に基づいてレバレッジを調整する数学的手段としてケリー基準について言及しており、より保守的なトレーダーは、より制御された成長率を達成するためにドローダウンを減らすスライドを選択します。さらに、VIX などの先行リスク指標は、将来のボラティリティを確認するために使用されます。これらの取引では、リスク管理システムがエントリー システムよりも重要であり、ストップロスはトレンドフォローでは利用されますが、平均反転では利用されず、トレーダーはドローダウン計画のためにさまざまなシナリオや履歴を再考して探索します。取引アルゴリズムを開始する前に、リスク要因を管理するためにバックテストフェーズが実施されます。

  • 00:15:00このセクションでは、インタビュアーとクオンツトレーダーが、トレーディング戦略をフィルタリングすることの重要性と、戦略を運用する手段としてではなく、戦略をフィルタリングする手段としてバックテストを使用する方法について話し合います。彼らは、ウォークフォワード中にさらに悪化するドローダウンを予測し、戦略が実装に適しているかどうかを判断するためにフィルタリングメカニズムを使用することの重要性を強調しています。次に会話は、ファットテールに対するタレブの信念と、市場体制の変化を判断するために機械学習テクノロジーを使用して将来的にレンジ取引とトレンド取引戦略をどのように適用するかに移ります。

  • 00:20:00このセクションでは、講演者はクオンツファイナンスにおける効果的な市場体制検出の重要性を強調します。問題は、金利の低下や市場の動向など、まったくランダムな出来事に依存するため、これを念頭に置くのが難しいことです。市場体制を検出するのは難しいですが、より洗練された企業は基礎的なデータを追跡し、それを自社のモデルに組み込んでいます。取引する場合、取引内容に応じて選択できる株やETFの数が異なるため、適切なものを選択するのは難しい場合があります。さらに、講演者は、過去の恐ろしいボラティリティによって将来のボラティリティと市場の変化を予測できるため、ブラック・スワンの防御は数学モデルと市場ファンダメンタルズの組み合わせに依存していると信じています。

  • 00:25:00このセクションでは、クオンツトレーダーが期待できるリターンとそれがもたらすリスクについてビデオで説明しています。クオントトレーダーは、博士号と効率的な管理プロセスの助けを借りて、年間 35% の手数料収益率を得ることができます。ただし、高頻度のクオンツは、基盤となるハードウェアまたは交換の変更により影響を受け、システムがクラッシュする可能性があります。こうしたリスクにもかかわらず、長期的に可能なものを活用して 15 ~ 20% の利益を得るのは、十分な利益です。量子トレーダーは、単一の魔法のアルゴリズムを持っていませんし、問題に直面したときにパニックに陥ることもありません。事前に分析して準備するのが困難ないくつかの統計的特性を検討することが予想されます。

  • 00:30:00このセクションでは、モデルは将来のすべてのイベントを正確に予測できないため、クオンツ取引では単一のモデルに依存しすぎることがいかに賢明ではないかについて講演者が説明します。同氏は、主にモデルの欠陥に起因する古典的なウォール街の暴落や投資の失敗の例を挙げている。講演者は、新しいモデルを継続的に研究し、その性能をチェックすることの重要性を強調します。ただし、ドローダウン期間は常に発生します。結論として、一部のトレーダーはモデルを細かく管理する段階に達するかもしれませんが、モデルがすべての市場ダイナミクスを説明しているのか、それとも未知の未知の要素を説明しているのかを理解することが重要です。
What is a quant trader?
What is a quant trader?
  • 2013.12.02
  • www.youtube.com
http://www.onestepremoved.com/ Shaun Overton interviews Michael Halls-Moore, a quantitative developer. Mike jumped from postgraduate school straight into alg...
 

PyCon Canada 2015 - カレン・ルービン: 定量的取引戦略の構築 (基調講演)



PyCon Canada 2015 - カレン・ルービン: 定量的取引戦略の構築 (基調講演)

ディスカッションを続けて、カレン ルービンは、フォーチュン 1000 企業の女性 CEO に関する調査結果と洞察を掘り下げます。分析の結果、女性 CEO の収益率は 68% であるのに対し、男性 CEO の収益率は 47% であることが明らかになりました。しかし、カレン氏は、女性 CEO が男性 CEO を上回る業績を示していることはデータではまだ証明されていないと強調する。彼女はこの研究を、高収益かつ高時価総額企業における興味深い概念であると考えています。

カレンさんは、自身の発見に触発されて、金融およびテクノロジー業界における多様性の重要性を強調しています。彼女は、より多くの女性がこの分野に参加し、投資戦略の策定に参加することを奨励しています。女性CEOへの投資などのアイデアを取り入れることで、多様性のある包括的なファンドの創設に貢献できると考えている。

カレンは議論を広げて、CEO の成功に影響を与える可能性のある他の要素にも触れます。これには、CEO の性別、採用方法 (社内または社外)、さらには誕生月も含まれます。彼女は、企業が組織の業績が悪いときに女性 CEO を任命し、その後リストラの恩恵を受けるために男性 CEO に置き換えることがあるという理論を認めています。しかし、カレンは今のところこの理論を裁定することができていない。さらに、CEOの発表後に株価が下落することがよくあるが、この傾向が女性CEOと男性CEOで異なるかどうかはまだ不明であると彼女は指摘する。

結論として、カレン氏は、CEO 向けの定量的トレーディング戦略を構築するには、さまざまな要素を考慮し、徹底的な分析を行う必要があると強調しています。彼女の研究は、女性 CEO のパフォーマンスに関する貴重な洞察を提供する一方で、経営陣のリーダーシップにおけるジェンダーの動態と、それが投資成果に及ぼす影響をより包括的に理解するには、さらなる研究と探求の必要性を強調しています。

  • 00:00:00このセクションでは、講演者が自己紹介と、市場に投資するためのアルゴリズムを作成した経験について説明します。クラウドソーシングのヘッジファンドである Quantiacs の製品担当副社長として、彼女はユーザーのために効果的なソフトウェアを構築できるように、ユーザーが何をしているかを理解するアルゴリズムを作成する必要がありました。彼女はクレディ・スイスのジェンダーレポートを読んで女性 CEO への投資に興味を持ち、女性 CEO を歴史的に見て、彼女が CEO でなくなったときに売却できる戦略を構築できないかと考えました。

  • 00:05:00このセクションでは、カレン ルービンがクオンツ トレーディング戦略を構築する際にとった最初のステップについて語ります。彼女は、時間の経過とともに何が起こったかのシミュレーションを作成するために、特定の期間内のすべての女性 CEO の履歴リストを取得する必要がありました。カレンさんは、各 CEO の開始日と終了日、および対応するティッカー シンボルを手動で検索して分析する必要があったため、プロジェクトの初期段階ではデータの取得とクレンジングにかなりの時間が費やされたと説明しています。彼女はまた、分析前に価格設定データが正確で、クリーンであることを確認するという課題についても語ります。サンプルサイズが小さいにもかかわらず、カレンさんは研究を進め続けました。

  • 00:10:00このセクションでは、カレン ルービンがアルゴリズム取引におけるバック テストのプロセスと、彼女の戦略でシミュレーションがどのように機能するかを説明します。彼女は、過去のデータを調べ、女性 CEO のリストに基づいて売買の意思決定を行うことで、実際の市場で取引しているかのように戦略をシミュレーションします。彼女はアルゴリズムの最初のバージョンをベンチマークである S&P 500 と比較しました。しかし、以前の戦略ではレバレッジを考慮できなかったため、後に常駐のクオンツの支援を受けて戦略を書き直しました。

  • 00:15:00ビデオのこのセクションでは、カレン ルービンが、すべての企業で均等な加重ポートフォリオを確保するために、トレーディング戦略のバランスを再調整した方法について説明します。彼女のアルゴリズムは企業を売買し、将来的に損失を被ったり、購入のためにお金を借りたりする必要がないようにポートフォリオの価値を計算します。彼女はまた、彼女の戦略がヤフーとアリババの株価に依存しているかどうかを疑問視する Reddit と Hacker News コミュニティから受け取ったフィードバックについても説明します。彼女はこの理論を検証するために戦略から Yahoo を除外し、それが全体的な収益に影響を与えたものの、収益の唯一の原因ではないことを発見しました。

  • 00:20:00このセクションでは、講演者がセクター中立のポートフォリオを作成することでセクターの偏りを回避する方法について説明します。ポートフォリオの金額をセクターの数で割ることにより、そのセクター内のすべての企業は同額の投資を受け取ります。たとえば、ヘルスケアに 3 社の企業がある場合、割り当ては 3 分の 1 に分割されますが、約 20 社からなるコンシューマー シクリカルでは、各企業がセクターに割り当てられる総額の 20 分の 1 を受け取ることになります。講演者の戦略の結果としてのリターンは 275 パーセントですが、均等加重ベンチマークのリターンは 251 パーセント、S&P 500 のリターンは 122 パーセントです。 S&P 500 のようなベンチマークは、企業が均等に加重されていないため、哲学的に正確ではないと主張する人もいますが、RSP グッゲンハイム イコール ウェイト S&P 500 指数は、比較目的でより優れたベンチマークを提供します。

  • 00:25:00このセクションでは、カレン・ルービンが、女性 CEO に投資する際に適切なベンチマークを見つけるという課題について説明します。彼女は、フォーチュン 1000 ベンチマークは正しい選択のように思えますが、その過去の構成銘柄リストを購入するには費用がかかることを強調しました。代わりに、彼女は、すべての企業を収益でランク付けし、上位 1000 社を選択する新しいベンチマークである Quanto 1000 を作成しました。Quanto 1000 と S&P 500 に対するアルゴリズムのリターンを比較すると、アルゴリズムが他の 2 つのベンチマークを 43% 上回っていることがわかりました。違い。また、彼女は CEO の交代に関する Event Fessor の新しいデータセットを調査し、これにより男性 CEO と女性 CEO 間の比較戦略を立てることができます。その結果、女性 CEO には入社日に投資し、退職日に投資を停止するという戦略は 7 年間で 28% の利益を上げたのに対し、男性 CEO の利益は 44% でした。

  • 00:30:00このセクションでは、カレンがフォーチュン 1000 企業の女性 CEO に関する調査結果を詳しく説明します。分析によると、女性CEOの利益率は68%、男性CEOの利益率は47%だった。しかし、カレン氏は、女性 CEO が男性 CEO を上回っていることはデータからはまだ示されていないと考えています。彼女は、この研究が高収益かつ高時価総額企業の女性 CEO について興味深いアイデアを提供していると考えています。カレンさんは金融およびテクノロジー業界の多様性を促進したいと考えており、より多くの女性がこの分野に参加するよう勧めています。彼女は、多様性のあるファンドを創設するには、女性 CEO への投資などのアイデアを持ち込むことが重要だと信じています。

  • 00:35:00このセクションでは、講演者は、CEO の成功に影響を与える可能性のあるさまざまな要因 (性別、社内または社外の採用、誕生月など) について説明します。彼女はまた、企業は業績が悪いときに女性CEOを迎え入れ、その後はリストラの恩恵を享受するために男性CEOに置き換えるという理論についても言及している。しかし、彼女はこの理論を裁定することができませんでした。さらに、CEO の発表後に株価が下落することがよくあるが、この傾向が女性 CEO と男性 CEO で異なるかどうかは定かではないと彼女は指摘しています。全体として、CEO がクオンツ トレーディング戦略を構築する際には、考慮すべき要素が数多くあります。
PyCon Canada 2015 - Karen Rubin: Building a Quantitative Trading Strategy (Keynote)
PyCon Canada 2015 - Karen Rubin: Building a Quantitative Trading Strategy (Keynote)
  • 2015.11.24
  • www.youtube.com
PyCon Canada 2015: https://2015.pycon.ca/en/schedule/67/Talk Description:Upon joining Quantopian, in order to understand her users better, Karen Rubin embark...
 

アーニー・チャン博士による定量的取引のための機械学習ウェビナー



アーニー・チャン博士による定量的取引のための機械学習ウェビナー

金融業界の著名な人物であるアーニー チャン博士が、トレーディングにおける機械学習に関する洞察と経験を共有しています。彼はまず、機械学習を取引に適用するという初期の試みを振り返り、当初は成功した結果が得られなかったことを認めています。チャン博士は、取引、特にデータが不十分な先物取引や指数取引における機械学習の限界を理解することの重要性を強調しています。

しかし、同氏は、個別のハイテク株、オーダーブックデータ、ファンダメンタルズデータ、またはニュースなどの非伝統的なデータソースに適用した場合に、収益性の高いトレーディング戦略を生成する際の機械学習の可能性を強調しています。データの可用性とデータ スヌーピングのバイアスの制限に対処するために、チャン博士は、オーバーサンプリングやバギングなどのリサンプリング手法を利用することを提案しています。これらの手法はデータセットの拡張に役立ちますが、取引戦略に使用する場合は、時系列データの連続的な自己相関を保存することが重要です。

特徴の選択は、取引における機械学習アプリケーションの成功において重要な役割を果たします。 Chan 博士は、関連する特徴や予測子を選択することでデータ サンプリングのバイアスを軽減することの重要性を強調します。同氏は、多くの人は特徴が多いほど良いと信じているが、トレーディングでは特徴が豊富なデータセットは誤った自己相関を引き起こし、悪い結果を招く可能性があると説明しています。彼は、前方特徴選択、分類および回帰ツリー (CART)、およびランダム フォレストという 3 つの特徴選択アルゴリズムについて説明します。これらは、最も予測性の高い変数を特定するのに役立ちます。

チャン博士は、将来の 1 日の収益とそのプラスまたはマイナスの性質を予測することを目的としたサポート ベクター マシン (SVM) 分類アルゴリズムを詳しく調査します。 SVM はデータ ポイントを分離するための超平面を見つけますが、効果的に分離するには非線形変換が必要になる場合があります。同氏は、ニューラル ネットワークなどの他の機械学習アプローチにも触れていますが、関連する特徴を捕捉する際の限界と、金融市場の非定常的な性質による取引には不向きであることを強調しています。

このウェビナーでは、取引戦略におけるカスタマイズされたターゲット機能の重要性も強調しています。 Chan 博士は、予測モデルを開発するために、ステップワイズ回帰、デシジョン ツリー、セットワイズ回帰などの手法を推奨しています。同氏は、高い精度で利益を保護するために取引回数の平方根を減らすことの重要性を強調しています。シャープレシオは戦略の有効性を評価するための効果的なベンチマークとして提示されており、2 以上の比率が好ましいと考えられます。

チャン博士は、金融業界における機械学習の応用に関する貴重な洞察を提供し、その限界について警告しながら、特定の分野における機械学習の可能性を強調します。彼は、定量取引における機械学習アプリケーションを成功させるには、特徴の選択、データのリサンプリング、および適切なターゲット関数の選択の重要性を強調しています。

  • 00:00:00このセクションでは、アーニー チャン博士が金融業界における機械学習の背景と経験を共有します。彼は、この分野の専門知識を持ち、有名な企業で働いていたにもかかわらず、機械学習をトレーディングに適用することにどのように成功しなかったのかについて語ります。チャン博士は、この講演の目的は、機械学習の落とし穴と、機械学習がトレーディングで機能しない理由、そしてトレーディングでどのように機能するかを説明することであると語ります。彼は、トレーディングで機械学習を初めて使い始めたとき、それが日足足で機能し、テクニカル指標を入力として使用すると考えて、最終的には成功した結果が得られなかったという間違いを犯したと述べています。

  • 00:05:00このセクションでは、アーニー・チャン博士が、データ不足とデータスヌーピングバイアスのリスクによる先物取引や指数取引での機械学習アルゴリズムの使用の限界について説明します。同氏は、機械学習を個別のハイテク株、オーダーブックデータ、ファンダメンタルズデータ、またはニュースなどの非伝統的なデータに適用すると、収益性の高いトレーディング戦略を生み出す可能性がさらに高まると考えている。不十分なデータとデータ スヌーピング バイアスの制限を克服するために、チャン博士は、オーバーサンプリングやバギングなどのリサンプリング手法を使用することを提案しています。リサンプリングによりデータセットが拡張される可能性がありますが、これらの手法を取引戦略に使用する場合は、時系列データの連続的な自己相関を維持するために慎重に考慮する必要があります。

  • 00:10:00このセクションでは、チャン博士が機械学習におけるトライグラムの使用について説明します。これにより、自己相関を維持するために 1 日だけではなく複数日を入力として使用できるようになります。また、データ サンプリングのバイアスを軽減することの重要性も強調しています。これは、特徴量または予測子の数を減らすことで実現できます。多くの人は特徴が多いほど良いと考えていますが、特徴とターゲットの間の偽の自己相関により、特徴が豊富なデータセットは呪いとなるため、トレードの場合はそうではありません。したがって、特徴の選択は重要であり、特徴の選択をサポートする機械学習アルゴリズムは取引に最適です。 Chan 博士は、段階的回帰、ランダム フォレスト、LASSO 回帰などの 3 つのアルゴリズムを強調しています。同氏は、ニューラルネットワークやディープラーニングのアルゴリズムは、特徴を選択するのではなく、すべてを取り出して混ぜ合わせるため、取引には理想的ではないと警告する。

  • 00:15:00このセクションでは、アーニー チャン博士が、前方特徴選択、分類および回帰ツリー (CART)、およびランダム フォレストという 3 つの異なる特徴選択アルゴリズムについて説明します。前方特徴選択では、どの特徴が予測可能性を向上させるかをアルゴリズムが特定するまで、線形回帰モデルに一度に 1 つずつ特徴を追加します。一方、CART はデシジョン ツリーに似ており、分類目的で反復ごとに条件を課して階層的に動作します。ランダム フォレストは、バギングとランダム部分空間を組み合わせることで、さまざまな分類アルゴリズムに適用できる手法です。これには、データと特徴のバランスを達成するためにデータのオーバーサンプリングと予測子のアンダーサンプリングが含まれます。チャン博士は、概念をよりよく説明するために、明日のリターンを予測するための仮説的な特徴を含むテーブルの例を提供しています。

  • 00:20:00このセクションでは、アーニー チャン博士が、分類回帰ツリーなどの分類アルゴリズムを使用して特徴セットを削減するプロセスについて説明します。これには、アンダーサンプリングや相互情報量の使用など、多くのテクニックがあると彼は説明します。ただし、これらのテクニックは最もシンプルでよく知られていると彼は述べています。データの代表的なサンプルを使用して、将来のリターンを予測するのにどのテクニカル指標が役立つのか、またこれらの指標のどの値がプラスまたはマイナスのリターンを生み出すのかを特定することで、アルゴリズムがどのように機能するかを示しています。データのサブセットが分類されると、プロセスを繰り返して、より適切に分類するために他の変数を特定します。

  • 00:25:00このセクションでは、アーニー チャン博士が、機械学習アルゴリズムは、分類器に役立つ予測変数とパラメーターを見つけて、統計的有意性が見つからなくなるまで反復することによって機能すると説明しています。機械学習アルゴリズムは多くの場合、データに関する詳細と条件を含む統計回帰システムです。彼は続けて、将来の 1 日の収益とそれがプラスになるかマイナスになるかを予測することを目的としたサポート ベクター マシン分類アルゴリズムについて説明します。アルゴリズムはデータを横断する超平面を見つけようとしますが、多くの場合、分離を見つけるために非線形変換が必要になります。この変換は、サポート ベクター マシンを効果的に動作させるために重要です。

  • 00:30:00このセクションでは、チャン博士は、機械学習アルゴリズムが学習するのに十分なデータがない場合、必要な量は予測子の数に比例しますが、データをリサンプリングする必要性について説明します。彼は、サポート ベクター マシンがデータを分類する方法であること、およびステップワイズ回帰や分類ツリーほど特徴選択アルゴリズムではありませんが、SVM があらゆる次元を横断できる超平面を見つける方法について概説します。彼は、ニューラル ネットワークは非線形方程式であり、回帰の場合のように線形関数を使用するのではなく、モンスターのような長い線形関数を使用してデータを近似すること、ディープ ラーニングは単純に多くの層を備えたニューラル ネットワークであるが、層あたりのノード数が非常に少ないことを指摘しています。段階的に特徴を捉えやすくなります。

  • 00:35:00このセクションでは、アーニー チャン博士が定量取引にニューラル ネットワークを使用する概念について説明します。彼は、ニューラル ネットワークはあらゆる非線形関数を近似でき、今日の変数に基づいて明日の収益を予測できるため、強力なツールであると説明します。ただし、金融市場は静止しておらず、このアプローチを使用して関連する特徴を捕捉するのは難しいため、ニューラル ネットワークは取引ではうまく機能しないとも同氏は述べています。同氏は、ニューラル ネットワークはすべての入力を使用し、特徴を選択しないため、市場に因果関係をもたらす変数を見つけることが困難であると強調しています。

  • 00:40:00このセクションでは、アーニー・チャン博士が、機械学習がトレーダーにとってどのような場合に役立つかを説明します。機械学習は、トレーダーがデータや市場についての直観力に欠けている場合、またはデータの数学的モデルを持っていない場合に役立ちます。さらに、機械学習は、特徴が多すぎる場合、またはどの特徴が重要であるかわからない場合に、トレーダーが直感を養うのに役立ちます。ただし、トレーダーが優れた直感と単純な数学モデルを持っている場合は、機械学習を使用するよりも単純なモデルを構築する方が良いでしょう。また、トレーダーは、データが少なすぎる場合、または市場に体制変更があった場合に機械学習を使用する際に注意する必要があります。市場モデルが不十分だと、体制変更があったときにアルゴリズムが崩壊する可能性があるためです。

  • 00:45:00ウェビナーのこのセクションでは、アーニー チャン博士が定量取引に機械学習技術を適用する際に定常データを使用することの重要性について説明します。彼は、データセットの定常性を判断するために多くの統計的および技術的テストを使用できますが、結果があいまいになることが多いと指摘しています。チャン博士はまた、サンプル外の複製が成功していないため、取引における強化学習と深層学習の有効性に対する懐疑についても述べています。さらに、彼はトレーディング戦略においてカスタマイズされたターゲット関数の必要性を強調し、予測モデリングのためのセットワイズ回帰やデシジョンツリーなどの手法の使用を提案しています。

  • 00:50:00このセクションでは、アーニー・チャン博士が定量取引のための機械学習におけるターゲット関数の選択について説明し、データの可用性がターゲット関数の選択を決定すると説明します。ターゲット関数が 1 か月の収益の場合、日次収益が入力となり、ターゲット変数の選択は予測子変数のタイム スケールと一致する必要があります。チャン博士はまた、Adam とディープ ラーニング手法の違いについても説明し、ディープ ラーニングは特徴選択においてあまり役に立たないと述べています。さらに、このセクションでは、さまざまなレジームの定義と、好みの基準に基づいてレジームを定義する方法について詳しく説明します。最後に、チャン博士は、クオンツ取引における取引数は成功の決定要因ではないことを強調します。

  • 00:55:00このセクションでは、アーニー・チャン博士が、n の平方根を管理可能な数に減らすことが、リターンを保護する際の高い精度を達成するためにどのように重要であるかを説明します。同氏は、誤差は取引数の平方根に比例し、シャープレシオはその構築にこの概念が組み込まれているため、統計的有意性を示す優れた尺度であると説明しています。シャープレシオが 2 以上の戦略が効果的に機能すると考えられます。クリストフ氏が言及した最後の質問は専門的すぎるかもしれませんが、チャン博士はシャープレシオが戦略の有効性を示す良いベンチマークであると信じています。
Machine Learning for Quantitative Trading Webinar with Dr. Ernie Chan
Machine Learning for Quantitative Trading Webinar with Dr. Ernie Chan
  • 2017.03.28
  • www.youtube.com
Quantitative trading and algorithmic trading expert Dr. Ernie Chan teaches you machine learning in quantitative finance. You will learn:1) The pros and cons ...
理由: