トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2261

 
マキシム・ドミトリエフスキー

複雑なモデルは大きな利点ですが、それに到達するためには、すでに成功裏に費やされた2、3年の人生が必要なのです

生物多様性がすべてです。

 
fxsaber:

生物多様性は私たちのすべてです。

簡単な例です。全特徴空間を 含む、異なるパラメータVS一回のトレーニングで数千回の実行。そして、同じように可視化し、余計なものを排除して分析します。

まあそれはそれとしてを、好きなように。
 
fxsaber

このようなTSをリエンジニアリングできるMOはいないでしょう。過去に現在のTSと最も似ている部分を見ているのです。そして、統計的に何らかの方向への動きが優勢になった場合、そこにシグナルを出すのです。

その前に、類似のセグメントの検索を単純化するために、価格シリーズではなく、変換された価格シリーズで実行されている場合、例えばジグザグやバーがバイナリロジックに置き換えられます:アップ(0)/ダウン(1)。そうなると、MOのためのリエンジニアリングの作業はかなり複雑になってきます。

見逃した...こういうのを例のトレードでやってみるのも面白いですね。

は2点あります。

  • ジグザグなどの価格変換は、MOがあまり気にしていない分析方法です。任意の記号を任意の数だけ記入し、情報量の少ないものをフィルタリングしてモデルを軽量化することができます。ジグザグなどはすべて、同じデータを別の表現にしたものに過ぎません。
  • MOは一般化するので、どこで取引して、どこで取引しないかという例を出せば、うまくいくかもしれませんね。
面白いのは、ジグザグを通して何らかのパターンを見つけたと思うことです。しかし、ほとんどの場合、それは千変万化する季節依存のベールに包まれたようなものです。まあ、チックなら別のものでも良いのですが。

MOが自分のデータでTSをリッピングすることも判明するかもしれない

でも、ノートパソコンをアップグレードするまでは、ティックをいじる気にはなれませんね

 
マキシム・ドミトリエフスキー

MoDが自分のデータでTCを破り捨てることも判明するかもしれない

間違いないでしょう。しかし、MOは、過去に似たような状況を見つけたからといって、TCを再現することはありません。

 
fxsaber:

それは間違いないですね。しかし、MOは、過去に似たような状況を見つけたからといって、TCを再現することはありません。

なぜそんなにユニークなのでしょうか? 歴史を学ぶと、MOは他の特性から同じ依存性を引き出します。

ある種のオーバーシュートで猫と犬を見つけたわけですが、他にも特徴があるんですね。例えば、猫のヒゲは長い

耳ではなくヒゲで判断するようになる...何が変わるのだろう

まあ、個人差はありますけどね。理論的には問題ありません。

あ、そうか、これが記事にあったボックスプロットの例だ。おっしゃるような統計的なパターンを発見しました。その後、ランダムなサインでNSを訓練して、季節のパターンをトレードするようにしたら、もっとうまくいきました。これは理解のためです。

 
マキシム・ドミトリエフスキー

その特徴は何でしょうか?

MOでの類似性特性比較は行われないからです。トレーニング用のデータを用意するだけでは、TCが何を基準にしているのかが事前にわからないとダメなんです。
 
fxsaber:
MOでの類似性キャラクタリゼーションの比較は行われません。TSが何を基準にしているのかがあらかじめわからないと、そのようなトレーニングをするためのデータがないだけです。

は動作しない場合があります。しかし、データがすでに準備されている場合、つまりパターンがある場合、あるヒルベルト空間において、クラスの点(例えば、買い用と売り用)はうまく分離可能であり、それ以外のことはありえない。MOはそのような特徴を拾って(狙って)マッチングさせます。なぜなら、正しい属性を知ることよりも、データを正しくマークアップして、猫と犬を区別することの方が重要だからです。

そのタイミングでの案件があれば、確認することができます。

 
マキシム・ドミトリエフスキー

そのタイミングでの案件があれば、確認することができます。

その例は仮定の話である。

 
fxsaber:

その例は仮定の話である。

仮説としては、 時系列が 同じなので、「類似性」は他の特徴で引き出されるから問題ない。 現実的には、手の湾曲など、困難が伴うかもしれない )

よく一般化されたクローズパターンが揃っているんですね。相関関係を通して一般化したのだから、モデルは履歴のスライディングウインドウを通して一般化することになる。類似のエンティティはグループ化され、バイ/セル/ノートレードのラベルが付けられます。

モデル内の類似したクラスターは、多次元空間でのみ、このように表示されます。各クラスタには、それぞれの売買ラベルがあります。とても簡単な作業です。あくまで一般論です。

 
Maxim Dmitrievsky:
もし生成モデルの専門家がいれば、GMMモデルの共分散行列を揺さぶるというオプションを試してみることができます。つまり、系列の平均と分散は変えず、GMM共分散行列を変更します。出力は、異なるプロパティを持つ多くの例となるはずです。

どういうことですか?

行列のcovを振るだけで、ランダムになります.

何のためにシェイクするのか、最終的に何をカットすればいいのか、目的を知る必要があります。

理由: