トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 694

 

長い投稿をしたのですが、自分を抑えきれずにロシア人らしい感情表現をしてしまったため、モデレーターに削除されてしまいました...。というわけで、手短に...。

正直なところ、この結果には唖然とするばかりです。はい、110の入力から、さまざまな状況で3から5を選択し、かなり小さいことが判明しているsoovetechnoモデルが、どのように彼らが働いている何かと何かです。まず、選択された入力で作られたすべてのモデルは、100%で私のテストに合格しました。このような結果は一度だけで、それもたまたまなのですが、ここではずっと安定しているのです。

確かに、多項式自体は小さすぎることがわかったが、そんなことはどうでもいい。戦争にはあらゆる手段が有効である。小さな多項式で市場に打って出るのは分かっている、それがうまくいけば、私の責任ではないのだが......。

しかし、これも簡単なテストに過ぎず、理論を確かめるにはもっと時間が必要です。しかし、この2週間、負のフィードバックの領域でTSが機能している壮大な例をご紹介しましょう。

確かに次スレで議論されるような聖杯ではありませんが、結果は明らかで、EquityはCBの全領域で一貫してゼロを上回っています!!!!

Rのリクエストに応えてくださった皆様、ありがとうございました。本当に時間の節約になりました。あとは電波をグリーンゾーンに入れるだけだ!!!!

 
Dr.トレーダー

例えばjPredictionは、データを区間[-1;1]にスケーリングし、その数値で学習する。また、入力を評価する前に、Rで同じ間隔にスケーリングすることもできます。

森はデータがどの間隔で来たかをあまり気にしないので、木に基づく推定方法でもおそらく結果は変わりませんが、確認した方がよいでしょう。vtreatも間隔にこだわらない。


しかし、一般的には、神経回路に入力する前の入力の非線形変換について話しています。Neuronicsは入力に対して非常に敏感で、入力データを何か特別な方法で処理すると、その結果が改善されることがあります。例えば、シグモイドで入力を変換するような仕掛けを聞いたことがあります。

ビルトインされたモデルには、私の記憶違いでなければ、すでにそのような機能があります。こんな感じです...。

double sigmoid(double x) {
   if (MathAbs(x) < 1.0) {
      return 2.0 * signum(x) - x;
   }
   return signum(x);
}
 
ミハイル・マルキュカイツ

こんな感じです...。

ある種の特別な「レシェトフ・シグモイド」 :)

ここで、さまざまなデータ変換を施した興味深い写真をご覧ください。
すべての予測変数がほぼ同じバーを持っていれば、ニューラルネットワークは非常に満足し、簡単に学習することができると言われています。scale()x2->Sigmoid()の予測変数の最後の3分の1はきれいに見えますが、予測変数の最初の半分をどうにかしないと、ニューロンが息苦しくなる可能性があります。
また、jPredictionのように[-1;1]でスケーリングした場合のboxplotを見ると、とても悪い印象を受けます。


ファイル:
 

今日は聖杯の日ですが、手に取るようにその姿と手間を知ることができます!!!!

という言葉もありますが、今日は自分にとっての聖杯を見つけました。何度もテストを繰り返し、その結果は驚くべきものでした。実際に発見につながったトレーダー博士の サポートに特別な感謝を捧げます。この言葉には、恐れ入りました......。Rの助けを借りて、重要な予測変数のセットを効率的に見つけることができました。ターゲットが同じ数のクラスを持っているとすると、それを少し弄る(1つ追加または削除)ことによって、重要な予測変数のセットを1列、2列と拡張することができるのです。一度試しましたが、普通に入れるだけでした。そして、学習結果が最大になるようなモデルを絞り込み、選択するようにします。


もちろん、多項式の大きなサイズではありませんが、理論的にはトレーニング間隔の50%、つまり1週間で動作します、そしてそれは私のために十分です!!!!!!!!!!!!!!!!!。しかし、ここからが本題です...。そして私は今、ここで信頼できる安定したパターンを求めている人たちに向けて発信しているのです。例を挙げて説明するとわかりやすいのですが......。

1000行111列のデータテーブルを保存し、110の予測因子などを出力します。しかし、私はテーブル全体ではなく、40レコードの小さな新鮮なセクションを取ります(これは約2週間のTS作業です)その結果、私は40×110サイズのトレーニングセットとターゲットを手に入れました。実際、私はこの日、まさにこの間隔でマーケットスライスを取っています。このスライスは静止しています。そして、 出力に対する重要な入力変数を選択し、他の市場参加者よりも優位に立てるよう、必要なアルファ値を持つ3~5列の列 を得ることができます。 そして今、最も重要なことは...。この議論は何だったんだろう。学習データテーブルに1行追加した途端に、列のセットが大きく変わる、つまりαが別の列のセットに移動してしまうのです。すぐには無理かもしれませんが、複数行を追加した後に。I.e.シグナルズTS!!!!αはまさに、対象機能に対して最小かつ十分な、最も純粋な形のパターンである。しかし、この模様は目立たない、つまり肉眼で見ることは非常に難しいのです。このとき、AIが関与して仕事をするのです。

そして今、アルファは、5つ以上の入力に含まれることがほとんどない場合、アンロードするすべてのデータフィールド、そして合計110の入力フィールドにバウンスすることができるか想像してみてください。つまり、新しいスライスごとに、まったく異なる予測変数のセットを得ることができるのです。しかも、それをどうやって追いかけるかというと、1年という距離でも!!!何週間もいたら、ほとんどまともに捕まえられない......。でも、確かに聖杯はあるけど、人それぞれだし、それを維持するためには、相当な努力が必要なんですよね......。

そしてまたデモ口座 の理論派に言及すると、こうなるわけです......。

私はその理論で仕事をし、それを使ってテストをしたことがあります。テストは良好な結果を示した。ロボットが搭載されたUPUでモデルを学習させる。今週の私のシグナルを見れば、私の想定がどのようなものであるかがわかるだろう。

 

ワンダフル!

R万歳!

 
ミハイル・マルキュカイツ

さて、5つ以上の入力に含まれることはほとんどなく、フィールドの合計が110入力である場合、アルファは私が降ろしたデータフィールド全体をどのように飛び越えることができるか想像してみてください。つまり、新しいスライスごとに、まったく異なる予測変数のセットを得ることができるのです。

さあ、あなたの脳のスイッチを入れてください )

 
コンビナート です。

さあ、頭を使いなさい)

本当にアドバイスに従って考えれば、答えはひとつしかない。切り口は静止しており、切り口を変えると、法則が全く異なる異次元(比喩的な意味で)に放り出されるだけです。だから、マーケットで儲けるのはとても難しいんです。これが非定常性と呼ばれるものです。最大限のデータセットの5%しか予測できない情報と、次の信号が大きく変わるかもしれない、あるいは全く変わらないかもしれないとき。また、私は11の楽器のデルタとボリュームを保存し、そのうちの5%だけが今ここで動作し、それらが変更されたときに知られていないが、他の列の置換は、この瞬間を追跡することができ、結果としてモデルがデフレになる瞬間を決定することは明らかである......もっとテストが必要だ......時間がない......。

 

OOS、15分後

戦略その2のバグを発見し、修正したところ、うまくいったようです。

まだ3ページ目ですが、RLも追加され、可能性を感じますが、実装にはかなりの工夫が必要でしょう。


 

8つの機械学習モデルの研究についての興味深い記事

具体的には、多層パーセプトロン(MLP)、ロジスティック回帰、ナイーブベイズ、ニーレストネイバー、決定木、ランダムフォレスト、勾配ブースト木などのアルゴリズムを検討する。これらのモデルは、異なる線形および非線形依存性を反映した8つのデータ生成プロセス(DGP)の時系列に適用されます(ベースケース)。さらに、不連続性やノイズの度合いを変化させることで、複雑さを増している。


そして、その結果がこちらです。

まず、未知のDGPに対して、機械学習モデルが、最適予測で設定された野心的なレベルと比較して、堅実なパフォーマンスを達成することを発見しました。ノイズがない場合(ベースケース)、機械学習モデルによる予測結果は、最適な予測結果とほぼ同じになる。モデル的には、MLPとGBTが、線形および非線形DGPの両方に対して最良の結果を提供します。非線形性がない、あるいは小さいプロセスに対しては、特に計算コストの低さを考慮すると、LRは良い代替案を示しています。NBと単一決定木は性能が低いことがわかったので、時系列予測タスクには前述の技術を推奨する。

第二に、特徴空間に含まれる遅延値が少なすぎるよりは、多すぎる方が良いということである。ほとんどの機械学習モデルは、DGPのプロセス方程式が示唆する必要なラグ数を超えても、かなりロバストであることがわかります。RFの場合、追加の特徴量を含めることで予測精度がさらに向上する。まずは1ラグから始めて、徐々にラグ数を増やしていき、ホールドアウトセットやクロスバリデーションで性能を監視していくことをお勧めします。

第三に、ジャンプは予測精度に非常に強い負の影響を与え、LRが最もロバストな機械学習モデルであることがわかった。このような悪影響を緩和するために、特徴空間に最初の差分を追加する方法(DIFF)と、LOFアルゴリズムに基づくジャンプの除去の両方が良い結果を示している。 両方の技術を組み合わせることをお勧めします。

第四に、時系列をノイズで汚染することは、すべての機械学習モデルにおいて予測精度に最も悪影響を及ぼす。さらに、第一差分(DIFF)や移動平均(MA)を特徴空間に含めるなどの緩和策を追加することで、より良い結果が得られることがわかった。

 
サンサニッチ・フォメンコ

8つの機械学習モデルの研究についての興味深い記事

モデル的には、MLPとGBTが、線形および非線形DGPの両方に対して最良の結果を提供します。非線形性がない、あるいは小さいプロセスでは、特に計算コストの低さを考慮すると、LRは良い代替案を示しています。 NBと単一決定木は性能が 低いことがわかったので、時系列予測タスクには前述の技術を推奨する。

CARTがプリリニア問題を全く扱わないことを考えると、当然といえば当然ですね。

理由: