トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 737

 
マキシム・ドミトリエフスキー
これは何の関係もなく、ただ間違ったことをやっている、魚がいないと言われるだけです。もっと柔軟に、情報を吸収し、パラダイムを変え、世界の絵を揺さぶるなどしていく必要があります。

ほら...モデルはすでに1週間働いているのですが...。まだ指一本触れていないし、あと1〜2週間は稼働させる予定だ...。えーと......。

そして、そう、40例以内のトレーニングを受けているのです......。それが正しいか間違っているかはわからないが、利益は出る......。作り方が正しいか間違っているかは、誰にも関係ないことです。大事なのは最終的な結果であり、ポイントなのですが......。

 
ストキャスティクスに協力していれば、BO戦略の効果が出るまで時間がかからなかったと思います。ストキャスティクスがなければ、10人中平均6~7人が10%差で一緒に入っているので、BOOとしてはかなりまともに増えているのですが・・・。
 
ミハイル・マルキュカイツ

...正しい方法で入手するか、間違った方法で入手するかは問題ではありません。大事なのは最終的な結果であり、ポイントである......。

これには反論の余地はありません。

 
毒性

エクイティカーブは十分な長さが必要で、少なくとも1000回のトレードが必要で、No Returnの代わりにSharpe Ratioを使えば、誰もが納得する。10回のトレードでも、100回でも、利益がドローダウンより少なければ、預金を崩しているものにとっては深刻ではない。

そのような変種であっても、ランダム性や改竄を免れることはできないだろうと思います。機械学習の手法をテストするためには、トレーダーが自分でモデルを生成し、フォワードベースでテストできるような、シンプルでアクセスしやすいツールを提供することが理想的です。

 
遅延はない

エクイティカーブは再び十分な長さ、少なくとも千取引でなければなりませんし、シャープレシオを見れば、ノーリターニーではなく、誰もが同意するでしょうし、10取引、あるいは100、ドローダウン以下の利益で深刻ではない場合、これらは、「預金のエスカレート」人である。

その数字はどこから来ているのか?1,000トレード。理解してほしいのは、聖杯は存在しないということです。市場はあまりにも揮発性であり、私は1000トレードの値を見たとき、私はこれが存在しないもの(聖杯)に最も近い近似であることを理解し、なぜあなたは100トレードの統計が好きではないのでしょうか?ここで一例を・・・。はい、すでに投稿しています。モデルは40点で学習させ、80点で動作させた。このカーブのスタッツがお粗末ってどういうことだ?利益が足りない?トキシックさん、ちょっとTCに熱中しすぎじゃないですか?


言うまでもなく、学習後すぐにモデルの品質を知ることができ、その効果を確認するために別のミニOOSプロットを割り当てる必要はありません。これは、学習済みモデルのメトリクスを取得した後に分かることです。つまり、いくつかのモデルを訓練し、その指標を計算し、最もパフォーマンスの良いものを選び、遅滞なく、そのまま戦闘に入るということです。

 

モデル選びはとてもシンプルです。出力変数に0と1が同数ある場合、その変数のエントロピーは切り上げれば通常0.7となる。つまり、出力の不確実性がかなり高いのです。上の投稿で紹介したモデルのOIは0.87でした。これは、2つの多項式のVIを足したものである。しかも、これをすべてトレーニングプロット上で。モデルの運用が始まる前のことです。この値が出たことで、同じ学習ファイルをもとにした他のモデルはすべて0.7かそれに近い値だったので、すぐに正しい値だと理解できました。ちなみに、フィードバックループの同じ部分のこのようなモデルは、0.6以下の結果のモデルと同様に、ほぼゼロであった。これらは統合されました。

それゆえ、私はこう結論づけた。作業モデルとは、出力に関する相互情報量(MI)が、出力のエントロピーそのものよりも大きいモデルのことである。出力の不確かさは0.7、モデルの結果のVIは0.87である。つまり、モデルは出力の不確実性そのものよりも、出力について知っているのである。そうすると、40個の値で学習させたモデルは、学習間隔よりもずっと長く機能することになります。とにかく私は、まさにこの事実を推理したのです......。

そして、UIが0.95の範囲で1以上またはやや低い場合は、明らかにオーバートレーニングの兆候である。データを操作して、意図的にモデルを再トレーニングしたのです。したがって、すべてのVIはユニティより大きかった。ここに一つの事実と思いがある...。

 
ミハイル・マルキュカイツ

モデル選びはとてもシンプルです。出力変数に0と1が同数ある場合、その変数のエントロピーは切り上げれば通常0.7となる。つまり、出力の不確実性がかなり高いのです。上の投稿で紹介したモデルのOIは0.87でした。これは、2つの多項式のVIを足したものである。しかも、これをすべてトレーニングプロット上で。モデルの運用が始まる前のことです。この値が出たことで、同じ学習ファイルをもとにした他のモデルはすべて0.7かそれに近い値だったので、すぐに正しい値だと理解しました。ちなみに、フィードバックループの同じ部分のこのようなモデルは、0.6以下の結果のモデルと同様に、ほぼゼロであった。これらは統合されました。

それゆえ、私はこう結論づけた。作業モデルとは、出力に関する相互情報量(MI)が、出力のエントロピーそのものよりも大きいモデルのことである。出力の不確かさは0.7、モデルの結果のVIは0.87である。つまり、モデルは出力の不確実性そのものよりも、出力について知っているのである。そうすると、40個の値で学習させたモデルは、学習間隔よりもずっと長く機能することになります。とにかく私は、まさにこの事実を推理したのです......。

そして、UIが0.95の範囲で1より大きいか、やや低い場合は、明らかにオーバートレーニングの兆候であると言えるでしょう。データを操作して、意図的にモデルを再トレーニングしたのです。したがって、すべてのVIはユニティより大きかった。ここに一つの事実と思いがある...。

あとは、アウトプット(先生)次第。利益なのかドローダウンなのかプロフィットファクターなのか、それとも他の何かなのか?

 
サンサニッチ・フォメンコ

あとは、出口(先生)の問題ですね。利益なのかドローダウンなのかプロフィットファクターなのか、それとも他の何かなのか?

シグナルプロフィットファクターでいくつかの出力変数を作っています。から -40 -20 0 20 40 60 80.これによって、最大限のサンプルに最大限の重要な変数があるデータセットを選ぶことができるんだ。そして、なんと-40pipsの利益でも退場することになるのです。それが分かっているから、シグナルが形成されたバーの終値より40ポイント良くなるように努力する...。これは適応的退出の一形態である。少なくとも私にとっては...。

 
主な弊害は以下の 通りです。

エクイティカーブについては、十分な長さ、少なくとも1000回のトレードが必要で、No ReturnではなくSharpe Ratioで見れば、誰もが納得するはずです。10回、あるいは100回のトレードで利益がドローダウンより少なくても、「預金をエスカレートさせる」人にとっては深刻ではありません。

彼は、ターゲットと予測変数の関係、すなわち相互情報についての思考を持っており、この思考が予測変数の間のすべてのノイズをカットしているため、統計のすべての欠点を無効にすることができます、このノイズは主な悪です。

 

Smarties、このプログラムhttps://basegroup.ru/deductor/download、ニューラルネットワークの最初の理解に使うことは意味があるのでしょうか(私は一般的に、数字の系列のパターンを見つけることに興味があります)。ただ、私はこのビジネスではかなり初心者なので、ロシア語で、グリッド(ソリューション検索)の結果を視覚化 したソフトウェアが欲しいと思っています。

プロフェッショナルの風格を漂わせてください。

Скачать бесплатно
Скачать бесплатно
  • basegroup.ru
Deductor — платформа для создания законченных аналитических решений.
理由: