トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1193

 
マキシム・ドミトリエフスキー

mql5でも・・・。でも、ここには良いテスターとベースがあるんですよ :)

時間があるときに全部読むのに疲れ、空回りしています。

もし、製品をマーケットで販売することが目的であれば、残念ですが、全てはMQLにあります。もし、目的が個人使用やこのフォーラムを超えた配布であれば、問題は.dllの入手とMTへのリンクの可能性に来ます。

 
イゴール・マカヌ

それが問題で、私自身は空回りしています。時間があるときにすべてを読むのに疲れています。

私は目標を定義する必要があります - 思考を声に出して ))) 、目的が市場で製品である場合は、残念ながら、すべてのMQLに、個人的な使用やこのフォーラムを超えて配布の目的であれば、タスクは、MTに.dllとリンクを取得する機能に降りてくる

優秀なMQLボットとして使うつもりです、他はゴミです。もしあなたが市場向けに書いているのなら、そこでは貿易実績ではなくプロモーションが重要であり、さらに愚かな バイヤーがあなたの心を吹き飛ばすでしょう(経験あり)。コードベースのインジケーターやエキスパートアドバイザーのほとんどをマーケットで売ることもできるし、グリバチョフのように200個も並べて毎日新しいものを作ることもできるが、これは侍の道ではない。

お客様とのコミュニケーションには、奥さんや雇われ奴隷をコンピューターに乗せなければなりませんが、時間を無駄にすることはありませんよ :)
 
マキシム・ドミトリエフスキー

目標はMOのすごいボットで、あとはデタラメです。市場向けに書くと、そこでは取引実績よりもプロモーションが重要で、しかもバカな バイヤーが心を砕いてくれます(経験済み)。コードベースのインジケーターやエキスパートアドバイザーは持っていないし、マーケットで売っている...あるいはグリバチョフのように200個も置いて、毎日新しいのを入れることもできるが、これは侍の道ではない。

そんなことするなら、バイヤーとのコミュニケーションに奥さんや雇われ奴隷を送り込んだ方が時間の無駄が無いので良いですよ :)

私はすでにそれを見越しているので、私はそれが "パン "と市場に置くために価値のある何かをする必要があるとは思わない - それは長い時間がかかるので、私は、製品のサポートを提供することはできませんし、良心は許可されていないとして、30ドルを与えたいpeepleがあることを期待して、そこに格納されているもの))))。

ZS: シンプルなインジケータによる注文のグリッド...いつまでも、いつまでも(上でも下でも)機能し、常にユーザーからの需要がある ))))

 
イゴール・マカヌ

私はすでにそれを見越しているので、私はそれが "パン "と市場に価値のある何かを置くことが必要であるとは思わない - それは長い時間がかかりますので、私は、製品をサポートすることができなくなり、そこに格納されているものは、30ドルを与えたいpeepleを見つけることを望んで、私は許可されていません)))))。

ZS: シンプルなインジケータによる注文のグリッド...常に(上でも下でも)動作し、ユーザーからの需要も常にある ))))

マーチン、グリッド......あらゆる種類のギーク、それは永遠だ :)

 

そこで思いついたのが、MOによるオーバートレーニングの判定だ。私はcatbustを掘り続ける、そこにあなたは確率論的な用語で予測を得ることができます - 私は0から9確率からグループに散らばっている - 認識とさらなる分析の容易さのために - ターゲットとエラーの分布、各グループの答えの正しさで内訳を含む分布、標準偏差、尖度、非対称を見ました。今、私はAUC F1などのようなモデルを評価するためのさまざまな標準的な指標を引っ張ってきますが、そこで学習のダイナミクスを見ることができます。

グラフには、分布群 * 正しい分類群の2つのモデルがあります。試験サンプルでは、ブルーのモデルの方が良いですね。


モデルを評価するために、他にどのような予測変数が考えられるでしょうか?

 
アレクセイ・ヴャジミキン

そこで思いついた のが、MOによるオーバートレーニングの 判定だ。私はcatbustを掘り続ける、そこにあなたは確率論的な用語で予測を得ることができます - 私は0から9確率からグループに散らばっている - 認識とさらなる分析の容易さのために - ターゲットとエラーの分布、各グループの答えの正しさで内訳を含む分布、標準偏差、尖度、非対称を見ました。今、私はAUC F1などのようなモデルを評価するためのさまざまな標準的な指標を引っ張ってきますが、そこで学習のダイナミクスを見ることができます。

グラフには、分布群 * 正しい分類群の2つのモデルがあります。試験サンプルでは、ブルーのモデルの方が良いですね。


モデルを評価するために、他にどのような予測変数が考えられるでしょうか?

あるある

メトリクスはモデルを推定するために使われるもので、予測変数ではないので、通常は標準的なもので十分ですが、自分で作ることもできます

通常、フォレストの誤差が大きいほど、値の広がり(分散)は小さくなります。つまり、0.5前後のホワイトノイズに過ぎず、その意味では、青い線は赤い線より悪いと言えます。
 
マキシム・ドミトリエフスキー

素晴らしい!実はみんなそうしているんです。

指標はモデルを推定するために使用されるもので、予測変数ではありません。通常は標準的なもので十分ですが、自分で作ることも可能です。

通常、フォレストの誤差が大きいほど、値の広がり(分散)は小さくなります。つまり、0.5前後のホワイトノイズに過ぎず、この意味で、青い線は赤い線よりも悪いのです

ははは、単に計算式を変えて推定するのではなく、推定基準を見つけることが重要なのですねこれらの数式を使ったアプローチはすべて、モデルを定常的に評価しますが、さらに作業を継続する能力についてはわかりません。

散布図についてですが、非常に奇妙な表現ですね。おそらく、分類値や正答率を考慮せずに、値を見つけたという事実だけを考慮しているのでしょう。X軸の0から5までのグラフは、0の集まりとその正しい分類の積であり、反対側の5からは単位の積である。

これらのモデルのグラフですが、ターゲット "1 "の分布を示しています。

ご覧のように、赤のモデルは分布の割合が5を超えてシフトしており、これは「もの」が正しく分類されるチャンスがないことを意味し、チャンスがあるものは青のモデルよりも少なく、それぞれ23%と28%であることがわかります。

そして、分類の忠実度はこのように変化します。

もちろん、このようなフラット化したモデルも使えるのですが、例えば区分けを0.5から0.7にずらす必要があり、加工のための材料があまり残らないのですが、逆にこのようなフラット化したモデルを組み合わせることができる......。

 
アレクセイ・ヴャジミキン

ははは、単に計算式を変えて推定するのではなく、推定基準を見つけることが重要なのですねこれらの式によるアプローチはすべて、モデルを定常的に評価しますが、継続的に機能する能力については教えてくれません。私が達成したいのはまさにこのことで、だからこそ私は予測子を生成し、MOによって異なる指標のセットからパターンを見つけ出すことができるのです。

散布図についてですが、非常に奇妙な表現ですね。おそらく、分類値や正答率を考慮せずに、値を見つけたという事実だけを考慮しているのでしょう。X軸の0から5までのグラフは、0の集まりとその正しい分類の積であり、反対側の5からは単位の積である。

これらのモデルのグラフですが、ターゲット "1 "の分布を示しています。

ご覧のように、赤のモデルは分布の割合が5を超えてシフトしており、「もの」が正しく分類される可能性はなく、可能性があるものは青のモデルより少なく、それぞれ23%と28%です。

そして、分類の忠実度がどのように変化するかは以下の通りです。

もちろん、このようなフラット化したモデルも使えるのですが、例えば分類の区分を0.5から0.7にする必要があり、しかし処理する材料があまり残らない、一方でこのようなフラット化したモデルを組み合わせることができる...。

偏っているということは、あるクラスに有利に働くということであり、それはトレンド市場、つまり学習サンプル(おおよそ)かもしれないのです。

つまり、理想的にはシグナルの確率は1であるべきですが、0.6〜0.7の最大値になっています。両クラスは0.5付近で回転し、どちらかのクラスに向かって小さな偏差があります。実際には、シグナルではなくノイズがあるか、モデルが強く正則化されています

エラーによるテストサンプルの継続的な作業能力...トレイでエラーに近い状態にすることができれば、そのモデルは原則として良いものである。

 
マキシム・ドミトリエフスキー

偏っているということは、単にあるクラスに有利になるように話しているだけで、それはトレンド市場、つまりトレーニングサンプル(おおよそ)である可能性があるのです。

我々は、同じ条件の下でモデルを比較している、ここで他のデータのターゲットユニットは、分類1 - 35%対39%に落ちた同じモデルです。

分類の忠実度

となり、すべての値のクラスタが中心に近いので、積を求めると

マキシム・ドミトリエフスキー

つまり、両方のクラスが0.5を中心に回っていて、どちらか一方のクラスに少しずれている。

エラーテスト用サンプルで作業を続ける能力...トレイ上のエラーに何とか近づけることができれば、そのモデルは原則として良好である。

逆に、正しい(理想的な)モデルでは、0.1と0.3、0.7と0.9の間に2つのこぶがあるはずで、それが安定性と妥当性を示すと思うのですが、実際にはまだそうしたモデルは観察されていません。

推定された係数値の近似についてですが、そうですね、deltaを見て、ダイナミクスについてもう少し測定してみます。catbustでは、モデルに木を追加したときに値がどのように変化するかを見ることができます。
 
アレクセイ・ヴャジミキン

我々は、同じ条件の下でモデルを比較し、ここで他のデータのターゲットユニットは、分類1に落ちた - 35%対39%です。

分類の忠実度

となり、すべての値の集積が中心に近いので、積が得られる

この確率がなぜ「1」でなければならないかというと、むしろ自己満足だからです。実際、適切な(理想的な)モデルは、0.2と0.4、0.7と0.9の間に二つのこぶがあるはずで、これは安定性と妥当性を示すと思いますが、まだ現実にはそうしたモデルを見かけることはないですね。

推定係数の近似値についてですが、そうですね、deltaを見て、ダイナミクスについてもう少し測定してみます。catbustでは、モデルに木を追加したときに指標がどのように変化するかを見ることができます。

事象の確率が高ければ高いほど、より正確な信号が得られるというのは、定義からも明らかです。)2 ノイズが多いデータではハンプは発生しないし、少なくとも過渡的な状態は発生するが、モデルは少なくとも極値を適切に捉えるべきで、そうでなければ入力について確信を持つことはできない。

理由: