トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1202

 
マキシム・ドミトリエフスキー

数字の中身と問題点がよくわからない。

図は、二値分類(x軸)に対して異なる確率を選択した場合のモデルの財務結果(y軸)を示している。テストサンプルを使って、アクティベーションシグナルが出たら必ずエントリー する(トレーニングでエントリーするかどうか決める)ことが理解できた。学習は基本的な活性化信号の劣化を引き起こすだけで、確率のセグメント上の分類点の移動によって財務結果がどう変わるかを見ようと思わなければ、このパラドックスには気がつかなかったでしょう。

マキシム・ドミトリエフスキー

私自身、たくさんのモデルのバリエーションを作りましたが、今、モニター用にどれを選ぶか、あるいはさらに改良するか、考えているところです。

ようするにこれらのアプローチは、ジグザグであろうと、他のナンセンスであろうと、出力を正しくフィードしません。

なぜなら、スライディングウィンドウの各次元には、取引を行うための異なる分布が存在するはずだからです。そうすると、テストサンプルも含めて、モデルがうまく調整されるんです。(ジグザグや他の出力がそれ自体非常に決定論的であるのに対し,フィッティングの自由度は少ない)後者が行われ,つまり出力の列挙がより徹底され,その後,そこで本当に何もすることがないのです

は、異なるラグを持つ増分の入力に、古い方法で、importansを通じて自己選択と多分相関を取り除くためにPCAを介して、ボットのような亜種も作りました。しかし、一般的にPCAを使うのは欠陥のある考えです(ただし、やはりネット上では逆のことが書かれています)。サンプルのセンタリングが必要なだけでなく、新しいデータによって、これらの部品は徐々にスラグに変化していきます

私たちは、この問題に対して、まったく異なるアプローチをしています。私は、現実の(視覚的に観察可能な)正当な理由のない、純粋に数学的な価格の記述に異を唱えているのです。逆に、私はZZを適用して、その効率性を見ています(ZZのペディケーターは、すべてのMOパッケージで常にトップクラスです)。2つのアプローチを組み合わせることで、より良い結果が得られると思います。

私は以前、同じモデル上の異なる有意な予測因子を取り除くことで、学習結果を改善し、木の葉の中に新しい、より生産的で安定した関係を形成することができることを示しました。この「重要性」はすべて木構造における欲張りな原理で、アプリオリに正しくないので、別途意味のある予測変数の評価方法が必要なのですが、まだ持っていません。

 

マキシム・ドミトリエフスキー

これだけで、こんな風に、結構、大騒ぎせずに、10分待つだけで、何か出てきます。

すでにトレーンの100%以上を計算するモデルである以上、さらなる改善の可能性は疑わしいと思われます。

グラフィックやインストゥルメントをうまく使えば、もっと引き出せるかもしれませんね。

見た目は良いが、モデルの期間が短すぎる。1年前のデータではどのような挙動になるのだろうか?

 
アレクセイ・ヴャジミキン

図は、二値分類(x軸)に対して異なる確率を選択した場合のモデルの財務結果(y軸)を示している。テストサンプルでは、アクティベーションシグナルが出たら必ずエントリー する(トレーニングでエントリーするかしないかを決める)という結論になりました。その結果、学習は基本的な活性化信号を悪化させるだけというパラドックスが生じ、確率の区分上の分類点の移動によって財務結果がどのように変化するかを見ようと思わなければ、私はそれに気付かなかったでしょう。

私たちは、この問題に対して、まったく異なるアプローチをしています。私は、現実の(視覚的に観察可能な)正当な理由のない、純粋に数学的な価格の記述に異を唱えているのです。逆に、私はZZを適用して、その効率性を見ています(ZZのペディケーターは、すべてのMOパッケージで常にトップクラスです)。2つのアプローチを組み合わせることで、より良い結果が得られると思います。

私は以前、同じモデル上の異なる有意な予測因子を取り除くことで、学習結果を改善し、木の葉の中に新しい、より生産的で安定した関係を形成することができることを示しました。重要度」というのは、木構造における欲の原理で、先験的に正しいわけではないので、別途意味のある予測変数の推定方法が必要なのですが、まだ持っていないんです。

というのは、重要度はテストサンプルで見て、トレーニングサンプルでは細かく見るべきだからです。ジニのような古典的に組み込まれたインポートは常に嘘をつくので、並べ替え(予測変数を一つずつランダムにしてモデルの誤差を見る)を行い、最悪のものは捨てなければなりません。相関のある特徴をあらかじめ取り除いておかないと、順列による輸入も嘘になってしまう。無意味なことはしない、最高のモデルを手に入れる。これまで良いものがなかったのに、なぜ車輪の再発明をしようとするのか。

 
アレクセイ・ヴャジミキン

見た目は悪くないが、モデル期間が短すぎる、1年前のデータではどのような挙動をするのか?

15分、それ以上は待つ時間が長くなるので教えないだけです。

15分足チャートに関しては、数年前からfxsaberだけが作っていたかもしれません :)

私は、ノーアクションレバレッジ、つまり、最初からモデルにストラテジーを組み込んでいない
 
アレクセイ・ヴャジミキン

利益とモデル内の木の本数のグラフを見ている(512モデル)

で、60歳以上の木が多いモデルは流失しにくいとか、サンプルが少ないとか...あるようです。

木の本数を変えた他のグラフを紹介します。

サンプル 7400 for all, rf アルゴリズム

木の本数 50本


木の本数が増えると誤差が小さくなる。増えるようで、突然ゼロになる。

木の本数=150本


150では、精度は上がりますが、100分の2程度とかなり控えめです。

木の本数を増やす




結論:50本までは増やす意味があるが、100本以上では意味がない。

今更ですが、サンプルサイズを変えていたんです。

1000観測点までのサンプルサイズは、モデルの精度に大きく影響します。しかし、5000サンプル以降は、モデルの精度に影響を与えません。


つまり、誤差はモデルやそのパラメータによって決まるのではなく、「予測因子とターゲット」の組み合わせによって決まるというのが私の結論です。

 
サンサニッチ・フォメンコ

木の本数を増やそう

つまり、誤差はモデルやそのパラメータによって決まるのではなく、「予測因子とターゲット」のリンクによって決まるというのが私の結論です。

最初は50~100本のツリーが推奨されていますが、弱い分類器をそんなに増やしても意味がありませんし、私も改善されたとは思えません。

monte carloなどを参考に、sanSanSanych...束を構築するのは、人間の心理ではなく、ただのフ...脳味噌
 
マキシム・ドミトリエフスキー

まあ、テスト用サンプルで輸入品を見て、トレーニング用サンプルでフィットさせるしかないですね。giniのような古典的に組み込まれたインポートは常に嘘をつくので、並べ替え(予測変数を一つずつランダムにしてモデルの誤差を見る)を行い、最悪のものは捨てなければなりません。相関のある特徴をあらかじめ取り除いておかないと、順列による輸入も嘘になってしまう。無意味なことはしない、最高のモデルを手に入れる。これまでより良いものがないのに、なぜ自転車を発明したのか。

正直、この方法がよくわからないのですが、トレーニングから段階的に予測器を切り替えて、この予測器がある場合とない場合の結果を比較するということでしょうか?では、ランダム化とはどういうことなのでしょうか。予測変数がサンプルの1%を正しく分割することができ、木の中間の深さにある場合、それが良いのか悪いのか、どのように判断すればよいのでしょうか?ルート予測因子による木の構築の質、各レベルでのサンプルの切り取り方、勾配の滑らかさなどを考慮する必要があるのかもしれません...。例えば、サンプルを最大値で分けるのではなく、平均値やXシグマで分けるなど、より複雑で安定したルールになるかもしれません。ところで、なぜ、分割のための数値カウンタだけでなく、予測値の比較という論理的な学習方法がないのでしょうか?

マキシム・ドミトリエフスキー

15分、待ち時間が長くなるので、それ以上トレーニングしないだけです。

このようなスムーズな15分足チャートを作れるのは、ここ数年、fxsaberだけだと思うのですが... :)

私は、ノーアクション・レアニング、つまり、全く戦略を最初からモデルに組み込んでいません。

今まで、原始的な戦略を作成し、それのためのフィルタを訓練しようとすると、与えるか、または市場に入る ことを拒否するだろうか?

 
アレクセイ・ヴャジミキン

正直、この方法がよくわからないのですが、学習から段階的に予測器を外していき、この予測器がある場合とない場合の結果を比較するということでしょうか?では、ランダム化とはどういうことでしょうか。予測変数がサンプルの1%を正しく分割することができ、木の中間の深さにある場合、それが良いのか悪いのか、どのように判断すればよいのでしょうか?ルート予測因子によるツリー構築の品質、各レベルでのサンプルのカット方法、スムーズな勾配減衰が必要なのかもしれませんね...。例えば、サンプルを最大値で分けるのではなく、平均値やXシグマで分けるなど、より複雑で安定したルールになるかもしれません。ところで、スプリットの数値カウンターだけでなく、予測値の比較など、論理的なものを使ったトレーニング方法がないのはなぜでしょうか?

原始的な戦略を作り、それに対して市場参入を 許可したり禁止したりするフィルターを訓練しようとしたことがありますか?

まず、すべての素性でモデルを学習し、エラーを保存します。

そして、各予測子を正規分布でランダムにし、このランダム化(変更)されたものを含むすべての特徴量で再度誤差をチェックし、初期のものと比較します。モデルの再トレーニングは必要 ありません。そうして、それぞれの予測因子をチェックする。もしその予測変数が優れていた場合、サンプル全体(他のすべてのオリジナル予測変数を含む)の誤差はオリジナルに比べて劇的に増加します。エラー差分を保存し、それを元に最適なフィッシュをふるいにかける。そして、最後に優秀なものだけをトレーニングして、製品にモデルチェンジします。悪い予測変数はモデルにとってノイズであり、1%もあれば必要ない。良いものは通常5-10個残るが、残りのものの重要性は指数関数的に減少する(Zipfの法則)。

フィルタを教えようとしたが、あまり意味がない、一度にすべてを一つのモデルに入れた方がいい

できれば、ちょうど予測変数の選択についてVERY有能(すでに以前に投げた)

Beware Default Random Forest Importances
Beware Default Random Forest Importances
  • explained.ai
0.995 worst radius 0.995 mean perimeter 0.994 mean area 0.984 worst perimeter 0.983 worst area 0.978 radius error 0.953 mean concave points 0.944 mean concavity 0.936 worst concave points 0.927 mean compactness 0.916 worst concavity 0.901 perimeter error 0.898 worst compactness 0.894 worst texture 0.889 compactness...
 
SanSanych Fomenko:

木の本数を変えた他のグラフはこちらです。

サンプル 7400 for all, rf アルゴリズム

木の本数 50本


木の本数が増えると誤差が小さくなる。増えるようで、突然ゼロになる。

木の本数=150本


150では、精度は上がりますが、100分の2程度とかなり控えめです。

木の本数を増やす




結論:50本までは増やす意味があるが、100本以上では意味がない。

今更ですが、サンプルサイズを変えていたんです。

1000観測点までのサンプルサイズは、モデルの精度に大きく影響します。しかし、5000サンプル以降は、モデルの精度に影響を与えません。


つまり、誤差はモデルやそのパラメータによって決まるのではなく、予測因子とターゲットの関係によって決まるという結論です。


ランダムフォレストと ブースティングの種類によって木の本数が違うかもしれませんし、予測変数の質や状況によって、同じターゲットでも本数が違うかもしれませんね(例として-任意のポイントから利益100ポイントをターゲットにする)。どの葉っぱの組み合わせで、どれくらいの頻度で判断しているのか、興味深いですね。そういう情報があれば、より良いモデルの推定ができるのではないでしょうか。そして、もう一つの問題は、テストとトレーニングのために市場の定常モデルを提出することが不可能であることです。つまり、トレーニングされたモデルの一部だけがテストに使われ、この部分によってモデルを推定しなければならず、他の部分はずっと良いことが判明する可能性があるということです。また、分類誤差が正しい分類モドキと等しくない場合(トロールを使い、誤差コストを減らす)、モデル推定はさらに複雑になる。

 
マキシム・ドミトリエフスキー

まず、すべての特徴量に対してモデルを学習させ、その誤差を保存します。

そして、一つずつ、例えば正規分布で予測変数をランダム化し、このランダム化(変更)したものを含むすべての特徴量で再度誤差を確認し、初期のものと比較します。モデルの再トレーニングは必要 ありません。そうして、それぞれの予測因子をチェックする。もしその予測変数が優れていた場合、サンプル全体(他のすべてのオリジナル予測変数を含む)の誤差はオリジナルに比べて劇的に増加します。エラー差分を保存し、それを元に最適なフィッシュをふるいにかける。そして、最後に優秀なものだけをトレーニングして、製品にモデルチェンジします。悪い予測変数はモデルにとってノイズであり、1%もあれば必要ない。良いものは通常5-10個残るが、残りのものの重要性は指数関数的に減少する(Zipfの法則)。

フィルタを教えようとしたが、あまり意味がない、一度にすべてを一つのモデルに入れた方がいい

できれば、ちょうど予測因子VERYの 選択について有能(すでに以前に投げた)

ありがとうございます。ランダム化は、サンプルの予測因子と同じ値であるべきですよね?

全体としてアプローチは理解できた。ありがとう。どう実装するか考えて試してみたい。

残念ながら私は使いこなせないので、時々皆さんの言い換えを聞いてみます。

ただ、やはり、予測変数がツリーの中でどれだけルートに近いかによって変わってくるので、これはちょっと違うと思うんですが......。
理由: