トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1963

 
マキシム・ドミトリエフスキー

複数のD-ニューロン(グリッドタイプ)

エラー、% = 45.10948905109489

グッドバイ)

グリッドの作者には、カットと憤りをメールで送った。
何を判断したのですか?紙幣の真贋は?
 
Valeriy Yastremskiy:
何を判断したのでしょうか?紙幣の真贋は?

はい

 
マキシム・ドミトリエフスキー

欠陥のある論理。
 
Valeriy Yastremskiy:
欠陥のある論理。

落とし穴があるかもしれません。例えば、マイクロテストでは2値化したものを使うので、属性に負の値を使うことはできません。スカスカの説明文には何も書かれていない、エラーも表示されない。

 
マキシム・ドミトリエフスキー

落とし穴があるかもしれません。例えば、マイクロテストでは2値化されたものを使うので、属性に負の値を入れることはできません。乏しい説明では何もない、エラーも表示されない。

その腐敗は、しばしば明示的でない症状に基づいて発生します。そして、一見正しいように見えるロジックの中で、それを見抜くことが問題なのです。
 
片や重さ、片や二値性。それが、私たちの原点です。
 

協調フィルタリングの ための興味深いNSアプローチ

人物やフィルムIDの代わりに取引ツールやストラテジーを、成績の代わりに何らかの指標(期待値など)を取ることができます。次に、商品とストラテジーの隠れ変数を計算します。そして、あなたが望むすべてを。システムを楽器に合わせたり、必要な特性でその場で生成したり、システムのための合成物を作ったり......。

 
Maxim Dmitrievsky:
私はグリッドの作者にカットと私の憤りをメールしました。

どんな返事を書いたのだろう。

 
mytarmailS:

何を書き落としたのだろう。

今のところ何もありません。サンプルに規則性がなければならない、それがポイントです。アプローチが違うんです。オンレギュラーセットとオンは教えるべきだと思う。つまり、行のエントロピーが低いほど良い結果が得られ、そのデータセットではサンプルはランダムにシャッフルされています。大坊主的に言えば、重要なのはパターンではなく、シークエンスなのです
 
elibrarius:
私たちは、最もクリーンなスプリットと、そうでないものを混ぜています。つまり、トレイの上に置くと結果が悪くなるので、原則的には重要ではありません。しかし、それがテストでの結果、すなわち一般性を向上させるかどうかはわからない。誰かやってくれないかな...。個人的には、足場の場合よりも一般化は進まないと思っています。

深さを制限して、最後の分割を行わず、前の分割で止めておくと、かなり楽になります。余計な分割をした場合よりも、同じようにクリアなシートが少なくなってしまうのです。あなたのオプションは、スプリットをするかしないかの中間を与えるものです。I.e.例えば、あなたのメソッドで深さ7レベルのシートを平均化します。第6深度レベルシートより若干きれいになります。一般化してもあまり変わらないと思いますし、検証するのも大変ですからね。また、深度レベル6と7の木をいくつか平均化することもできます。あなたの方法論とほぼ同じものが得られるでしょう。

先ほど、小さいサンプルでは少なくとも1%、大きいサンプルでは100%の指標が残っているはずだということを明確にしなかったかもしれませんので、当然、どのクラスでもシートに誤差が生じない程度に分割されることはないでしょう。

このサンプルでは,異なる予測因子による分割によって結果が向上することを観察し,例えば部分空間の情報を得ることができます。

A>x1の場合、ターゲット1の正解率は40%であり、サブサンプルの60%に相当する

B>x2であれば、ターゲット1は55%で正しく識別され、これはサブサンプルの45%に相当する。

A<=x1の場合、ターゲット1は70%で正しく定義され、これはサブサンプルの50%にあたる

これらの分割にはそれぞれ有意差係数があり(計算方法はまだ決めていない)、最後の分割にも有意差係数がある。

といった具合に、例えば5~10個の予測変数まで適用し、最後の分岐まで到達したら係数を合計し(あるいはもっと複雑な方法で合計し)、係数の合計が閾値を超えたらそのシートを1に分類し、そうでなければ0に分類します。


これを実現する簡単な方法は,penultimate splitまで強制的にforestを構築し,既に選択されている予測因子をサンプルから除外し,新たな予測因子を選択することである.あるいは、単純に、ツリーを構築した後、リーフによってサンプルをフィルタリングし、各予測子を単体で調べ、完全性と精度の基準を満たす最適な分割を探します。

そして、もう一つのクラス "0 "が何もしないことを意味し、逆の入力がなければ、学習サンプルに対する結果は改善され、そうでなければ、改善と悪化の両方があり得ます。

理由: