トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1964

 
Aleksey Vyazmikin:

先ほど、小さいサンプルでは少なくとも1%、大きいサンプルでは100%の指標がシートに残っている必要があることを明確にしなかったかもしれませんので、当然、どのクラスでもシートに誤差が生じない程度に分割することはないでしょう。

このサンプルでは,異なる予測因子による分割によって結果が向上することを観察し,例えば部分空間の情報を得ることができます。

A>x1の場合、ターゲット1の正解率は40%であり、サブサンプルの60%に相当する

B>x2であれば、ターゲット1は55%で正しく識別され、これはサブサンプルの45%に相当する。

A<=x1の場合、ターゲット1は70%で正しく定義され、これはサブサンプルの50%にあたる

これらの分割にはそれぞれ有意差係数があり(計算方法はまだ決めていない)、最後の分割にも有意差係数がある。

といった具合に、例えば5~10個の予測変数まで適用し、最後の分岐まで到達したら係数を合計し(あるいはもっと複雑な方法で合計し)、係数の合計が閾値を超えたらそのシートを1に分類し、そうでなければ0に分類します。


これを実現する簡単な方法は,penultimate splitまで強制的にforestを構築し,既に選択されている予測因子をサンプルから除外し,新たな予測因子を選択することである.あるいは、単純に、ツリーを構築した後、リーフによってサンプルをフィルタリングし、各予測子を単体で調べ、完全性と精度の基準を満たす最適な分割を探します。

そして、もう一つのクラス "0 "が何もしないことを意味し、逆の入力がなければ、学習 サンプルに対する結果は改善され、そうでなければ、改善と悪化の両方があり得ます。

学習結果は、深さNとN+1の間の値、例えば6と7になります。レベル6の誤差が20%、レベル7の誤差が18%であれば、この方法では2つの間の誤差、例えば19%を出すことになります。1%の利得は、時間に見合うものだと思いますか?
以前は、ある木をレベル6に、ある木をレベル7の深さに訓練する、という簡単な方法を紹介しました。そのためには、コードを書き換える必要があります。
今は、何も書き換える必要がないので、もっとシンプルな方法を思いつきました。レベル6までの任意のパッケージとレベル7までの別のフォレストでランダムフォレストを 構築し、平均化すればよい。


トレーニングの サンプルは心配する必要はなく、いつも完璧です。

 
elibrarius:
同じように、学習結果は、NとN+1の深さ、例えば6と7の間で学習したツリーになります。レベル6の誤差が20%、レベル7の誤差が18%であれば、その中間の誤差、例えば19%がこのメソッドで得られます。1%の利得は、時間に見合うものだと思いますか?
以前は、ある木をレベル6に、ある木をレベル7の深さに訓練する、という簡単な方法を紹介しました。そのためには、コードを書き換える必要があります。
今は、何も書き換える必要がないので、よりシンプルな方法を思いつきました。レベル6までの任意のパッケージとレベル7までの別のフォレストでランダムフォレストを構築し、平均化すればよい。


トレーニングサンプルは 心配する必要はなく、いつでも大丈夫です。

利得は通常1%以上です。

もちろん、フォレストをランダムに することはできますが、どうすれば、最後から2番目の分割まで同じになるのでしょうか?例えば、10本の木を6分割までトレーニングし、さらに10本を同じように7分割までトレーニングするとします。

 
Aleksey Vyazmikin:

利得は通常1%以上です。

もちろんランダムフォレストは可能ですが、 どのようにすれば、最後から2番目の分割まで同じになるのでしょうか? 例えば、10本の木を6分割まで教え、残りの10本も同じように7分割まで教えるとします。

まさかね。そのため、トレーニング用にランダムな列を取るので、ランダムになっているのです。そして、平均化することで良い結果が得られる。
列の割合=1としてみてください。つまり、全列の50%がランダムに選ばれるのではなく、すべての列がツリーの構築に関与することになる。すべての木が同じになるので、森の中の1本の木も設定します。1本の木で構成される森林を6レベル、もう1本を7レベルの深さまで学習させる。
もし2本以上の木が必要な場合は、独立にセットからいくつかの列を削除し、残りのすべての列で追加の森を訓練します。

また、トレーニングに参加する行の数も1に設定する。つまり、トレーニングが同じになるようにすべて設定する。つまり、ランダムフォレストから ランダムなものはすべて取り除かれる。
 

そのnsの取引ロジックを考えるのは大変なことです。

これまで私たちは、このように考えてきました。


さらにNsアーキテクチャは広範囲に変化する

肝心要

 
マキシム・ドミトリエフスキー

そのnsの取引ロジックを考えるのは大変なことです。

これまで私たちは、このように考えてきました。


さらに、nsアーキテクチャは広範囲に渡って変化します。

ゅほうをえきゃくすることだい

またもや援軍でNSに挑む?報酬を利用しているようです

 

このデータでテストしてみると、間違いなくパターンがあり、何を目指すべきかが 明確になりますね。

ps 名前から.txtを削除

ファイル:
test.zip.001.txt  15360 kb
test.zip.002.txt  13906 kb
 

1.5ヶ月で。介入 なしの完全な自己学習

後でもう少し調べてみます...パラメータが多すぎる

 
マキシム・ドミトリエフスキー

1.5ヶ月で。介入 なしの完全な自己学習

後でもう少し調べてみます...パラメータが多すぎる

悪くない)
 
マキシム・ドミトリエフスキー

1.5ヶ月で。介入 なしの完全な自己学習

後でもう少し調べてみます...パラメータが多すぎる

では、これは新しい貿易データに関するものなのでしょうか、それともどうやって理解するのでしょうか。

 
mytarmailS:

では、これは新しい貿易データに関するものなのか、それともどのように理解されているのでしょうか?

ただ走らせるだけで、学習しながら取引してくれます。
理由: