トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2426

 
mytarmailS:

さて、最初の質問に対する答えです。

ありがとうございました。

考えてみるけど、すぐには難しいな~、C++とはコードの構文がかなり違うけど。

 
elibrarius:

テストで最も成功したバージョンにモデルをチューニングしているとは思いませんか?

どの時点でテストにチューニングしているのだろう?サンプリング "テスト "は、トレーニングを停止するために使用され、プロジェクトでは、1を除いて、それは全く存在しないし、私は最終的な訓練でそれを使用 - よくあなたは木の固定数に置き換えることができます - 50/100/300/500/800とすべてのサンプルの結果を見て、あなたはかなり悪い結果を得るだろうと信じて?

 
Aleksey Vyazmikin:

ありがとうございました。

何とかしてみますが、C++とはコードの構文がかなり違うので、すぐには難しいですね。

高水準言語なので見慣れない機能がたくさんある。
しかし、あなたがC++で300行で書いたものを、私は3行で書くことができます)

 
Aleksey Vyazmikin:

どの時点でテストするのがチューニングだとお考えでしょうか?サンプル "test "は、トレーニングを停止するために使用されます。

そうですね~、トレーニングを止めるのもテストフィットです。他のシステムの詳細が分からないので、これ以上は言えません。
クロスバリデーションでは、すべてのデータがテストであり、それらすべてがトレーニングでもある。一人ずつでいいんです。トレイのプロットを40%増やしたかっただけでしょう。
 
mytarmailS:
言語が高水準であるため、見慣れない関数がたくさんあります。
しかし、あなたがc++で300行で書いたものを、私は3行で書くことができます))

私の変態性癖をすべてRで簡単に実装できるとは思っていません :)

 
elibrarius:
そうなんです。トレーニングを止めるのもテストフィットなんです。あなたのシステムの他の詳細を知らないので、これ以上何も言えません。

理論的には試験サンプルでの結果が増えるのは納得ですが、私は試験サンプルでの結果を評価しているのです

さて、ここまでで一通り説明したつもりですが、何か疑問があれば質問してください。

elibrarius:
クロスバリデーションでは、すべてのデータがテストであり、そのすべてがトレーンでもある。一人ずつでいいんです。トレイのプロットを40%増やしたかっただけでしょう。

さて、クロスバリデーションを使う目的は何でしょうか?モデルのハイパーパラメータを探すという点では、ランダムプロットでどの設定が最も優れているかを平均的に示してくれるからです。

 
Aleksey Vyazmikin:

私の変態性をすべてRで簡単に実装できるとは思えません :)

アハハ))))

私が自分の変態を自覚できれば、あなたのは休息みたいなものです)

 
Aleksey Vyazmikin:

なるほど、クロスバリデーションを使う目的は何でしょうか?ランダムなプロットでどの設定がベストなのかを平均的に示してくれるので、 モデルのハイパーパラメータを見つける ことが目的だと考えています。

まさにそのためにあるのです。他に必要なものはありますか?そして、特定の機能セット。属性が異なれば、ハイパーパラメータも異なる可能性が高い。ハイパーパラメータが最適なものを選べば、それを使って作業する必要があります。

Aleksey Vyazmikin:
さて、細かいところまで説明したつもりですが、何か質問があればどうぞ。

詳細を説明するのは億劫です。

 
mytarmailS:

アハハ))))

自分の変態を実装できれば、あなたのは一休さんのようなものです)

さて、ここで、データを準備するスクリプトを作ったので、やはり除外された列をリストアップするファイルを作る必要があります。

1.相関のある予測変数の列(ところで、例えば相関のある予測変数が5つある場合、どの列を捨てるかはどのように選択されるのでしょうか?)。

2.最初のファイルテーブルから廃棄された列(ターゲットがある列を除く)。

さらに目的のラベルを持つ列をファイルに書き込む必要があり、できれば列名で検索してほしい。

ファイルの構成は

5336    Auxiliary
5337    Auxiliary
5338    Label
5339    Auxiliary
5340    Auxiliary
 
elibrarius:

まさにそのためにあるのです。他に必要なものはありますか?そして、特定の機能セット。属性が異なれば、ハイパーパラメータも異なる可能性が高い。ハイパーパラメータが最適なものを選択し、実用化するのです。

あまり深く掘り下げるのは億劫なので。

より短時間で正しい予測因子を選択する必要があります。もう一度予測器を通すとなると、処理時間が100倍になってしまう。私の方法は、良い予測因子(特定の学習方法に適したものを含む)は、すべてのサンプリング間隔でモデルによって要求されるという論理に基づいており、サンプリング領域へのフィッティングを除外しています。