トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3084

 
Viktor Kudriavtsev #:

皆さん、こんにちは。このサイトのニューラル・ネットワークに関する膨大な記事の中から、エキスパート・アドバイザーをトレーニングしようとしています。私は、このようなものは訓練できないという印象を持っています。記事の下にある著者に質問してみましたが、残念ながら現実的な回答はありませんでした...(

従って、フォーラムのメンバーに質問です。ニューラルネットワークをどれくらい訓練すれば、(ランダムではない)何らかの結果を出すようになるのか教えてください。

私は27の記事から最後の記事まですべてのEAを試しましたが、結果は同じです。著者が示したように、300から1000エポックまでトレーニングしました。もしExpert Advisorが反復だけなら、私は100,000から20,000,000の反復を行い、そうして2-3のアプローチを行いましたが、まだランダムです。

どの程度訓練すべきでしょうか?十分なトレーニングサンプルのサイズはどのくらいですか(事前に作成されている場合)?

追記:ニューラル・ネットワークに関する簡単な情報をgoogleで読みました。100-200エポック程度で、すでに結果が出ているはずです(写真、図、分類について)。

トレーニング用のサンプルに結果はないのか?

これらの記事のサイクルは、箱から出してすぐに使えるソリューションではありません。ですから、そこで提案されている方法を試す前に、潜在的に価格行動を記述できる予測変数のセットを開発する必要があります。

 
Viktor Kudriavtsev #:

皆さん、こんにちは。このサイトのニューラル・ネットワークに関する膨大な記事の中から、エキスパート・アドバイザーをトレーニングしようとしています。私は、このようなものは訓練できないという印象を持っています。記事の下にある著者に質問してみましたが、残念ながら現実的な回答はありませんでした...(

従って、フォーラムのメンバーに質問です。ニューラルネットワークをどれくらい訓練すれば、(ランダムではない)何らかの結果を出すようになるのか教えてください。

私は27の記事から最後の記事まですべてのEAを試しましたが、結果は同じです。著者が示したように、300から1000エポックまでトレーニングしました。もしExpert Advisorが反復だけなら、私は100,000から20,000,000の反復を行い、そうして2-3のアプローチを行いましたが、まだランダムです。

どの程度訓練すべきでしょうか?十分なトレーニングサンプルのサイズはどのくらいですか(事前に作成されている場合)?

追記:ニューラル・ネットワークに関する簡単な情報をgoogleで読みました。100-200エポック程度で、すでに結果が出ているはずです(写真、図、分類について)。

どこにランダムな結果を出すべきではないと書いてある?同じような記事がたくさんあることは、すでに間違った方向性を示唆している。

強化学習はそのようなタスクのために設計されたものではない。あなたはそれで遊ぶことができる。
 
Lilita Bogachkova #:

そうだ、

しかし、同じ値が多数あるため、データの全体的な質に疑問を感じる。
例:seq = ([5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5]) = [5,5,5,5,5,5,5,5,5][5]; [5,5,5,5,5,5,5,5,5][5]; [5,5,5,5,5,5,5,5,5][5] .......
このような学習データをモデルに与える意味がわからない。

というわけで、一意でないデータはすべてふるいにかけている。

間違っているかもしれませんが、次のようなトレーニングデータもモデルに与えるのは間違っているように思います:

[1,2,3,4,5] [5];

[1,2,3,4,5] [6];

[1,2,3,4,5] [7];

[1,2,3,4,5] [8];

...

くだらない

 
Aleksey Vyazmikin #:

トレーニングサンプルの結果も出ていない?

これらの一連の記事は、箱から出してすぐに使える解決策ではありません - 誰も機械学習で最も価値のあるもの、つまり予測子を明らかにしません。ですから、そこで提案されている方法を試す前に、潜在的に価格行動を記述できる予測変数のセットを開発する必要があります。

Yesはトレーニングサンプルでも機能しない。どこでもうまくいかないのだ。この場合、予測変数とは何でしょうか?著者は、ローソク足、時間、4つの指標という形でチャートからパラメーターを取ることを説明している。ニューラルネットワークモデルもある。
 
Maxim Dmitrievsky #:

ランダムな結果を出してはいけないとどこに書いてありますか?同じような記事がたくさんあることが、すでに間違った方向を示唆している。

強化学習はそのようなタスクのために設計されているわけではない。あなたはそれで遊ぶことができる。
著者は各記事の最後に、グラフと戦略テスターの統計データを載せている。まあ、その統計が架空のものであれば、そうなのだが......。
 
Viktor Kudriavtsev #:
トレーニングサンプルでもうまくいかない。ただ、どこにもない。この場合、予測変数とは何でしょうか?著者は、ローソク足、時間、4つの指標という形でチャートからパラメーターを取ることを説明している。ニューラルネットワークのモデルもある。

トレーニング・サンプルで機能しないのであれば、おそらく問題はあなたの側にある。ニューラルネットワークは、ツリーモデルとは異なり、トレーニングに長い時間がかかります。

予測因子は何でもよく、安定した確率的結果を持つ価格に影響を与える要因なら何でもよい。

さて、作者はコードにいくつかのエラーを持っていた(非インテルカードでは重要) - 人々の要求に応じてルールのいくつかのバージョン。
 
Aleksey Vyazmikin #:

、、(σ≧▽≦)σトレーニングサンプルでもσ≧▽≦)σ≧▽≦)σ≧▽≦)σ≧▽≦)ニューラルネットワークは、樹木モデルとは異なり、トレーニングに長い時間がかかります。

ー木モデルのーモデルとはーとはーとはーとはーとはー予測変数はー予測変数はー予測ーー予測因子ー予測因子ー予測因子ー予測因子ー予測因子ー予測因子ー

Well, the author had some errors in the code (critical for non-Intel cards) - a couple of versions of the rules on people's requests.

ーまあ、最新記事(ー(ーGoExploreとー以降)、ー27からー35コンパイルしてー正常にー正常にー正常にー正常にー正常にー36ー38ーーーー動作せずーしなかった。36から38はテスターで訓練されたことである動作しませんでした。私はNvidia GTX 660 tiからカードを持っています。

何が私の側に問題がある可能性がありますか?ー私のー私のーソブトニクーコンパイルし、ー実行し、ー学習過程(ー(ー(ー(ーエラー、ーグラフ上のー進捗状況ーー。そして、それはどのくらいの負債ですか?The author of the articles also writes a lot, it is necessary to repeat iterations of collecting examples and training, but nowhere does he write any at least approximate figures.ー例えばー、ー500回トレーニングしたらー、ーしたところ、ーでーでーした。ーせめて具体的な数字が欲しい。ータがータがータがータ、ータがータはータはータはータはータはータはータはータはータはータはータはータはータはータはーそれ以外のータ、ータ、ーそうでなければータそうでないーそうでないーそうでないーそうでないータ

 
Viktor Kudriavtsev #:
著者は各記事の最後に、戦略テスターによるグラフと統計を掲載している。まあ、その統計が架空のものだとすれば、そうなのだが......。
短期間の非常にささやかなテストであり、そこから明確な結論を導き出すことは不可能である。トレーニングでさえうまくいかないということは、大失敗をしたということだ)このようなトレーニングのプロセスはコントロールが難しいので、アプローチ自体が適していない。適切なコントロール機能(報酬)が見つかれば、それはもう必要ない。
いろいろ試してみたけど、安定した結果は得られなかった。

また、遺伝的最適化よりも計算が複雑だが、効率は良くない。1回の反復で同じような結果を得ることができる。トレーディングの分野で専門的な知識がなければ、良い結果は得られないだろう。
 
Maxim Dmitrievsky #:
短期間の非常にささやかなテストだけで、そこから明確な結論を導き出すことはできない。トレーニング・プログラムでもうまくいかないということは、多くのミスを犯しているということだ)そのようなトレーニングのプロセスはコントロールが難しいので、アプローチ自体が適していない。そして、適切なコントロール機能(報酬)が見つかれば、それはもう必要ない。 。
いろいろ試しましたが、安定した結果は得られませんでした。

また、遺伝的最適化よりも計算が複雑だが、効率は良くない。全く1回の反復で、同じような結果が得られます。トレーディングの分野で専門的な知識がなければ、良い結果は得られないだろう。
遺伝的・進化的手法を使って、このシリーズのExpert Advisorをトレーニングしてみた(記事30と31)。筆者はパラメータを1000エポックとしている。母集団は私の理解では1エポックあたり50個体である。最良の結果はトレーニング時にログに表示される。つまり、200エポックでは、この最良の結果は最初のものと変わっていない。また、母集団を100個体にして、150エポックほど訓練してみました。効果は同じである。というわけで、この方法はあきらめ、新しい方法に移った。
 
Viktor Kudriavtsev #:
このサイクルから遺伝的・進化的手法を使ってEAをトレーニングしてみた(記事30と31)。著者のパラメータは1000エポックである。母集団は私の理解では1エポックあたり50個体です。最良の結果はトレーニング時にログに表示される。つまり、200エポックでは、この最良の結果は最初のものと変わっていない。また、母集団を100個体にして、150エポックほど訓練してみました。効果は同じである。そこで私はこの方法をあきらめ、新しい方法に移った。

新奇なモデル、特に複雑なモデルに時間を費やすのは完全に時間の無駄だ。

RFの理想はシンプルで非常に明快なモデルだ。モデルのアンサンブルによって最終的な結果を得ようとするのであれば、古くて十分にテストされたモデルからさらに2、3個のモデルを取ることができる(約5%の誤差を減らすことができる)。

つまり、極限定理とそれに基づくすべての統計(さまざまな相関や分散など)は機能しないのです。ちなみに、RMSEのような推定値もそうです。


だからこそ、前処理(データマイニング)から始めなければならないのです。ターゲット(教師)と十分に安定した接続を持つ予測変数のセットを得ることなしに、何も話すことは無意味です。予測誤差と引用の異なる部分におけるその安定性を決定するのは、この接続の質である。モデルは全く関係ない。もしRFで、"サンプル内 "と "サンプル外 "でほぼ同じ予測誤差が20%未満になるのであれば、同じ予測変数のセットで試して、より高度なモデル、モデルのアンサンブル...によって予測誤差を減らすことを目標にできますが、それは数%であり、RF以外に時間を費やす意味はありません。

もう1つ条件がある:予測変数のターゲットとの接続の安定性の数学的証明、すなわち、予測変数のターゲットとの接続の分散を求め、少なくともGARCHの意味での近似安定性を証明する予測変数のターゲットとの接続の定常性である。

そして、異なる「エポック」と何世紀にもわたるテスト - 何でもない、あなたはとても騒いでいる、あなたは主題にいるように見えるが、あなたはその場で走っている。

理由: