トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 376

 
エリブラリウス

ALGLIBの早期停止トレーニングで検証編が見つかりました。

早期停止を用いたニューラルネットワークの学習(基本アルゴリズム - 正則化付きL-BFGS)。
...
検証セットの誤差が長く続くと、アルゴリズムが停止します。
が十分であるか、ステップサイズが十分小さいか(このようなタスクがあります)
の検証セットは永遠に減少する可能性があります)。いずれにせよ、解決策
は、検証セット誤差の最小値に相当する。


実際の取引では、バーは独自の順序で進み、1時間前や1日前のバーと混ざらないので、何かおかしいと思います。
そして、市場の「本質」が変われば、学び直したり、新しいNSモデルを探したりしなければならないことになる。


グリッドに500以上のリンクがありますか?彼らは、ニューロンが少ない場合、L-BFGSはL-Mよりも効率が悪いと書いています。
 
マキシム・ドミトリエフスキー

あなたのグリッドに500以上の接続がありますか?彼らは、ニューロンが少ない場合、L-BFGSはL-Mよりも効率が悪いと書いています。
これまでのところ、時間を節約するために少ない - 開発段階、私は完了したときに私は予測因子とネットワークスキームを検索するために自分自身を緊張させるでしょう。
 
elibrarius:
今のところ少ない、時間短縮のため - 開発段階、完成したら予測因子とネットワーク図を探すのに精を出す


全部わかったら記事にしてくれるかな?:)Alglibian neural networkの良い記事はない。消化しにくい翻訳が1つある。

NSの説明(alglibの適切なヘルプも見つからなかったので)、学習/再トレーニング、botの自動最適 化の例などの記事。まあそれは私だけの話ですが、ただ、勉強するための情報が少ないことに気づきました。お金を払ってでも、時間を無駄にしないようにしたいものです。

 
マキシム・ドミトリエフスキー


全部わかったら記事にしてみたらどうだ?:)アルグリブ・ニューロニックに関する良い記事はなく、あるのは翻訳された難解な

NSの説明(Alglibの適切なヘルプも見つからなかったので)、学習・再トレーニング、botの自動最適化の例など、記事のようなもの。まあそれは私だけの話ですが、ただ、勉強するための情報が少ないことに気づきました。このような、より多くを支払うために)あなたの時間を無駄にしないために費やしてください。

そんなことないですよ〜、記事にする時間が取れないので・・・。記事を探す時間もないし、私自身はNSを理解し始めたばかりなので、気の利いたことは言えません。

私は https://www.mql5.com/ru/articles/2279 を基本にしました。8時間以内に使える状態にした。ほとんどのプログラマーは、これ以上時間をかけられないと思います。

しかし、オプションの追加やテストなど、手直しに追われた1週間でした。
Нейросеть: Самооптимизирующийся советник
Нейросеть: Самооптимизирующийся советник
  • 2016.10.03
  • Jose Miguel Soriano
  • www.mql5.com
Возможно ли создать советник, который согласно командам кода автоматически оптимизировал бы критерии открытия и закрытия позиций с определенной периодичностью? Что произойдет, если реализовать в советнике нейросеть (многослойный персептрон), которая, будучи модулем, анализировала бы историю и оценивала стратегию? Можно дать коду команду на ежемесячную (еженедельную, ежедневную или ежечасную) оптимизацию нейросети с последующим продолжением работы. Таким образом возможно создать самооптимизирующийся советник.
 
エリブラリウス
そんなことはないでしょう。100%記事にする時間はないでしょうから...。それに、私自身はNSを理解し始めたばかりなので、気の利いたこと・新しいことは言えません。

私は https://www.mql5.com/ru/articles/2279 を基本にしました。8時間以内に使える状態にした。ほとんどのプログラマーは、これ以上時間をかけられないと思います。

しかし、追加のオプションの追加やテストなど、手直しに1週間を要しました。


やはりベイズ分類器+遺伝子の方に目が行きますね、悪くない結果です。グリッドの場合、私の頭の中ではちょっと泥臭いんです。

そうですね、同じ記事のことです、私にはあまり受け入れられませんでした、私はプログラマーというよりトレーダーなのですが )

 
結果を混ぜた場合の状況はまだ不明です。

非混合データに対するアーリーストップ・トレーニング。

学習時の平均誤差(80%) plot =0.535 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6
検証区間(20%)の平均誤差 =0.298 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6
フルプロット(トレーニング+バリデーションプロット)。
平均学習誤差=0.497 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6
テスト時の平均誤差(20%) section =0.132 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6

検証プロットへの適合があったように感じます。テスト用のは良いのですが、トレーニング用ではないので比較はしておらず、おそらく偶然だと思います。
同じフェイでアンサンブルをカウントして、2/3分割があって、両方のプロットですべてが混在している、同じようにしてみる......。
シャッフルした。

学習時の平均誤差(60%) area =0.477 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6
検証時の平均誤差(40%) section =0.472 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6
フルプロット(トレーニング+バリデーションプロット)。
平均学習誤差=0.475 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6
テスト時の平均誤差(20%区間) =0.279 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6

混合することで、訓練区と検証区で誤差が均等化される。
そして、テスト1ではさらに悪化した。

実際の取引では、1時間前、1日前、1週間前のバーが混在することはなく、それぞれの順序に従って表示されるからです。同様に、クロスバリデーションアルゴリズムの場合、検証部分が最初、次に真ん中、そして最後にあります。
そして、市場の「本質」が変われば、私たちは学び直したり、新しいNSモデルを探したりする必要があるということです。

また、最後のセクションでミックスして検証しない場合、そのセクションへのフィッティングを避けるにはどうすればいいのでしょうか?
 
エリブラリウス
4 プロットでうまくいくのか?トレーニング/検証/test1/test2 ?

トレーニング/バリデーションは何回必要ですか?どこにも情報がないのですが...。合計で1サイクル?- その直後に、予測因子セットやネットワークスキームの何かを承認したり変更したりするのですか?より正確には、N回のトレーニングで1回のベストが表示されることになる。


テストセクション2は評決:一致しない、ならばもう一度やり直そう、できれば予測変数のセットで


PS.

ちなみに、TCの最終評定であるテスターもあります。

 
エリブラリウス
結果を混ぜた場合の状況はまだ不明です。

非断続的なデータに対する早期停止学習。

学習時の平均誤差(80%) sample =0.535 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6
検証時の平均誤差(20%) section =0.298 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6
フルプロット(トレーニング+バリデーションプロット)。
平均学習誤差=0.497 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6
テスト時の平均誤差(20%) section =0.132 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6

検証プロットへの適合があったように感じます。テスト用のは良いのですが、トレーニング用ではないので比較はしておらず、おそらく偶然だと思います。
同じフェイでアンサンブルをカウントして、2/3分割があって、両方のプロットですべてが混在している、同じようにしてみる......。
シャッフルした。

学習時の平均誤差(60%) area =0.477 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6
検証時の平均誤差(40%) section =0.472 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6
フルプロット(トレーニング+バリデーションプロット)。
平均学習誤差=0.475 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6
テスト時の平均誤差(20%区間) =0.279 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6

混合により、訓練区と検証区で誤差が均等化される。
そして、テスト1ではさらに悪化した。

なぜなら、実際の取引では、バーは独自の順序に従っており、1時間前、1日前、1週間前のバーと混ざり合うことはないからです。同様に、クロスバリデーションアルゴリズムの場合、検証部分が最初、次に真ん中、そして最後にあります。
そして、市場の「本質」が変われば、私たちは学び直したり、新しいNSモデルを探したりする必要があるということです。

また、最後のセクションでミックスして検証しないのであれば、このセクションにあてはまらないようにするにはどうすればいいのでしょうか?


1.私の理解では、全く何も学習させず、ターゲット変数とは全く関係のない予測変数の結果をランダムに表示させるだけです。


2.攪拌する。

NSを知らない。

しかし、他の非常に多くのMOアルゴリズムでは、学習は正確に1行で行われる。各予測変数のONE値を取り、ターゲット変数に対応させる。したがって、シャッフルは関係ありません。近傍性を考慮したMOアルゴリズムがあります。

しかし、いずれにせよ我々の視点は一致しており、当初はシャッフルせずに常にtest2でテストを行っていました。


PS.

もう一度言います。

もし、2つの異なるサンプルのエラーがあなたのものと異なっていたら、それはあなたのシステムが絶望的で、ただ捨てられるだけだということを意味します。

 

インターネットという底なしの掃き溜めをさまよっていたら、こんな紙切れが出てきた。

Artificial Neural Networks architectures for stock price prediction:comparisons and applications

つまり、株価予測のためのNSアーキテクチャ-比較と応用

ファイル:
 
elibrarius:
ミキシング結果については、まだ状況が不明です。


実際の取引では、バーは独自の順序で進み、1時間前、1日前、1週間前のものと混ざらないからです。同様に、クロスバリデーションアルゴリズムの場合、検証部分が最初、次に真ん中、そして最後にあります。
そして、市場の「本質」が変われば、私たちは学び直したり、新しいNSモデルを探したりする必要があるということです。

また、最後のセクションでミックスして検証しない場合、そのセクションへのフィッティングを避けるにはどうすればいいのでしょうか?

列車/テスト/バリッドミックス列車に 分割した後。残りのセットは混ぜないでください。
ニューラルネットワークによる分類に有効です。さらに、ディープニューラルネットワークを 学習させる際には、各ミニバッチを混合してからニューラルネットワークに投入する。

グッドラック

理由: