トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 931

 
Dr.トレーダー

ジェネティクスは、限られた数の関数呼び出しに対して、正しいパラメータを見つけようとします。このパラメーターのバリエーション数を絞ることで、(200ではなく30)遺伝学者が1から30までの領域をより詳細に調査することができるのです。そして正しくは、あるモデルパラメータを求めるための具体的な限界値を知っているのであれば、その情報をすぐに遺伝学者に伝えた方が良いということです。


あるいは。

この行(緑色の行)をコードに追加すると、遺伝学者がデフォルトの50個体ではなく、500個体の集団を持つようになります。そして、10倍のモデルをテストできるようになり(ただし、スクリプトの実行時間も10倍になる)、モデルパラメータの組み合わせをできるだけ多く試せるようになる。最大200ニューロンでも、0.85の方が良い結果が得られると思いますし、少なくともそれに近づけることができると思います。

何の遺伝子の話か理解できない。ELMには遺伝子がないんです。ELM理論やelmNNパッケージの記述を見ればわかる。

「ELMはSLFN(Single Hidden Layer Feedforward Network)の代替学習法であり、従来の勾配学習アルゴリズム(バックプロパゲーションなど)で問題となっていた学習速度、運動量などのパラメータ設定や反復学習が不要であるため、学習効率を向上させることが可能です。

ELMを用いたSLFNの学習は、3段階の学習モデルである。

学習セット P = {(xi , ti )|xi E R , ti E R , i = 1,..., N}、隠れノード出力関数 G(a, b, x)、および隠れノード数 L が与えられたとき

1) 隠れノードパラメータ (ai , bi ), i = 1,..., L をランダムに割り当てる。これは、入力層と隠れ層、隠れ層間の弧の重みをランダムに生成することを意味する。

2) 利用可能な活性化関数のいずれかを用いて、隠れ層の出力行列Hを計算する。

3) 出力重み B の計算:B = ginv(H) %*% T ( 行列の乗算 ), T は学習セットの目標出力である。

ginv(H) は隠れ層出力行列 H の Moore-Penrose 一般化逆行列であり、MASS パッケージの関数 ginv によって計算される。

SLFNが学習されると、一般的なテストセットの出力は単純にY = H %*% B(行列の乗算)となります。特徴的な機能

- ELMの学習速度は非常に速い。

- 微分活性化関数にしか使えない従来の勾配学習アルゴリズムとは異なり、ELMはすべての有界非定数区分的連続活性化関数に有効である。

- 従来の勾配型学習アルゴリズムでは、ローカルミニマム、不適切な学習率、オーバーフィットなどの問題があったが、ELMではそのような些細な問題を起こさずに素直に解に到達する傾向がある。

- ELMの学習アルゴリズムは、他の一般的な学習アルゴリズムであるニューラルネットワークやサポートベクターマシンよりもはるかにシンプルに見える。"

たとえ少ないニューロン数でも、2つの同じニューラルネットワークを得ることは不可能である。連続出力をクラスに転送するための閾値の定義が正しくありません。Threshold = 0.5 は最悪の場合。許容範囲=中央値/しかし、もっと高度なものもある。

グッドラック

 
マキシム・ドミトリエフスキー

あ、なんか読み応えありそうですね、忘れてた。というか、GBMとXGboostの違いを忘れていた......というか知らなかった

gbmはどのモデルもブースト可能、xgbはツリーにあるようです。

ブーストは、森を作るバギングより少し良いということは分かっています。再教育についてはわかりません。


リブートと機種は 全く関係ありません。

モデルの再トレーニングは2つのケースで行われます。

  • ノイズ予測変数の存在は大きな問題であり、予測変数のフィッティングによってのみ解決されます。
  • モデルのオーバーフィッティング - 通常は小さなサンプルでパラメータを「最適化」する。このようなオーバーフィッティングは、開発者の経験によって解決されます。

 
サンサニッチ・フォメンコ

サンサンヒ、ヒステリックになるのはやめてくれ

 
ウラジミール・ペレヴェンコ

何の遺伝子の話か理解できない。ELMにジェネティクスはない。ELM理論やelmNNパッケージの説明を見てください。

「ELMはSLFN(Single Hidden Layer Feedforward Network)の代替学習法であり、従来の勾配学習アルゴリズム(バックプロパゲーションなど)で問題となっていた学習速度、運動量などのパラメータ設定や反復学習が不要であるため、学習効率を向上させることが可能です。

ELMを用いたSLFNの学習は、3段階の学習モデルである。

学習セット P = {(xi , ti )|xi E R , ti E R , i = 1,..., N}、隠れノード出力関数 G(a, b, x)、および隠れノード数 L が与えられたとき

1) 隠れノードパラメータ (ai , bi ), i = 1,..., L をランダムに割り当てる。これは、入力層と隠れ層、隠れ層間の弧の重みをランダムに生成することを意味する。

2) 利用可能な活性化関数のいずれかを用いて、隠れ層の出力行列Hを計算する。

3) 出力重み B の計算:B = ginv(H) %*% T ( 行列の乗算 ), T は学習セットの目標出力である。

ginv(H) は隠れ層出力行列 H の Moore-Penrose 一般化逆行列であり、MASS パッケージの関数 ginv によって計算される。

SLFNが学習されると、一般的なテストセットの出力は単純にY = H %*% B(行列の乗算)となります。特徴的な機能

- ELMの学習速度は非常に速い。

- 微分活性化関数にしか使えない従来の勾配学習アルゴリズムとは異なり、ELMはすべての有界非定数区分的連続活性化関数に有効である。

- 従来の勾配型学習アルゴリズムでは、ローカルミニマム、不適切な学習率、オーバーフィットなどの問題があったが、ELMではそのような些細な問題を起こさずに素直に解に到達する傾向がある。

- ELMの学習アルゴリズムは、他の一般的な学習アルゴリズムであるニューラルネットワークやサポートベクターマシンよりもはるかにシンプルに見える。"

たとえ少ないニューロン数でも、2つの同じニューラルネットワークを得ることは不可能である。連続出力をクラスに転送するための閾値の定義が正しくありません。Threshold = 0.5 は最悪の場合。許容範囲=中央値/しかし、もっと高度なものもある。

グッドラック

私の小さなトレーニングファイルでは、トレーニングセッション間の一致率は100%ですが......。

 

どのような期間でデータをダンプするのですか?

2年分のギャップと15秒のデータ差がありますね。予測因子。30個のナチュラルと1000個以上の「(double)(val1 < val2)」フォーマットで生成されます。

私も最初は予測変数の数を減らすべきだと考えていましたが、実際にやってみると多い方が良いことがわかりました。

もちろん、2年間で1000個の予測値があれば、3GB程度の容量になります。このようなボリュームにRを使うのは、本気ではない。

Pythonはデータマイニングの分野ではRに勝っています。CythonやJythonがあり、TensorFlow、Spark、MXNetなどのプロジェクトに プラグインされているからです。

 
Dr.トレーダー

ジェネティクスは、限られた数の関数呼び出しに対して、正しいパラメータを見つけようとします。このパラメーターのバリエーション数を絞ることで、(200ではなく30)遺伝学者が1から30までの領域をより詳細に調査することができるのです。そして正しくは、あるモデルパラメータを求めるための具体的な限界値を知っているのであれば、その情報をすぐに遺伝学者に伝えた方が良いということです。


あるいは。

この行(緑色の行)をコードに追加すると、遺伝学者がデフォルトの50個体ではなく、500個体の集団を持つようになります。そして、10倍のモデルをテストできるようになり(ただし、スクリプトの実行時間も10倍になる)、モデルパラメータの組み合わせをできるだけ多く試せるようになる。最大ニューロン数200でも、0.85の方が良い結果が得られると思いますし、少なくともそれに近い結果が得られると思います。

ありがとうございます!!!!本当に良くなりましたね。さて、どうなることやら...。メインは地道に稼ぐこと...。

 
ウラジミール・ペレヴェンコ

何の遺伝子の話か理解できない。

100ページ前にミハイルに見せたRのスクリプトの中にあるんだ。遺伝的アルゴリズムが elmnnのパラメータ(活性化関数、gpsh粒、隠れニューロン数)を調べています。遺伝学のためのフィットネス関数は、これらのパラメータを使用してelmnnモデルの委員会を訓練し、kfoldを介して評価する、など。

このスクリプトは、elmnnとベイズ最適化についての記事に触発されて、自分で書いたものです。でも、ベアではなくジェネティクスを導入したことで、この方法はより速く動作しますし、委員会の評価は私の好みで行われます。

 
サンサニッチ・フォメンコ

モデルは2つのケースで再トレーニングされる。

  • ノイズ予測変数の存在は大きな問題であり、予測変数の選択によってのみ解決されます。

この質問は、あなただけでなく、すべての人に向けられたものです。

実際にはこのようなケース、つまりノイズ予測器がある場合、NSは50~55%から抜け出せない。手に取れば、70%も出ることもある。

しかし、なぜそうなのでしょうか。
1) さて、NSは学習中にノイズ予測器に対して0に近い重みを自動的に選択するはずです(選択から除外するのと同じです)。それは枝葉末節の問題で見た。
2)ウェイトを過小評価する訓練によるものでなければ、少なくともドロップアウトによってふるい落とされるはず...。

 
Dr.トレーダー

100ページほど前にミハイルに見せたRスクリプトに書いてある。遺伝的アルゴリズムが elmnnのパラメータ(活性化関数、gpsh粒、隠れニューロン数)を試行する。遺伝学のためのフィットネス関数では、kfoldなどを介して推定されたこれらのパラメータを用いて、elmnnモデルの委員会が学習されます。

あなたのブログにコピーしてください、もしかしたら誰かが必要としているかもしれません。ここで何かを探すというのは、現実的ではありません。
 
エリブラリウス

この質問は、あなただけでなく、すべての人に向けられたものです。

実際にはそうで、ノイズ予測器がある場合、NSは50~55%を切ることはできない。手に取れば、70%も出ることもある。

しかし、なぜそうなのでしょうか。
1) さて、NSは学習中にノイズ予測器に対して0に近い重みを自動的に選択するはずです(選択から除外するのと同じです)。それは枝葉末節の問題で見た。
2)ウェイトを過小評価するような訓練はしないとしても、少なくともドロップアウトは選別する必要がある...。

まだ余分な次元があり、それを通して何とか曲線を描かなければならない、たぶん大きな誤差が生じるだろう

ドロップアウトは逆にエラーを増加させるのでは?

理由: