トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 245

 
Andrey Dik:
私は単純化、一般化と言っているのに、あなたはそれをより複雑で詳細なものにしています。

そういうことが非常に多いのです。情報の基準は、例えばAkaikaを使用します。

要はこういうことです。

モデルの複雑さにペナルティを課している。最適化の 結果、最も精度が高くはないが、よりシンプルなモデルが選ばれる。

では、例を挙げてみましょう。

H1で5000本以上のEURUSDのバーをサンプルとして見てみましょう。ランダムフォレストを構築してみよう。最大ツリー数=500とする。木の本数によるフィッティングの誤差をプロットして表示しています。100本を超えたあたりから、フィッティングの誤差はほとんど変化しないようです。それに、サンプルを増やしても木の本数が増えるわけではありません。そして、木は切望されたパターンです。例えば、H1のEURUSDは約100のパターンを含んでいます。しかし、そのパターンはほとんどオーバートレーニングです。

モデルを粗くし、木の最大数を10本などにして根本的に減らせば、オーバートレーニングの対策になるかもしれません。

 
サンサニッチ・フォメンコ


モデルを粗くして、木の最大本数を10本など大幅に減らすと、オーバートレーニングの対策になるかもしれませんね。

forestの場合、オーバートレーニングは木の数ではなく、その無限の深さ(モデルの複雑さ)に起因しており、数はバリエーションを減らし、オーバートレーニングはベイス
 
問題は、そのことです。
フォレストでは、オーバートレーニングは木の数ではなく、その無限の深さ(モデルの複雑さ)に起因しており、数はオプションを減らし、オーバートレーニングはベイス
五分五分というところかは時間の無駄です。
 

気になるのは

1.アルゴトレーディングにおけるニューラルネットワークの学習とは、結局のところどのようなものなのでしょうか。

2.トレーニングで使用するマーケットダイナミクスパラメーターは何ですか?

3.歴史上のパターンを認識するだけでなく、今現在のパラメーターの価値変化の特徴をネットワークが「学習」して、それに対応することはできないでしょうか?

(例えば、急激な波のような立ち上がりや、滑らかな立ち下がりなど)。

 

現在のパラメータ値の変化の性質が、ネットワークに認識されていないのでは...。ありえない。

そして、これは予測に期待できそうです。結局、その変遷を覚えておくだけで、後で予測することができるようになるのでしょう。

 
イトゥム
五分五分だは時間の無駄です。

いや、若干のエッジはある。簡単に言うと、「勘」も含めて、 他のどの方法よりもMOで多くのことを抽出できる、市場にはパターンがあり、MOで最も効果的にそれを抽出できる、ということです。

 
ヴィザード_。

昨日は0.69(0.68999)をかろうじてクリアしたんだ。以上、楽しませてもらいました。


すごいですねぇ。

しかし、0.69は、標準的な手段は、それがニューロネットの深さではなく、森林の木の数ではないことを私に降伏し、スクラッチすることができます壁であることに同意し、0.6以下の人は、我々が知らないいくつかのトリックがあり、これは実際に非常にリラックスBunに動機づけられていない)) 。

 
..:

カッコイイ!

しかし、0.69であることに同意する。

その数字とは?どこで見ることができますか?
 
サンサニッチ・フォメンコ
その姿とは?どこで見ることができますか?
numer.aiでログロス
 

私はMoDにごく間接的に関係する者として、議論に口を挟むことはしませんが、私の「鐘楼」から意見を述べることは許します。

通常の多層神経回路網はニューロンで構成されています。ニューロンの活性化関数は、-1から1(または0から1など)へ成長する単調な関数です。入力値が最小のときは、この関数は最小の結果を出し、最大値のときは最大の結果を出します。

N次元空間のあるセグメント(入力クラウド)に対して、N個の入力を持つニューラルネットワークを学習させる。ニューラルネットワークは、このクラウドの外側にあるデータをどうすればいいのかわからない。しかし、私たちはそのデータを与えて、何らかの結果を出すことを期待しているのです。


ivanivan_11 です。

へぇーへぇー。なんて見当違いなんでしょう。

紙製のゴーグルは、ニューラルネットに対する完璧なカモフラージュであることが証明された

コノウタグ

3.履歴上のパターンを認識するだけでなく、ある瞬間のパラメータ値変化の具体的な性質をネットワークが「学習」して反応することができるのか。

(例えば、鋭い波状の上昇や滑らかな下降など)。

ネットワークが、現在のパラメータ値の変化の性質を認識していないのでは...。ありえない。

これは予測に期待できそうです。結局、その変遷を覚えておくだけで、後から先読みできるようになるのでしょう。

例えば、市場に異常事態が発生し、価格が高騰したとします。あるいは、人間の顔で学習したNSが、多色メガネの画像を入力として受け取る。神経細胞は過剰に興奮し、その出力はS状結節の左または右の枝に遠くまで行く。つまり、NSの出力には、予測できないが非常に強い信号が得られるということだ。

もし学習サンプルにそのようなスパイクがあれば(例えば全データの1%)、アルゴリズムbackpropはすべての重みを「緩め」、一方NSは何も「学習」する時間がないが、99%の「正常」データでその仕事は劣化してしまうのだ。

無理な要求をNSに「ロック」するのではなく、「異常な入力」に対して自己防衛することを教える方がよっぽど良いのではないでしょうか。ここで、IMHOは2つの選択肢を持っています。

1.シ グモイドの代わりにガウス曲線の形をした活性化 関数を持つ1層以上のニューロンを導入する。このようなニューロンは、限られた入力範囲では1に近い結果を出し、それ以外の数値軸では0に近い結果を出す。

2) NS出力の解釈を変更する。通常のバイナリー解釈(0-取引シグナルなし、1-取引シグナル)の代わりに、次の解釈を提案します:0-シグナルなし、0.5-シグナルあり、1.0-シグナルなし予想外の値動きがあった場合、NSの出力は極値である0または1のいずれかに近く なり、誤ったシグナルを発生させることはないでしょう。

尊敬する専門家たちよ、MOの文献にそのようなことが書かれていて、役に立つと思うか?コメントをお待ちしています。

理由: