トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1978

 
マキシム・ドミトリエフスキー

RLもねじ込むと、より効果的ですが、とんでもなく大変です)。

一般に、mlpのような従来の逆伝播網は、時系列には全くと言っていいほど適さない。最低限必要なのはRNN

文房具に適している)シンプルなものだけにシンプルなロジックが効く。実ランクの場合は、複雑なアルゴリズムが必要です)。

 
Valeriy Yastremskiy:

文房具の場合は良い)単純なものには単純な論理しか通用しない。本格的なシリーズには、複雑な頭脳が必要です)。

任意の非定常系列は、任意の長さの定常系列の和として表現することができる。しかし、予測問題では、任意の長さが大きな問題となる。

 
Valeriy Yastremskiy:

任意の非定常系列は、任意の長さの定常系列の和として表現 することができる。予測問題では、任意の長さが大きな問題となる。

それは大きな誤解です。

 
Valeriy Yastremskiy:

文房具の場合は良い)単純なものには単純な論理しか通用しない。実戦的なシリーズには、複雑な脳が必要です)

は、信号対雑音比に依存する。ある時点で、非暗闇を考慮に入れていないため、機能しなくなる。

大雑把に言うと、ノイズの多い系列(明らかなループ)では規則性が消えるが、(メモリを使った処理であれば)無印は維持される。普通のmlpは引っかからない、RNNだけ引っかかる。

したがって、mlp, boosting, forest などは、メモリを持たないマルコフ過程に対してのみ有効です。

言語の例:どの言語にも一定レベルのエントロピー、すなわち言語中の単語の交替が存在する。高いレベルでは、寄生虫のような言葉が多い場合や、ピーター・コノフだけの場合など、話し方が支離滅裂になります。そうすると、文脈からしかキャッチできないので、過去の文(パターン)の記憶が必要になってきます。

例えば、私の文章を読んで、ピーターが誰なのか、どういう文脈で書いたのかがわからない。過去の出来事の記憶がなく、現在の文言と関連付けることができないので、間違った結論を出してしまうのです。

 
マキシム・ドミトリエフスキー

は、信号対雑音比に依存する。ある時点で、非暗闇を考慮に入れていないため、機能しなくなる。

大雑把に言うと、ノイズの多い行では、規則性は無くなるが(明らかなサイクル)、非明示性は保たれる(メモリを持つプロセスであれば)。普通のmlpは引っかからない、RNNだけ引っかかる。

したがって、mlp, boosting, forest などは、メモリを持たないマルコフ過程に対してのみ有効です。

言語の例:どの言語にも一定レベルのエントロピー、すなわち言語中の単語の交替が存在する。高いレベルでは、寄生虫のような言葉が多い場合や、ピーター・コノフだけの場合など、話し方が支離滅裂になる。そうすると、文脈からしかキャッチできないので、過去の文(パターン)の記憶が必要になってきます。

例えば、私の文章を読んで、ピーターが誰なのか、どういう文脈で書いたのかがわからない。過去の出来事の記憶がなく、現在の文言と関連付けることができないので、間違った結論を出してしまう。

もちろん、信号とノイズは決定的なものです。強いノイズの場合、弱い規則性は失われ、見えなくなるだけです。しかし、価格系列の場合、ノイズは外から発生するものではない。ノイズは規則性が薄れたり、強くても弱いものです。しかし、本質が変わるわけではありません。検出できる規則性があり、それ以外はノイズとなる。

 
Oleg avtomat:

これは大きな誤解です。

確かに、anyという言葉の完全な意味でのanyではありません。ホワイトノイズはここには含まれませんが、私たちも考慮していません。最初は異なる規則性で構成されており、それらは異なる振幅と長さを持つので、ノイズと規則性を持つ系列が存在することになります。

 
Valeriy Yastremskiy:

もちろん、信号とノイズが決め手です。ノイズが多いと、弱い規則性は失われ、見えなくなる。しかし、価格系列の場合、ノイズは外部に発生しない。ノイズは規則性が薄れたり、強くても弱いものです。しかし、本質が変わるわけではありません。検出できるパターンと、それ以外はノイズです。

信号よりノイズが大きければ、必ず過不足が生じます(検証用サンプリング使用時)。安定したパターンがないからです。

で、ノイズが多くてパターンが少ないときは、信号を分離するようにします。

なぜ、ノイズの多いパターンの列には信号があるのに、あるパターンには信号がないのかを理解するのは、本当に難しい。単純に特徴量(供給される履歴)の数を増やせばいいのです。でも、そんなことはないんです。ノイズにノイズを重ねると、ノイズが発生する。もっと微妙な文脈の抽出が必要なのですが、そこはなぜかうまくいくんです。一言で言えばマジック。

 
マキシム・ドミトリエフスキー

まあ、信号よりノイズの方が大きければ、必ずオーバーフィットかアンダーフィット(検証サンプリング使用時)になりますね。安定したパターンがないからです。

しかし、ノイズが多く、パターンが少ない場合は、信号を分離しようとすることになる

それが、あらゆる確率論的なテーマにおける検索のポイントであり、パターンを分離し、それが消滅する瞬間を捕らえることなのです。そして、通常、分離する方が問題やコストがかからない)。

 
マキシム・ドミトリエフスキー


親切丁寧)

 
Valeriy Yastremskiy:

懇切丁寧)

フルログを取ってるので、何をしてるかわかると思います。

そうすれば、何を改善すればいいのかがわかります。

理由: