トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1978 1...197119721973197419751976197719781979198019811982198319841985...3399 新しいコメント Valeriy Yastremskiy 2020.08.24 09:06 #19771 マキシム・ドミトリエフスキー: RLもねじ込むと、より効果的ですが、とんでもなく大変です)。 一般に、mlpのような従来の逆伝播網は、時系列には全くと言っていいほど適さない。最低限必要なのはRNN 文房具に適している)シンプルなものだけにシンプルなロジックが効く。実ランクの場合は、複雑なアルゴリズムが必要です)。 Valeriy Yastremskiy 2020.08.24 09:09 #19772 Valeriy Yastremskiy: 文房具の場合は良い)単純なものには単純な論理しか通用しない。本格的なシリーズには、複雑な頭脳が必要です)。 任意の非定常系列は、任意の長さの定常系列の和として表現することができる。しかし、予測問題では、任意の長さが大きな問題となる。 削除済み 2020.08.24 09:37 #19773 Valeriy Yastremskiy: 任意の非定常系列は、任意の長さの定常系列の和として表現 することができる。予測問題では、任意の長さが大きな問題となる。 それは大きな誤解です。 Maxim Dmitrievsky 2020.08.24 09:42 #19774 Valeriy Yastremskiy: 文房具の場合は良い)単純なものには単純な論理しか通用しない。実戦的なシリーズには、複雑な脳が必要です) は、信号対雑音比に依存する。ある時点で、非暗闇を考慮に入れていないため、機能しなくなる。 大雑把に言うと、ノイズの多い系列(明らかなループ)では規則性が消えるが、(メモリを使った処理であれば)無印は維持される。普通のmlpは引っかからない、RNNだけ引っかかる。 したがって、mlp, boosting, forest などは、メモリを持たないマルコフ過程に対してのみ有効です。 言語の例:どの言語にも一定レベルのエントロピー、すなわち言語中の単語の交替が存在する。高いレベルでは、寄生虫のような言葉が多い場合や、ピーター・コノフだけの場合など、話し方が支離滅裂になります。そうすると、文脈からしかキャッチできないので、過去の文(パターン)の記憶が必要になってきます。 例えば、私の文章を読んで、ピーターが誰なのか、どういう文脈で書いたのかがわからない。過去の出来事の記憶がなく、現在の文言と関連付けることができないので、間違った結論を出してしまうのです。 Valeriy Yastremskiy 2020.08.24 10:40 #19775 マキシム・ドミトリエフスキー: は、信号対雑音比に依存する。ある時点で、非暗闇を考慮に入れていないため、機能しなくなる。大雑把に言うと、ノイズの多い行では、規則性は無くなるが(明らかなサイクル)、非明示性は保たれる(メモリを持つプロセスであれば)。普通のmlpは引っかからない、RNNだけ引っかかる。したがって、mlp, boosting, forest などは、メモリを持たないマルコフ過程に対してのみ有効です。言語の例:どの言語にも一定レベルのエントロピー、すなわち言語中の単語の交替が存在する。高いレベルでは、寄生虫のような言葉が多い場合や、ピーター・コノフだけの場合など、話し方が支離滅裂になる。そうすると、文脈からしかキャッチできないので、過去の文(パターン)の記憶が必要になってきます。例えば、私の文章を読んで、ピーターが誰なのか、どういう文脈で書いたのかがわからない。過去の出来事の記憶がなく、現在の文言と関連付けることができないので、間違った結論を出してしまう。 もちろん、信号とノイズは決定的なものです。強いノイズの場合、弱い規則性は失われ、見えなくなるだけです。しかし、価格系列の場合、ノイズは外から発生するものではない。ノイズは規則性が薄れたり、強くても弱いものです。しかし、本質が変わるわけではありません。検出できる規則性があり、それ以外はノイズとなる。 Valeriy Yastremskiy 2020.08.24 10:43 #19776 Oleg avtomat: これは大きな誤解です。 確かに、anyという言葉の完全な意味でのanyではありません。ホワイトノイズはここには含まれませんが、私たちも考慮していません。最初は異なる規則性で構成されており、それらは異なる振幅と長さを持つので、ノイズと規則性を持つ系列が存在することになります。 Maxim Dmitrievsky 2020.08.24 10:44 #19777 Valeriy Yastremskiy: もちろん、信号とノイズが決め手です。ノイズが多いと、弱い規則性は失われ、見えなくなる。しかし、価格系列の場合、ノイズは外部に発生しない。ノイズは規則性が薄れたり、強くても弱いものです。しかし、本質が変わるわけではありません。検出できるパターンと、それ以外はノイズです。 信号よりノイズが大きければ、必ず過不足が生じます(検証用サンプリング使用時)。安定したパターンがないからです。 で、ノイズが多くてパターンが少ないときは、信号を分離するようにします。 なぜ、ノイズの多いパターンの列には信号があるのに、あるパターンには信号がないのかを理解するのは、本当に難しい。単純に特徴量(供給される履歴)の数を増やせばいいのです。でも、そんなことはないんです。ノイズにノイズを重ねると、ノイズが発生する。もっと微妙な文脈の抽出が必要なのですが、そこはなぜかうまくいくんです。一言で言えばマジック。 Valeriy Yastremskiy 2020.08.24 10:51 #19778 マキシム・ドミトリエフスキー: まあ、信号よりノイズの方が大きければ、必ずオーバーフィットかアンダーフィット(検証サンプリング使用時)になりますね。安定したパターンがないからです。 しかし、ノイズが多く、パターンが少ない場合は、信号を分離しようとすることになる それが、あらゆる確率論的なテーマにおける検索のポイントであり、パターンを分離し、それが消滅する瞬間を捕らえることなのです。そして、通常、分離する方が問題やコストがかからない)。 Valeriy Yastremskiy 2020.08.25 08:15 #19779 マキシム・ドミトリエフスキー: :з 親切丁寧) Maxim Dmitrievsky 2020.08.25 08:24 #19780 Valeriy Yastremskiy: 懇切丁寧) フルログを取ってるので、何をしてるかわかると思います。 そうすれば、何を改善すればいいのかがわかります。 1...197119721973197419751976197719781979198019811982198319841985...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
RLもねじ込むと、より効果的ですが、とんでもなく大変です)。
一般に、mlpのような従来の逆伝播網は、時系列には全くと言っていいほど適さない。最低限必要なのはRNN文房具に適している)シンプルなものだけにシンプルなロジックが効く。実ランクの場合は、複雑なアルゴリズムが必要です)。
文房具の場合は良い)単純なものには単純な論理しか通用しない。本格的なシリーズには、複雑な頭脳が必要です)。
任意の非定常系列は、任意の長さの定常系列の和として表現することができる。しかし、予測問題では、任意の長さが大きな問題となる。
任意の非定常系列は、任意の長さの定常系列の和として表現 することができる。予測問題では、任意の長さが大きな問題となる。
それは大きな誤解です。
文房具の場合は良い)単純なものには単純な論理しか通用しない。実戦的なシリーズには、複雑な脳が必要です)
は、信号対雑音比に依存する。ある時点で、非暗闇を考慮に入れていないため、機能しなくなる。
大雑把に言うと、ノイズの多い系列(明らかなループ)では規則性が消えるが、(メモリを使った処理であれば)無印は維持される。普通のmlpは引っかからない、RNNだけ引っかかる。
したがって、mlp, boosting, forest などは、メモリを持たないマルコフ過程に対してのみ有効です。
言語の例:どの言語にも一定レベルのエントロピー、すなわち言語中の単語の交替が存在する。高いレベルでは、寄生虫のような言葉が多い場合や、ピーター・コノフだけの場合など、話し方が支離滅裂になります。そうすると、文脈からしかキャッチできないので、過去の文(パターン)の記憶が必要になってきます。
例えば、私の文章を読んで、ピーターが誰なのか、どういう文脈で書いたのかがわからない。過去の出来事の記憶がなく、現在の文言と関連付けることができないので、間違った結論を出してしまうのです。
は、信号対雑音比に依存する。ある時点で、非暗闇を考慮に入れていないため、機能しなくなる。
大雑把に言うと、ノイズの多い行では、規則性は無くなるが(明らかなサイクル)、非明示性は保たれる(メモリを持つプロセスであれば)。普通のmlpは引っかからない、RNNだけ引っかかる。
したがって、mlp, boosting, forest などは、メモリを持たないマルコフ過程に対してのみ有効です。
言語の例:どの言語にも一定レベルのエントロピー、すなわち言語中の単語の交替が存在する。高いレベルでは、寄生虫のような言葉が多い場合や、ピーター・コノフだけの場合など、話し方が支離滅裂になる。そうすると、文脈からしかキャッチできないので、過去の文(パターン)の記憶が必要になってきます。
例えば、私の文章を読んで、ピーターが誰なのか、どういう文脈で書いたのかがわからない。過去の出来事の記憶がなく、現在の文言と関連付けることができないので、間違った結論を出してしまう。
もちろん、信号とノイズは決定的なものです。強いノイズの場合、弱い規則性は失われ、見えなくなるだけです。しかし、価格系列の場合、ノイズは外から発生するものではない。ノイズは規則性が薄れたり、強くても弱いものです。しかし、本質が変わるわけではありません。検出できる規則性があり、それ以外はノイズとなる。
これは大きな誤解です。
確かに、anyという言葉の完全な意味でのanyではありません。ホワイトノイズはここには含まれませんが、私たちも考慮していません。最初は異なる規則性で構成されており、それらは異なる振幅と長さを持つので、ノイズと規則性を持つ系列が存在することになります。
もちろん、信号とノイズが決め手です。ノイズが多いと、弱い規則性は失われ、見えなくなる。しかし、価格系列の場合、ノイズは外部に発生しない。ノイズは規則性が薄れたり、強くても弱いものです。しかし、本質が変わるわけではありません。検出できるパターンと、それ以外はノイズです。
信号よりノイズが大きければ、必ず過不足が生じます(検証用サンプリング使用時)。安定したパターンがないからです。
で、ノイズが多くてパターンが少ないときは、信号を分離するようにします。
なぜ、ノイズの多いパターンの列には信号があるのに、あるパターンには信号がないのかを理解するのは、本当に難しい。単純に特徴量(供給される履歴)の数を増やせばいいのです。でも、そんなことはないんです。ノイズにノイズを重ねると、ノイズが発生する。もっと微妙な文脈の抽出が必要なのですが、そこはなぜかうまくいくんです。一言で言えばマジック。
まあ、信号よりノイズの方が大きければ、必ずオーバーフィットかアンダーフィット(検証サンプリング使用時)になりますね。安定したパターンがないからです。
しかし、ノイズが多く、パターンが少ない場合は、信号を分離しようとすることになるそれが、あらゆる確率論的なテーマにおける検索のポイントであり、パターンを分離し、それが消滅する瞬間を捕らえることなのです。そして、通常、分離する方が問題やコストがかからない)。
:з
親切丁寧)
懇切丁寧)
フルログを取ってるので、何をしてるかわかると思います。
そうすれば、何を改善すればいいのかがわかります。