トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2828 1...282128222823282428252826282728282829283028312832283328342835...3399 新しいコメント Andrey Dik 2022.12.06 10:30 #28271 ああ、暇があったらアダムを見て、テストしてみるよ。 Maxim Dmitrievsky 2022.12.06 10:38 #28272 Andrey Dik #: ああ、今度暇があったらアダムを見て、テストしてみるよ。 記事はトップだけど、何かを主張する資格はないんだ :) Andrey Dik 2022.12.06 10:49 #28273 Maxim Dmitrievsky #: 記事はトップだが、ただ何かに異議を唱える資格はない :) ありがとう))) それなら、伝統的にニューロンで使われてきたアルゴリズムもレビューに含める必要があると思います。 mytarmailS 2022.12.06 10:54 #28274 Andrey Dik #:実際には、これはニューロンの訓練が不十分であることを意味する。 まあ、それは余計なお世話だが。 AOにはローカル最適化とグローバル最適化という種類がある。 ローカルは勾配、同じアダムなど...グローバルは遺伝学など...。 ネットワークがローカルAOでトレーニングされるのは、それが速いからだ。 ネットワークがローカルAOで訓練されるのは、高速で「重みが多い」からで、グローバルAOを訓練するのは効率が悪いからだ。 そして重要な のは、10億個の重みがある通常のニューロンをグローバルAOで訓練すると、第一に、長い時間を待たなければならないし、第二に、グローバル最小値を見つけたという保証はどこにもないということだ...。 ディープラーニングを作った人たちは、大域的最適化アルゴリズムとその特性について知らないのだ、というSUPERの素朴な信念。 大域的最適化アルゴリズムと局所的最適化アルゴリズムの区別を学び、離散的最適化、連続的最適化、多基準最適化などがある。 そして、それぞれにタスクがあり、すべてを山積みにし、何かをテストすることは冒涜である。 Andrey Dik 2022.12.06 11:00 #28275 mytarmailS #:まあ、それは余計なお世話だけどね。AOにはローカル・オプティマイゼーション(局所最適化)とグローバル・オプティマイゼーション(全体最適化)という異なるタイプがある......。ローカルはグラデーション、同じアダムなど、グローバルはジェネティクスなど...。ネットワークがローカルでトレーニングされるのは、それが速いからであり、「スケールが大きい」からだ。グローバルなAOをトレーニングするのは効率的ではないのだ。そして最大の ポイントは、約10億の重みを持つ通常のニューロンをグローバルAOで訓練すると、第一に、長い時間を待たなければならないこと、第二に、グローバル最小値を見つけたという保証がどうにもできないことだ...。ディープラーニングを開発した人たちが、グローバル最適化アルゴリズムとその特性について知らないというSUPERの素朴な信念は、当たり前すぎて笑い話にもならない。 ひどい話だ。 アルゴリズムに "ローカル "と "グローバル "の区分はない。もしアルゴリズムがローカルの極限のひとつにはまり込んだら、それは欠陥であって特徴ではない。 アルゴリズムは通常特定のタスクに使用されるが、例外なくすべてのアルゴリズムを収束性の観点から比較することができる。 Forester 2022.12.06 11:01 #28276 Andrey Dik #:ありがとう)))それなら、伝統的にニューロンで使われてきたアルゴリズムもレビューに含める必要があるね。 以前読んだ本によると、誤差が何サイクルかあまり変化しない場合、つまり極値付近にある場合、それが局所的かどうかをチェックするために、パラメータを強くジャンプしてこの極値から飛び出す。ローカルであれば、次のジャンプでそこに戻ることはなく、グローバルであれば戻る。これを何度か繰り返す。一般的には、より広く空間を探索する必要がある。 СанСаныч Фоменко 2022.12.06 11:04 #28277 Andrey Dik #:それはひどい。 アルゴリズムに「局所的」と「大域的」という区分はありません。アルゴリズムが局所的極値のひとつにはまり込んだ場合、それは欠陥であって特徴ではありません。 勾配降下アルゴリズムが使われているが、これは一般的なもので、ニューロン用ではない。ググって、勾配降下がどのように局所極限のさまざまな種類の罠を克服するのかを学んだ上で、子供じみた質問をしないでほしい。これは、何年もの間、人々が具体的に行ってきたことなのだ。 Andrey Dik 2022.12.06 11:06 #28278 elibrarius #: 以前読んだ本によると、誤差が数サイクルの間あまり変化しない場合、つまり極値を中心に回っている場合、それが局所的なものであるかどうかをチェックするために、パラメータを強くジャンプさせてこの極値から飛び出す。ローカルであれば、次のジャンプでそこに戻ることはなく、グローバルであれば戻る。何度か繰り返すことができる。一般的には、より広く空間を探索する必要がある。 ああ、その通りだ。 それが行き詰まらないための一つの方法だ。 ところで、先日リヴァイのフライトを見ていたんだが、このトピックのものだ。 Maxim Dmitrievsky 2022.12.06 11:08 #28279 例えば、アダム対遺伝学やアリのコロニーなど、興味深い比較があります。トレーダーは、MT5オプティマイザーとNSのどちらを使うかというジレンマに陥るかもしれない。たとえ何かを選んだとしても、最も効率的なアルゴリズムを選びたいだろう。 mytarmailS 2022.12.06 11:18 #28280 Andrey Dik #:それはひどい。 アルゴリズムに「局所的」と「大域的」という区分はありません。アルゴリズムが局所的極値のひとつにはまり込んだ場合、それは欠陥であって特徴ではありません。アルゴリズムは通常特定のタスクに使用されるが、例外なくすべてのアルゴリズムを収束性の観点から比較することができる。 まあ、全部で5つですね )))))))) マキシムカと同じ大学なの? 1...282128222823282428252826282728282829283028312832283328342835...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
ああ、今度暇があったらアダムを見て、テストしてみるよ。
記事はトップだが、ただ何かに異議を唱える資格はない :)
ありがとう)))
それなら、伝統的にニューロンで使われてきたアルゴリズムもレビューに含める必要があると思います。
実際には、これはニューロンの訓練が不十分であることを意味する。
まあ、それは余計なお世話だが。
AOにはローカル最適化とグローバル最適化という種類がある。
ローカルは勾配、同じアダムなど...グローバルは遺伝学など...。
ネットワークがローカルAOでトレーニングされるのは、それが速いからだ。
ネットワークがローカルAOで訓練されるのは、高速で「重みが多い」からで、グローバルAOを訓練するのは効率が悪いからだ。
そして重要な のは、10億個の重みがある通常のニューロンをグローバルAOで訓練すると、第一に、長い時間を待たなければならないし、第二に、グローバル最小値を見つけたという保証はどこにもないということだ...。
ディープラーニングを作った人たちは、大域的最適化アルゴリズムとその特性について知らないのだ、というSUPERの素朴な信念。
大域的最適化アルゴリズムと局所的最適化アルゴリズムの区別を学び、離散的最適化、連続的最適化、多基準最適化などがある。
そして、それぞれにタスクがあり、すべてを山積みにし、何かをテストすることは冒涜である。
まあ、それは余計なお世話だけどね。
AOにはローカル・オプティマイゼーション(局所最適化)とグローバル・オプティマイゼーション(全体最適化)という異なるタイプがある......。
ローカルはグラデーション、同じアダムなど、グローバルはジェネティクスなど...。
ネットワークがローカルでトレーニングされるのは、それが速いからであり、「スケールが大きい」からだ。
グローバルなAOをトレーニングするのは効率的ではないのだ。
そして最大の ポイントは、約10億の重みを持つ通常のニューロンをグローバルAOで訓練すると、第一に、長い時間を待たなければならないこと、第二に、グローバル最小値を見つけたという保証がどうにもできないことだ...。
ディープラーニングを開発した人たちが、グローバル最適化アルゴリズムとその特性について知らないというSUPERの素朴な信念は、当たり前すぎて笑い話にもならない。
ひどい話だ。
アルゴリズムに "ローカル "と "グローバル "の区分はない。もしアルゴリズムがローカルの極限のひとつにはまり込んだら、それは欠陥であって特徴ではない。
アルゴリズムは通常特定のタスクに使用されるが、例外なくすべてのアルゴリズムを収束性の観点から比較することができる。
ありがとう)))
それなら、伝統的にニューロンで使われてきたアルゴリズムもレビューに含める必要があるね。
それはひどい。
アルゴリズムに「局所的」と「大域的」という区分はありません。アルゴリズムが局所的極値のひとつにはまり込んだ場合、それは欠陥であって特徴ではありません。
勾配降下アルゴリズムが使われているが、これは一般的なもので、ニューロン用ではない。ググって、勾配降下がどのように局所極限のさまざまな種類の罠を克服するのかを学んだ上で、子供じみた質問をしないでほしい。これは、何年もの間、人々が具体的に行ってきたことなのだ。
以前読んだ本によると、誤差が数サイクルの間あまり変化しない場合、つまり極値を中心に回っている場合、それが局所的なものであるかどうかをチェックするために、パラメータを強くジャンプさせてこの極値から飛び出す。ローカルであれば、次のジャンプでそこに戻ることはなく、グローバルであれば戻る。何度か繰り返すことができる。一般的には、より広く空間を探索する必要がある。
それはひどい。
アルゴリズムに「局所的」と「大域的」という区分はありません。アルゴリズムが局所的極値のひとつにはまり込んだ場合、それは欠陥であって特徴ではありません。
アルゴリズムは通常特定のタスクに使用されるが、例外なくすべてのアルゴリズムを収束性の観点から比較することができる。
まあ、全部で5つですね ))))))))
マキシムカと同じ大学なの?