トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2827 1...282028212822282328242825282628272828282928302831283228332834...3399 新しいコメント mytarmailS 2022.12.04 02:23 #28261 https://youtu.be/4yrp71kAZxU. Aleksey Vyazmikin 2022.12.04 04:10 #28262 mytarmailS #: https:// youtu.be/4yrp71kAZxU . では、何がそんなに面白いのか? Andrey Dik 2022.12.05 08:00 #28263 ニューロンをトレーニングするとき、それが地元のどこかに引っかかっていないと確信できるか? Maxim Dmitrievsky 2022.12.05 10:11 #28264 Andrey Dik #: ニューロンをトレーニングしているとき、それが地元のどこかで止まっているのではないと確信できるか? ニューロニックでは、バッチに分割することで、以下のことを避けることができる。他の最適化アルゴリズムでも、何回か実行したり、バッチに分けたりすることは有効である。さらに、勾配ステップを調整するなどのトリックも有効だ。 それでも、ハイパーパラメータを変更することによって最適値の近傍を探索し、システムがどの程度生存可能かを確認する必要がある。 mytarmailS 2022.12.06 08:53 #28265 バッチに分ける最適化アルゴリズム?) Andrey Dik 2022.12.06 09:25 #28266 Maxim Dmitrievsky #:ニューロニクスの場合、バッチに分割することで、それを避けることができる。他の最適化アルゴリズムでは、以下のように、何度か実行したり、バッチに分割したりすることも有効だ。さらに、勾配ステップを調整したり、他のトリックを使ったりすることもできる。 それでも、ハイパーパラメータを変えて最適値の近傍を探索し、システムがどの程度生き残れるかを確認する必要がある。 バッチって何ですか? つまり、神経細胞がどこかでスタックしていないことをどうやって確認するのですか? ジャミングに対する耐性をテストするのですか? Maxim Dmitrievsky 2022.12.06 09:31 #28267 Andrey Dik #:バッチとは何ですか?そうじゃなくて、神経細胞がどこかに引っかからないかどうか、どうやって確認するんですか? 引っ掛かることに対する抵抗力がテストされるんですか? 新しいデータでテストされるんだ。例えば、早期停止によってね。 例えば、学習データで誤差が減少し、新しいデータで誤差が増加し始めたら、その時点で停止させます。新しいデータで誤差が大きくならない限り、まだスタックしていないということだ。 バッチとは学習用データのパケットである。データセット全体を一度に学習する必要はなく、データをパケットに分割し、各反復で学習することができる。 各パケットの最適値は異なるので、平均値はすべてのパケットで最適値より低くなる。 原理的に何が最適かを判断するのはちょっと難しい。また、サンプルがシフトしている場合、どうすればよいのでしょうか? シフトした部分サンプルで、この全体最適を見つけるにはどうすればよいのでしょうか? まあ、質問が原理的に最適化アルゴリズムに関するものであれば、その質問は正しい。しかし、そうなると、サンプルをシフトし始めることになり、この質問以上の問題が生じることになる。 理論から実践に少し踏み込めば :) Andrey Dik 2022.12.06 10:07 #28268 Maxim Dmitrievsky #:が新しいデータでテストされる。例えば、トレーニング・データで誤差が減少し、新しいデータで誤差が増加し始めた場合などである。新しいデータで誤差が大きくならない限り、まだ行き詰まっていないことを意味する。バッチとは学習用データのパケットである。データセット全体を一度に学習する必要はなく、データをパケットに分割し、各反復で学習することができる。各パケットの最適値は異なるので、平均値はすべてのパケットで最適値より小さくなる。原理的に何が最適かを判断するのはちょっと難しい。また、サンプルがシフトしている場合、どうすればよいのでしょうか? シフトしたサブサンプルでこの全体最適を見つけるにはどうすればよいのでしょうか?まあ、質問が原理的に最適化アルゴリズムに関するものであれば、その質問は正しい。しかし、サンプルをシフトし始めると、この質問以上の問題が生じる。理論から実践に少し踏み込めば :) ジャム抵抗をチェックする方法はありません。 あなたの言う「トレーニングでエラーが減少し、新しいトレーニングでエラーが増加し始める」というのは、ジャミングのテストではなく、単にトレーニングを停止するための基準です。 私の質問は、ここでの人々がニューロンを訓練するために使用する最適化アルゴリズムに関するものであり、新しいデータに対するニューロンの安定性を高めることに関するものではありません。) Maxim Dmitrievsky 2022.12.06 10:10 #28269 Andrey Dik #:妨害耐性をテストする方法はない。あなたの言う「トレーニングしたものでは誤差が減少し、新しいものでは誤差が増加し始める」というのは、妨害のテストではなく、トレーニングを中止する基準に過ぎない。私の質問は、ここでの人々がニューロンを訓練するために使用する最適化アルゴリズムに関するものであり、新しいデータに対するニューロンの安定性を高めることに関するものではありません。) そうですね、まるで議論されていませんね。ニューロニューロンで最もポピュラーなのはアダム最適化アルゴリズムだ。たぶん、あなたもそれをテストすることができます Andrey Dik 2022.12.06 10:26 #28270 Maxim Dmitrievsky #: まあ、そんなところだ。ニューロンでは、最もポピュラーなのはアダム最適化アルゴリズムだ。あなたも何とかテストできるかもしれない ほら、まったく議論されていない。 実際には、これはニューロンの訓練が不十分であることを意味 します。つまり、新しいデータに対する誤差が、より妨害に強いAOを使用した場合よりも早く成長し始めるということです。 1...282028212822282328242825282628272828282928302831283228332834...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
https:// youtu.be/4yrp71kAZxU
では、何がそんなに面白いのか?
ニューロンをトレーニングしているとき、それが地元のどこかで止まっているのではないと確信できるか?
ニューロニックでは、バッチに分割することで、以下のことを避けることができる。
他の最適化アルゴリズムでも、何回か実行したり、バッチに分けたりすることは有効である。
さらに、勾配ステップを調整するなどのトリックも有効だ。
それでも、ハイパーパラメータを変更することによって最適値の近傍を探索し、システムがどの程度生存可能かを確認する必要がある。ニューロニクスの場合、バッチに分割することで、それを避けることができる。
他の最適化アルゴリズムでは、以下のように、何度か実行したり、バッチに分割したりすることも有効だ。
さらに、勾配ステップを調整したり、他のトリックを使ったりすることもできる。
それでも、ハイパーパラメータを変えて最適値の近傍を探索し、システムがどの程度生き残れるかを確認する必要がある。バッチって何ですか?
つまり、神経細胞がどこかでスタックしていないことをどうやって確認するのですか? ジャミングに対する耐性をテストするのですか?
バッチとは何ですか?
そうじゃなくて、神経細胞がどこかに引っかからないかどうか、どうやって確認するんですか? 引っ掛かることに対する抵抗力がテストされるんですか?
新しいデータでテストされるんだ。例えば、早期停止によってね。
例えば、学習データで誤差が減少し、新しいデータで誤差が増加し始めたら、その時点で停止させます。新しいデータで誤差が大きくならない限り、まだスタックしていないということだ。
バッチとは学習用データのパケットである。データセット全体を一度に学習する必要はなく、データをパケットに分割し、各反復で学習することができる。
各パケットの最適値は異なるので、平均値はすべてのパケットで最適値より低くなる。
原理的に何が最適かを判断するのはちょっと難しい。また、サンプルがシフトしている場合、どうすればよいのでしょうか? シフトした部分サンプルで、この全体最適を見つけるにはどうすればよいのでしょうか?
まあ、質問が原理的に最適化アルゴリズムに関するものであれば、その質問は正しい。しかし、そうなると、サンプルをシフトし始めることになり、この質問以上の問題が生じることになる。
理論から実践に少し踏み込めば :)
が新しいデータでテストされる。
例えば、トレーニング・データで誤差が減少し、新しいデータで誤差が増加し始めた場合などである。新しいデータで誤差が大きくならない限り、まだ行き詰まっていないことを意味する。
バッチとは学習用データのパケットである。データセット全体を一度に学習する必要はなく、データをパケットに分割し、各反復で学習することができる。
各パケットの最適値は異なるので、平均値はすべてのパケットで最適値より小さくなる。
原理的に何が最適かを判断するのはちょっと難しい。また、サンプルがシフトしている場合、どうすればよいのでしょうか? シフトしたサブサンプルでこの全体最適を見つけるにはどうすればよいのでしょうか?
まあ、質問が原理的に最適化アルゴリズムに関するものであれば、その質問は正しい。しかし、サンプルをシフトし始めると、この質問以上の問題が生じる。
理論から実践に少し踏み込めば :)
ジャム抵抗をチェックする方法はありません。
あなたの言う「トレーニングでエラーが減少し、新しいトレーニングでエラーが増加し始める」というのは、ジャミングのテストではなく、単にトレーニングを停止するための基準です。
私の質問は、ここでの人々がニューロンを訓練するために使用する最適化アルゴリズムに関するものであり、新しいデータに対するニューロンの安定性を高めることに関するものではありません。)
妨害耐性をテストする方法はない。
あなたの言う「トレーニングしたものでは誤差が減少し、新しいものでは誤差が増加し始める」というのは、妨害のテストではなく、トレーニングを中止する基準に過ぎない。
私の質問は、ここでの人々がニューロンを訓練するために使用する最適化アルゴリズムに関するものであり、新しいデータに対するニューロンの安定性を高めることに関するものではありません。)
まあ、そんなところだ。ニューロンでは、最もポピュラーなのはアダム最適化アルゴリズムだ。あなたも何とかテストできるかもしれない
ほら、まったく議論されていない。
実際には、これはニューロンの訓練が不十分であることを意味 します。つまり、新しいデータに対する誤差が、より妨害に強いAOを使用した場合よりも早く成長し始めるということです。