トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3321 1...331433153316331733183319332033213322332333243325332633273328...3399 新しいコメント Andrey Dik 2023.10.26 12:40 #33201 Maxim Dmitrievsky #:これが基準の最小値/最大値であるということにつながるのですか?これはモデル自体のグローバルな最小/最大値とは何の関係もない。 フローチャートを お願いします。 その基準のグラフで、どこでトレーニングを止める必要があるのか示してください。 lynxntech 2023.10.26 12:41 #33202 ずいぶん先の話だね、 曲を作ってみようと思うんだ。 言いにくいんだ、もう忘れてしまったし、長いんだ、音楽は覚えれば長いメロディーになる: Maxim Dmitrievsky 2023.10.26 12:41 #33203 Andrey Dik #:グラフを見せてくれ。お願いします。このグラフに、トレーニングを中止する基準を示してください。 サンプル全体の基準の最小値で、次はどうしますか? lynxntech 2023.10.26 12:42 #33204 新しい女の子に恋をすると、女性の音楽を聴くようになる。 lynxntech 2023.10.26 12:44 #33205 意味わかる? 本物のAIのスペシャリストには、赤いタバコと緑のコロンが必要なんだ。 Andrey Dik 2023.10.26 12:51 #33206 Maxim Dmitrievsky #:グロスサンプルの最低基準で、次はどうする? ビンゴだ! これでようやく、あらゆる学習は大域的極値探索を伴う最適化にほかならないことに気づいただろう。あるいは、まだ気づいていないかもしれないが、いずれ気づくだろう。 それ以外にはありえない。学習を止めるには常に明確な基準が必要で、この基準は常に大域的極限となるように設計されている。通常は積分基準が設計されます(常にというわけではありません)。あなたは積分基準を命名した。 Maxim Dmitrievsky 2023.10.26 12:54 #33207 Andrey Dik #:ビンゴだ! これでようやく、どんな学習も大域的極限を探索する最適化にほかならないことに気づいただろう。あるいは、まだ気づいていないかもしれないが、いずれ気づくだろう。それ以外にはありえない。学習を止めるには常に明確な基準が必要で、この基準は常に大域的極限となるように設計される。通常は積分基準を設計します(常にではありません)。あなたは積分基準を命名した。 元の投稿はモデルの複雑さについてであって、極限についてではない。あなたは私が書いたことを忘れて自分の線を引っ張っているだけです。 つまり、あなたはまたオシッコハッキング、つまり自分の言葉に合うようにデータを引き伸ばす行為をしているのです。 СанСаныч Фоменко 2023.10.26 12:59 #33208 Andrey Dik #:グラフを見せてくれ。お願いします。このグラフに、トレーニングを中止する基準を示してください。 これはモデルフィッティングエラーの典型的なプロットです。 軸からのオフセットのある値に漸近します。 バイアスの量は、ターゲットと予測変数のペアの特性です。特定のモデルが持つパラメータを最適化することで、いくつかのパンくずを得ることができますが、どのような最適化によっても「ターゲット-予測因子」の特性をジャンプさせることは不可能です。 バイアスが誤差の45%だとすると、モデルのパラメーターを変えて10%少なくすることは不可能である。そしてどんな最適化も役には立たない。 また、誤差が20%の「目標予測値」のペアを見つけることができたとしても、それは何をやっても20%程度になってしまう。 しかもだ。トレーニ ングとバリデーションで誤差が5%以上乖離する場合は、「目標予測値」のペアを意味のある方法で作業する必要があることを意味する。もし収束できないなら、「目標-予測値」のペアは捨てなければならない。 Andrey Dik 2023.10.26 13:08 #33209 Maxim Dmitrievsky #:最初の投稿はモデルの複雑さについてであって、極端さについてではない。あなたは私が書いたことを忘れて、自分の線を引っ張っているだけだ。つまり、また円周率ハッキングをしている、あるいは自分の言葉に合うようにデータを引き伸ばしているのだ。 もともと」とはどういう意味ですか?私たちはモデルの複雑さについて別に議論し、その時、モデルの複雑さを増すことはある時点までしか効果がなく、それ以降は効果が落ちると言い、それは事実であり、はい、私はそれに反論していませんし、それを確認しています。その上で、モデルを大幅に増やせば効率は劇的に向上する可能性があると提案しただけだ。 私はずっと昔から、あらゆる学習は大域的な極限を求める最適化であると言い続けてきたが、あなたはそれを否定した(そして他のいくつかのことも否定した)。今、私はあなたに、学習は大域的極限が見つかったときにのみ停止することができ、そうでなければ単にそれ以外の方法がないことを明確に示した(あなたはいつ学習を停止すればよいのかわからない、そのための基準が必要なのだ)。だからこそ、大域的極値への学習において、停止というメタ基準は最適化の本質なのである。 このことに気づくことで、新しい角度から学習を見ることが可能になる。 Andrey Dik 2023.10.26 13:11 #33210 私の図面には誤りがあり、赤いバルラインはトレインの上にあるはずだ。 1...331433153316331733183319332033213322332333243325332633273328...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
これが基準の最小値/最大値であるということにつながるのですか?これはモデル自体のグローバルな最小/最大値とは何の関係もない。
フローチャートを
お願いします。
その基準のグラフで、どこでトレーニングを止める必要があるのか示してください。
ずいぶん先の話だね、
曲を作ってみようと思うんだ。
言いにくいんだ、もう忘れてしまったし、長いんだ、音楽は覚えれば長いメロディーになる:
グラフを見せてくれ。
お願いします。
このグラフに、トレーニングを中止する基準を示してください。
サンプル全体の基準の最小値で、次はどうしますか?
意味わかる?
本物のAIのスペシャリストには、赤いタバコと緑のコロンが必要なんだ。
グロスサンプルの最低基準で、次はどうする?
ビンゴだ!
これでようやく、あらゆる学習は大域的極値探索を伴う最適化にほかならないことに気づいただろう。あるいは、まだ気づいていないかもしれないが、いずれ気づくだろう。
それ以外にはありえない。学習を止めるには常に明確な基準が必要で、この基準は常に大域的極限となるように設計されている。通常は積分基準が設計されます(常にというわけではありません)。あなたは積分基準を命名した。
ビンゴだ!
これでようやく、どんな学習も大域的極限を探索する最適化にほかならないことに気づいただろう。あるいは、まだ気づいていないかもしれないが、いずれ気づくだろう。
それ以外にはありえない。学習を止めるには常に明確な基準が必要で、この基準は常に大域的極限となるように設計される。通常は積分基準を設計します(常にではありません)。あなたは積分基準を命名した。
元の投稿はモデルの複雑さについてであって、極限についてではない。あなたは私が書いたことを忘れて自分の線を引っ張っているだけです。
つまり、あなたはまたオシッコハッキング、つまり自分の言葉に合うようにデータを引き伸ばす行為をしているのです。
グラフを見せてくれ。
お願いします。
このグラフに、トレーニングを中止する基準を示してください。
これはモデルフィッティングエラーの典型的なプロットです。
軸からのオフセットのある値に漸近します。
バイアスの量は、ターゲットと予測変数のペアの特性です。特定のモデルが持つパラメータを最適化することで、いくつかのパンくずを得ることができますが、どのような最適化によっても「ターゲット-予測因子」の特性をジャンプさせることは不可能です。
バイアスが誤差の45%だとすると、モデルのパラメーターを変えて10%少なくすることは不可能である。そしてどんな最適化も役には立たない。
また、誤差が20%の「目標予測値」のペアを見つけることができたとしても、それは何をやっても20%程度になってしまう。
しかもだ。トレーニ ングとバリデーションで誤差が5%以上乖離する場合は、「目標予測値」のペアを意味のある方法で作業する必要があることを意味する。もし収束できないなら、「目標-予測値」のペアは捨てなければならない。
最初の投稿はモデルの複雑さについてであって、極端さについてではない。あなたは私が書いたことを忘れて、自分の線を引っ張っているだけだ。
つまり、また円周率ハッキングをしている、あるいは自分の言葉に合うようにデータを引き伸ばしているのだ。
もともと」とはどういう意味ですか?私たちはモデルの複雑さについて別に議論し、その時、モデルの複雑さを増すことはある時点までしか効果がなく、それ以降は効果が落ちると言い、それは事実であり、はい、私はそれに反論していませんし、それを確認しています。その上で、モデルを大幅に増やせば効率は劇的に向上する可能性があると提案しただけだ。
私はずっと昔から、あらゆる学習は大域的な極限を求める最適化であると言い続けてきたが、あなたはそれを否定した(そして他のいくつかのことも否定した)。今、私はあなたに、学習は大域的極限が見つかったときにのみ停止することができ、そうでなければ単にそれ以外の方法がないことを明確に示した(あなたはいつ学習を停止すればよいのかわからない、そのための基準が必要なのだ)。だからこそ、大域的極値への学習において、停止というメタ基準は最適化の本質なのである。
このことに気づくことで、新しい角度から学習を見ることが可能になる。