トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3317 1...331033113312331333143315331633173318331933203321332233233324...3399 新しいコメント СанСаныч Фоменко 2023.10.26 11:27 #33161 Andrey Dik #:そこにいろ。君以外はみんなバカだから、質問に答えるのは君だ。あれは何?あそこの赤い赤みは何?丸くて赤い、あそこ。 こんなグラフ見たことない。 虚構主義者め、ありもしないことをでっち上げて無理やり議論している。 ここで何年もボヤくより、実際に何かのモデルからそのようなグラフを得るのが普通だ。 Maxim Dmitrievsky 2023.10.26 11:29 #33162 つまり、あなたのグラフのグローバル・ローでは、シャフトカーブが可能な限り上に行くため、大きなオーバートレーニングが発生する。 Aleksey Vyazmikin 2023.10.26 11:54 #33163 Andrey Dik #: 学習とは、関数の一部のメンバーなしで関数の答えを見つけることだと考えていますが、正しく理解していますか? たとえば,A+B+C=Yのオブザベーションがあり,AとBは予測変数で,Cは未知である.最適化を通してサンプルの答え(マークアップ)を知り,NSの場合は係数による乗算を含む操作,または相互ルールを通して表現できるC値の補償を選択する.すなわち、欠落している変数を置換し、正しい答えに近づくために、関数を積極的に調査する。サンプルにおける関数計算の結果は、十分に代表的なものであり、その結果を新しいデータに使用することができると仮定される。 しかしながら、テスターでの最適化の場合、我々は、変数の値を変更することができます(本質的にそれらを関数として表現します)、我々はそれらを知らないと仮定して、あるいは、どれがY値を近似するルールの形で我々の代償関数により重みを与えるかさえ知っています。 Maxim Dmitrievsky 2023.10.26 11:58 #33164 ティーチャーが何であるかはすでに知っているので、今一度アンドリューのために写真を撮ろう。 https://ru.wikipedia.org/wiki/%D0%94%D0%B8%D0%BB%D0%B5%D0%BC%D0%BC%D0%B0_%D1%81%D0%BC%D0%B5%D1%89%D0%B5%D0%BD%D0%B8%D1%8F%E2%80%93%D0%B4%D0%B8%D1%81%D0%BF%D0%B5%D1%80%D1%81%D0%B8%D0%B8 Maxim Dmitrievsky 2023.10.26 12:00 #33165 チャットGPTから さらなる質問。 Max, [2023/10/26, 18:59:31]です: 変位-分散ジレンマはグローバルミニマムを見つけることにどう関係しますか? ChatGPTとMidjourney|AIボット、[2023年10月26日 18:59:38]: 偏り-分散のジレンマとは、機械学習におけるモデル選択問題のことです。モデルの複雑さが増す(例えば、新しい特徴を追加したり、パラメータ数を増やしたりする)と、モデルの予測値の分散(広がり)が増えますが、より単純なモデルに偏り(誤差)が生じる可能性があることを示しています。 一方、グローバル・ミニマムを見つけるとは、モデルのパラメータを最適化することです。目標は、誤差関数の最小値が達成されるパラメータ値を選択することです。しかし、パラメータの数が多く、モデルが複雑な場合、グローバル・ミニマムを求めることは困難であるか、不可能でさえある。 このように、バイアスと分散のジレンマとグローバルミニマムの探索は、機械学習問題に対して複雑すぎるモデルを選択するとオーバートレーニング問題(高分散)を引き起こし、単純すぎるモデルを使用するとアンダートレーニング問題(高バイアス)を引き起こすという点で関連している。これはグローバル・ミニマムの発見を困難にし、最適な結果をもたらさない。したがって、最適な結果を得るためには、モデルの複雑さとデータを汎化する能力のバランスを見つけることが重要である。 Maxim Dmitrievsky 2023.10.26 12:04 #33166 Max, [2023年10月26日 19時03分50秒]: この場合、最適モデルはグローバルミニマムに対応するはずですが、そうではありませんか? ChatGPT & Midjourney|AIボット, [2023年10月26日 19時03分54秒]: いいえ、最適なモデルは必ずしもグローバルミニマムに一致するわけではありません。場合によっては、特にデータにノイズがある場合、モデルを再トレーニングすることでグローバルミニマムを達成することができます。そのようなモデルは、訓練データでは高い精度を示すかもしれませんが、新しい例に対するデータの汎化がうまくいきません。 その代わり、最適なモデルはグローバル・ミニマムに近いが、分散とバイアスが小さいものでなければならない。そのようなモデルは、新しいデータに対して安定した正確な予測を行います。したがって、最適モデルを選択する際には、訓練データに対するモデルの精度だけでなく、新しい例に対する汎化能力も考慮することが重要である。 Andrey Dik 2023.10.26 12:04 #33167 Aleksey Vyazmikin #:学習とは、関数の一部のメンバーなしで関数の答えを見つけることだと、私は正しく理解していますか?たとえば,A+B+C=Yのオブザベーションがあり,AとBは予測変数で,Cは未知である.最適化を通してサンプルの答え(マークアップ)を知ることで,我々はC値の補償を選択する.すなわち、欠落した変数を置き換え、正しい答えに近づくために、関数を積極的に調査する。また、サンプルの関数計算の結果が十分に代表的であることが前提であり、その結果、新しいデータで使用することが可能になる。しかしながら、テスターでの最適化の場合、我々は変数の値を変更することができます(本質的にそれらを関数として表現します)。 質問の意味がよくわかりません。明確にしてください。 Aleksey Vyazmikin 2023.10.26 12:06 #33168 Maxim Dmitrievsky chatGPTに 聞く。 マックス、[2023年10月26日 18:59:31]:変位-分散ジレンマはグローバルミニマムの探索にどのように関係しますか?ChatGPT & Midjourney|AI bot, [26 Oct 2023, 18:59:38]:偏り-分散のジレンマとは、機械学習におけるモデル選択問題のことです。モデルの複雑さが増す(例えば、新しい特徴を追加したり、パラメーターの数を増やしたりする)と、モデルの予測値の分散(広がり)が増えますが、より単純なモデルに偏り(誤差)が生じる可能性があることを示します。 回帰ではなく、分類における誤差の分散(広がり)を考慮することはどのように提案されていますか? Andrey Dik 2023.10.26 12:06 #33169 Maxim Dmitrievsky #:マックス、[2023年10月26日 19:03:50]:この場合、最適なモデルはグローバルミニマムに対応するはずですが、そうではありませんか?ChatGPT&Midjourney|AIボット、[2023年10月26日 19:03:54]:いいえ、最適モデルは必ずしもグローバルミニマムに一致するわけではありません。場合によっては、特にデータにノイズがある場合、モデルを再トレーニングすることでグローバルミニマムを達成することができます。そのようなモデルは、訓練データでは高い精度を示すかもしれませんが、新しい例に対するデータの汎化には不十分です。その代わり、最適なモデルはグローバル・ミニマムに近いが、分散とバイアスが小さいものでなければならない。そのようなモデルは、新しいデータに対して安定した正確な予測を行います。したがって、最適モデルを選択する際には、訓練データに対するモデルの精度だけでなく、新しい例に対する汎化能力も考慮することが重要である。 GPTに尋ねよう、いつトレーニングをやめるべきか?あなたはまだその質問に自分で答えていない。 Aleksey Vyazmikin 2023.10.26 12:06 #33170 Andrey Dik #:質問の意味がよくわかりません。はっきりさせてください。 つまり、私の計算は正しくなく、答えは「ノー」である。 1...331033113312331333143315331633173318331933203321332233233324...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
そこにいろ。君以外はみんなバカだから、質問に答えるのは君だ。
あれは何?あそこの赤い赤みは何?丸くて赤い、あそこ。
こんなグラフ見たことない。
虚構主義者め、ありもしないことをでっち上げて無理やり議論している。
ここで何年もボヤくより、実際に何かのモデルからそのようなグラフを得るのが普通だ。
学習とは、関数の一部のメンバーなしで関数の答えを見つけることだと考えていますが、正しく理解していますか?
たとえば,A+B+C=Yのオブザベーションがあり,AとBは予測変数で,Cは未知である.最適化を通してサンプルの答え(マークアップ)を知り,NSの場合は係数による乗算を含む操作,または相互ルールを通して表現できるC値の補償を選択する.すなわち、欠落している変数を置換し、正しい答えに近づくために、関数を積極的に調査する。サンプルにおける関数計算の結果は、十分に代表的なものであり、その結果を新しいデータに使用することができると仮定される。
しかしながら、テスターでの最適化の場合、我々は、変数の値を変更することができます(本質的にそれらを関数として表現します)、我々はそれらを知らないと仮定して、あるいは、どれがY値を近似するルールの形で我々の代償関数により重みを与えるかさえ知っています。
ティーチャーが何であるかはすでに知っているので、今一度アンドリューのために写真を撮ろう。
https://ru.wikipedia.org/wiki/%D0%94%D0%B8%D0%BB%D0%B5%D0%BC%D0%BC%D0%B0_%D1%81%D0%BC%D0%B5%D1%89%D0%B5%D0%BD%D0%B8%D1%8F%E2%80%93%D0%B4%D0%B8%D1%81%D0%BF%D0%B5%D1%80%D1%81%D0%B8%D0%B8
チャットGPTから さらなる質問。
Max, [2023/10/26, 18:59:31]です:
変位-分散ジレンマはグローバルミニマムを見つけることにどう関係しますか?
ChatGPTとMidjourney|AIボット、[2023年10月26日 18:59:38]:
偏り-分散のジレンマとは、機械学習におけるモデル選択問題のことです。モデルの複雑さが増す(例えば、新しい特徴を追加したり、パラメータ数を増やしたりする)と、モデルの予測値の分散(広がり)が増えますが、より単純なモデルに偏り(誤差)が生じる可能性があることを示しています。
一方、グローバル・ミニマムを見つけるとは、モデルのパラメータを最適化することです。目標は、誤差関数の最小値が達成されるパラメータ値を選択することです。しかし、パラメータの数が多く、モデルが複雑な場合、グローバル・ミニマムを求めることは困難であるか、不可能でさえある。
このように、バイアスと分散のジレンマとグローバルミニマムの探索は、機械学習問題に対して複雑すぎるモデルを選択するとオーバートレーニング問題(高分散)を引き起こし、単純すぎるモデルを使用するとアンダートレーニング問題(高バイアス)を引き起こすという点で関連している。これはグローバル・ミニマムの発見を困難にし、最適な結果をもたらさない。したがって、最適な結果を得るためには、モデルの複雑さとデータを汎化する能力のバランスを見つけることが重要である。
Max, [2023年10月26日 19時03分50秒]:
この場合、最適モデルはグローバルミニマムに対応するはずですが、そうではありませんか?
ChatGPT & Midjourney|AIボット, [2023年10月26日 19時03分54秒]:
いいえ、最適なモデルは必ずしもグローバルミニマムに一致するわけではありません。場合によっては、特にデータにノイズがある場合、モデルを再トレーニングすることでグローバルミニマムを達成することができます。そのようなモデルは、訓練データでは高い精度を示すかもしれませんが、新しい例に対するデータの汎化がうまくいきません。
その代わり、最適なモデルはグローバル・ミニマムに近いが、分散とバイアスが小さいものでなければならない。そのようなモデルは、新しいデータに対して安定した正確な予測を行います。したがって、最適モデルを選択する際には、訓練データに対するモデルの精度だけでなく、新しい例に対する汎化能力も考慮することが重要である。
学習とは、関数の一部のメンバーなしで関数の答えを見つけることだと、私は正しく理解していますか?
たとえば,A+B+C=Yのオブザベーションがあり,AとBは予測変数で,Cは未知である.最適化を通してサンプルの答え(マークアップ)を知ることで,我々はC値の補償を選択する.すなわち、欠落した変数を置き換え、正しい答えに近づくために、関数を積極的に調査する。また、サンプルの関数計算の結果が十分に代表的であることが前提であり、その結果、新しいデータで使用することが可能になる。
しかしながら、テスターでの最適化の場合、我々は変数の値を変更することができます(本質的にそれらを関数として表現します)。
質問の意味がよくわかりません。明確にしてください。
マックス、[2023年10月26日 18:59:31]:
変位-分散ジレンマはグローバルミニマムの探索にどのように関係しますか?
ChatGPT & Midjourney|AI bot, [26 Oct 2023, 18:59:38]:
偏り-分散のジレンマとは、機械学習におけるモデル選択問題のことです。モデルの複雑さが増す(例えば、新しい特徴を追加したり、パラメーターの数を増やしたりする)と、モデルの予測値の分散(広がり)が増えますが、より単純なモデルに偏り(誤差)が生じる可能性があることを示します。
回帰ではなく、分類における誤差の分散(広がり)を考慮することはどのように提案されていますか?
マックス、[2023年10月26日 19:03:50]:
この場合、最適なモデルはグローバルミニマムに対応するはずですが、そうではありませんか?
ChatGPT&Midjourney|AIボット、[2023年10月26日 19:03:54]:
いいえ、最適モデルは必ずしもグローバルミニマムに一致するわけではありません。場合によっては、特にデータにノイズがある場合、モデルを再トレーニングすることでグローバルミニマムを達成することができます。そのようなモデルは、訓練データでは高い精度を示すかもしれませんが、新しい例に対するデータの汎化には不十分です。
その代わり、最適なモデルはグローバル・ミニマムに近いが、分散とバイアスが小さいものでなければならない。そのようなモデルは、新しいデータに対して安定した正確な予測を行います。したがって、最適モデルを選択する際には、訓練データに対するモデルの精度だけでなく、新しい例に対する汎化能力も考慮することが重要である。
GPTに尋ねよう、いつトレーニングをやめるべきか?あなたはまだその質問に自分で答えていない。
質問の意味がよくわかりません。はっきりさせてください。
つまり、私の計算は正しくなく、答えは「ノー」である。