トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3307 1...330033013302330333043305330633073308330933103311331233133314...3399 新しいコメント Aleksey Nikolayev 2023.10.15 11:46 #33061 Aleksey Vyazmikin #:では、誰もこのようなテストを行おうと思わなかったのか? なぜこのような検定が常に存在していたと思い込んでいるのだろうか?ほとんどの統計検定は、理論家が誕生した後の20世紀になって初めて発明された(そして最も重要なことは、正当化された)。一方、フーリエ分解はその100年前に発明された。 Aleksey Nikolayev 2023.10.15 11:50 #33062 mytarmailS #:ずっと探していたんだ。)https://www.mql5.com/ru/forum/86386/page1056#comment_8678465 シュリク、コルドゥン、...どんな人たちだったんだろう?) mytarmailS 2023.10.15 11:54 #33063 Aleksey Nikolayev #: シュリク、コルドゥン、...)彼らはどんな人たちだったのだろう?) アレクセイ・ブルナコフ、トレーダー博士... 一人は数百人の価値がある... Andrey Dik 2023.10.15 11:57 #33064 mytarmailS パラメータを合わせるのに、10000回ではなく10回繰り返したとしたら、それは訓練されていないモデルと言えるのでしょうか? 結局のところ、"We came up with "というフレーズ自体も、何らかの思考プロセス(反復)を意味している。最終的なモデルは、それが頭脳による反復なのか、コンピュータによる反復なのか、そして両者に違いがあるのかをどうやって知るのだろうか?という疑問がプラドの記事を 読んで浮かんだ。 重要なのは、モデルのパラメーターを最適化するのであれば、最適値は1000回でも100回でも見つかるということです。 先ほど、見つけたいものの最大値を与える推定値を使用することが非常に重要だと述べた。間違った推定値を使用すると、コーヒーのかすを推測することになる。 Maxim Dmitrievsky 2023.10.15 12:10 #33065 アレクセイは偶然DQNに出会ったが、ヴァレラについての記事を書くことを好み、それ以上のことはしなかった。DRのトレーダーがアレクサンダーに接触し、後者が彼をダメにした。唯一の登場人物はウィザードで、彼は明らかに少しは何かを理解していたが、あまりに神経質で、自分が捕まりそうだとわかると逃げ出した。 Rは心を破壊するからだ。 mytarmailS 2023.10.15 12:24 #33066 Aleksey Vyazmikin #:過学習は、まれな現象を記憶することから生じる。これらの現象は、原因と結果を記述するモデルがないため、純粋に統計的に分離される。同時に、損失が生じたからといって、そのモデルが常に過学習であるとは限らない。 アンドレイ・ディク#: 反復回数が増えれば増えるほど、最適解が見つかる確率は単純に高くなります。先ほど、見つけたいものの最大値を与えるような推定値を使用することが非常に重要であると言いました。 あなたは私の質問の本質さえ理解していない Andrey Dik 2023.10.15 12:40 #33067 mytarmailS #:あなたは私の質問の要点さえ理解していない 私はあることについて、アレクセイは別のことについて話していた。 私の考えが額面通りに受け取られるとは思っていなかった。 必要なパラメータの集合が、すべての変種の完全な集合の中に存在すると想像してください。さて、どのような反復回数でも、この集合だけを正確に見つけることができるように、推定はどうあるべきか考えてください。 mytarmailS 2023.10.15 12:45 #33068 Andrey Dik #:私が話していたのはひとつのことで、アレクセイは別のことを話していた。 そしてどちらも間違ったことを話していた。 記事を読み、次に複数テストの問題について読み、そして私の質問をもう一度読んでください。 СанСаныч Фоменко 2023.10.15 12:48 #33069 Andrey Dik #: 何度繰り返しても、このセットだけを見つけることができるように。 昔の歌! 誰もこのセットを必要としていない。そして、テスターの最適化は、まさにそのようなユニークなセットを探している。そして、多くの「最適化者」は、「二次元ダイアグラム」に注意を払うことなく、この単一のパラメーターセットに満足している。 そして、二次元図上で淡い四角や白い四角の中に緑色の島のように見える最適セットは、オーバートレーニング、つまり、非常に最適であるが、二度と出会うことのないような特殊性が取り除かれていることを示している。 Andrey Dik 2023.10.15 12:53 #33070 mytarmailS #:そして、どちらも間違ったことを考えている。記事を読み、次に複数テストの問題を読み、そして私の質問をもう一度読んでください。 あなたが望むように、私は主張していない。 1...330033013302330333043305330633073308330933103311331233133314...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
では、誰もこのようなテストを行おうと思わなかったのか?
ずっと探していたんだ。)
https://www.mql5.com/ru/forum/86386/page1056#comment_8678465
シュリク、コルドゥン、...)彼らはどんな人たちだったのだろう?)
アレクセイ・ブルナコフ、トレーダー博士...
一人は数百人の価値がある...
結局のところ、"We came up with "というフレーズ自体も、何らかの思考プロセス(反復)を意味している。
最終的なモデルは、それが頭脳による反復なのか、コンピュータによる反復なのか、そして両者に違いがあるのかをどうやって知るのだろうか?
という疑問がプラドの記事を 読んで浮かんだ。
重要なのは、モデルのパラメーターを最適化するのであれば、最適値は1000回でも100回でも見つかるということです。
先ほど、見つけたいものの最大値を与える推定値を使用することが非常に重要だと述べた。間違った推定値を使用すると、コーヒーのかすを推測することになる。
アレクセイは偶然DQNに出会ったが、ヴァレラについての記事を書くことを好み、それ以上のことはしなかった。DRのトレーダーがアレクサンダーに接触し、後者が彼をダメにした。
唯一の登場人物はウィザードで、彼は明らかに少しは何かを理解していたが、あまりに神経質で、自分が捕まりそうだとわかると逃げ出した。
Rは心を破壊するからだ。過学習は、まれな現象を記憶することから生じる。これらの現象は、原因と結果を記述するモデルがないため、純粋に統計的に分離される。
同時に、損失が生じたからといって、そのモデルが常に過学習であるとは限らない。
反復回数が増えれば増えるほど、最適解が見つかる確率は単純に高くなります。
先ほど、見つけたいものの最大値を与えるような推定値を使用することが非常に重要であると言いました。
あなたは私の質問の本質さえ理解していない
あなたは私の質問の要点さえ理解していない
私はあることについて、アレクセイは別のことについて話していた。
私の考えが額面通りに受け取られるとは思っていなかった。
必要なパラメータの集合が、すべての変種の完全な集合の中に存在すると想像してください。さて、どのような反復回数でも、この集合だけを正確に見つけることができるように、推定はどうあるべきか考えてください。
私が話していたのはひとつのことで、アレクセイは別のことを話していた。
そしてどちらも間違ったことを話していた。
記事を読み、次に複数テストの問題について読み、そして私の質問をもう一度読んでください。
何度繰り返しても、このセットだけを見つけることができるように。
昔の歌!
誰もこのセットを必要としていない。そして、テスターの最適化は、まさにそのようなユニークなセットを探している。そして、多くの「最適化者」は、「二次元ダイアグラム」に注意を払うことなく、この単一のパラメーターセットに満足している。
そして、二次元図上で淡い四角や白い四角の中に緑色の島のように見える最適セットは、オーバートレーニング、つまり、非常に最適であるが、二度と出会うことのないような特殊性が取り除かれていることを示している。
そして、どちらも間違ったことを考えている。
記事を読み、次に複数テストの問題を読み、そして私の質問をもう一度読んでください。
あなたが望むように、私は主張していない。