トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3358 1...335133523353335433553356335733583359336033613362336333643365...3399 新しいコメント Maxim Dmitrievsky 2023.12.25 11:19 #33571 ずいぶん前に議論したことだが、結局はf-yの過剰最適化だった :) Aleksey Nikolayev 2023.12.25 11:22 #33572 Andrey Dik #: ポークザウルス、マテマット、グラニット、メタドライバーの時代にこのトピックについて議論した。 私が見逃しているだけかもしれないが、私は彼らからこのトピックを見たことがない(以前はCyberpawをもっと読んでいた)。特定の数値ではなく、確率分布を出力するモデルについてです。全く新しいアプローチというわけではないが、近年このトピックへの関心が顕著に高まっている。 Andrey Dik 2023.12.25 11:44 #33573 Aleksey Nikolayev #: このトピックは見たことがない。もしかしたら私が見逃しているだけかもしれない(以前はもっとCyberpawkを読んでいた)。特定の数値ではなく、確率分布を出力として出すモデルについてだ。全く新しいアプローチというわけではないが、近年このトピックへの関心が顕著に高まっている。 まあ、多くの試みがなされているが、その成功した公開結果を私は知らない。最も単純なのは、1つのニューロンの出力を[-1.0;1.0]の範囲内の売り/買いの確率として扱うことです。 もうひとつは、ニューロン出力の分布を確率として適用することは可能だが、それをやっている人を見たことがない。例えば、学習中のネットワーク出力ニューロンの同じ売り/買いシグナルでも、値の分布は大きく異なる可能性があり、OOS時の動作は異なるでしょう。 その上、私はずっと前に、訓練とOOSでの動作のグラフを示したことがある。そこでは、線はブレークすることなく、もちろん広がることもなく、入力は異なる時間枠から単純なマシュカの増分が与えられた。そしてここで、ある天才たちが突然、スプレッドがOOSでの挙動に影響するという「素晴らしい」結論を出した。 Aleksey Nikolayev 2023.12.25 12:34 #33574 Andrey Dik #:さて、多くの試みがなされてきたが、その成功した公開結果を私は知らない。最も単純に行われたのは、1つのニューロンの出力を[-1.0;1.0]の範囲の売り/買いの確率として扱うことでした。もうひとつは、ニューロン出力の分布を確率として適用できるのですが、それをやっている人を見たことがありません。例えば、学習中のネットワークの出力ニューロンの売り/買いシグナルが同じでも、値の分布は大きく異なる可能性があり、OOS時の動作は異なるでしょう。その上、私はずっと前に、OOSでの訓練と動作のグラフを示したことがある。そこでは、線は折れずに、もちろん広がらずに進み、入力は異なる時間枠から単純なマシュカの増分が与えられた。そしてここで、ある天才たちが突然、スプレッドがOOSでの挙動に影響するという「素晴らしい」結論を出した。 それでも、分類は比較的単純な特殊なケースであり、出力の分布は離散的であるため、すべてを通常の「点」、数値的MO問題に還元することは比較的容易である。 より広いアプローチは、出力が数値ではなく、任意の(もちろん合理的な範囲内の)分布であるモデルで興味深いものです。例えば、信頼性理論(寿命の分布が研究される)や確率的天気予報(例えば、降水量の確率分布が構築される)で使われるMOである。 Andrey Dik 2023.12.25 12:43 #33575 Aleksey Nikolayev #:...より広いアプローチは、出力が数値ではなく、任意の(もちろん合理的な範囲内の)分布であるモデルで興味深い。例えば、信頼性理論(寿命の分布が研究される)や確率的天気予報(可能な降雨量について確率分布が構築される)などで使われる手口です。出力値そのものではなく、分布を分類に使おうというのが、私が実際に言いたかったことだ。 Maxim Dmitrievsky 2023.12.25 13:52 #33576 確率はすでに訓練されたモデルから導き出される。そうでなければ、なぜ確率を教えるのか?確率がわかっているなら,なぜ訓練するのですか?区間推定のための回帰モデルにおける分布のモーメント?いいえ、聞いたことがありませんか?あなたはそれを使って多くの予測をしたことがありますか?20年前は何でも知っていたけど、恥ずかしくて言えなかった?位相の過剰最適化から逃れるには長い時間だ。悲しいね、20年って...。 Andrey Dik 2023.12.25 14:01 #33577 確率 分布を形成するのはトレーニング中であって、トレーニング後ではない。 そしてトレーニングの後、何をするのか?仮に機械バカが訓練後にドライバーでいじられても、新しい知識は身につかない。 СанСаныч Фоменко 2023.12.25 16:13 #33578 Maxim Dmitrievsky #:上記ですでに例を説明した。OOSをパスする分類器があるが、リターンは60/40に分布している。あなたはそれが気に入らず、判定しきい値を上げますが、状況は変わらず、時にはさらに悪化します。なぜそうなるのか、あなたは頭を悩ませます。本当の確率推定の場合、状況は変わるはずだからだ。解決策がある。 このカルポフみたいなバカをどうやって見つけるんだ? この男の頭は混乱している。首尾一貫した思考ができない男だ。気味が悪いだけだ! 彼は最初の数分から、分類器は確率を与えていないと言うだけだ。分類器が与えるものを使わずに、どこで確率を得られるというのか? Maxim Dmitrievsky 2023.12.25 16:15 #33579 СанСаныч Фоменко #:カルポフのようなバカをどうやって見つけるんだ?この男の頭は混乱している。首尾一貫した思考ができない男だ。気味が悪いだけだ! 君はマッシュと一緒にイギリスに招かれたのか?) あの男は全然気にしていない。 要領が悪い!=勘違いしている。この人たちはちょっと違う形成の人たちだから、そこが問題なんだろう。 この話題に新しい血が必要なのは、ずっと前から明らかだった。私もすでにオールドホークだ。もちろん、最後にフォーラムがカビてしまわなければ、新しい人たちがやってきてくれるだろう。 最悪なのは、加齢によって脳にどのような変化が起きるのか、なぜ人はこのように理屈を考え、あのようには考えないのかが理解できることだ。この当たり前のことは時に滑稽だが、そこから逃れることはできない。 СанСаныч Фоменко 2023.12.25 18:43 #33580 Maxim Dmitrievsky #:お粥と一緒にイギリスでも働かない?)彼はまったく気にしていない。考えがまとまっていない!?この人たちはちょっと違う形成の人たちだから、そこが問題なんだろう。このトピックに新しい血が必要なのは、ずっと前から明らかだった。私もすでにオールドホークだ。もちろん、フォーラムが最後にカビてしまわなければ、新しい人たちがやってきて、見せてくれるでしょう。最悪なのは、加齢によって脳にどのような変化が起きるのか、なぜ人はこのように理屈を考え、あのようには考えないのかが理解できることだ。この当たり前のことは時に滑稽だが、そこから逃れることはできない。 それがイギリスとどう関係があるのですか? あなたは資格のある人のようだが、常にゴミ箱に引きずり込まれている。 メリットについて議論することはほとんどない......。 1...335133523353335433553356335733583359336033613362336333643365...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
ポークザウルス、マテマット、グラニット、メタドライバーの時代にこのトピックについて議論した。
このトピックは見たことがない。もしかしたら私が見逃しているだけかもしれない(以前はもっとCyberpawkを読んでいた)。特定の数値ではなく、確率分布を出力として出すモデルについてだ。全く新しいアプローチというわけではないが、近年このトピックへの関心が顕著に高まっている。
まあ、多くの試みがなされているが、その成功した公開結果を私は知らない。最も単純なのは、1つのニューロンの出力を[-1.0;1.0]の範囲内の売り/買いの確率として扱うことです。
もうひとつは、ニューロン出力の分布を確率として適用することは可能だが、それをやっている人を見たことがない。例えば、学習中のネットワーク出力ニューロンの同じ売り/買いシグナルでも、値の分布は大きく異なる可能性があり、OOS時の動作は異なるでしょう。
その上、私はずっと前に、訓練とOOSでの動作のグラフを示したことがある。そこでは、線はブレークすることなく、もちろん広がることもなく、入力は異なる時間枠から単純なマシュカの増分が与えられた。そしてここで、ある天才たちが突然、スプレッドがOOSでの挙動に影響するという「素晴らしい」結論を出した。
さて、多くの試みがなされてきたが、その成功した公開結果を私は知らない。最も単純に行われたのは、1つのニューロンの出力を[-1.0;1.0]の範囲の売り/買いの確率として扱うことでした。
もうひとつは、ニューロン出力の分布を確率として適用できるのですが、それをやっている人を見たことがありません。例えば、学習中のネットワークの出力ニューロンの売り/買いシグナルが同じでも、値の分布は大きく異なる可能性があり、OOS時の動作は異なるでしょう。
その上、私はずっと前に、OOSでの訓練と動作のグラフを示したことがある。そこでは、線は折れずに、もちろん広がらずに進み、入力は異なる時間枠から単純なマシュカの増分が与えられた。そしてここで、ある天才たちが突然、スプレッドがOOSでの挙動に影響するという「素晴らしい」結論を出した。
それでも、分類は比較的単純な特殊なケースであり、出力の分布は離散的であるため、すべてを通常の「点」、数値的MO問題に還元することは比較的容易である。
より広いアプローチは、出力が数値ではなく、任意の(もちろん合理的な範囲内の)分布であるモデルで興味深いものです。例えば、信頼性理論(寿命の分布が研究される)や確率的天気予報(例えば、降水量の確率分布が構築される)で使われるMOである。
...
より広いアプローチは、出力が数値ではなく、任意の(もちろん合理的な範囲内の)分布であるモデルで興味深い。例えば、信頼性理論(寿命の分布が研究される)や確率的天気予報(可能な降雨量について確率分布が構築される)などで使われる手口です。
確率 分布を形成するのはトレーニング中であって、トレーニング後ではない。
そしてトレーニングの後、何をするのか?仮に機械バカが訓練後にドライバーでいじられても、新しい知識は身につかない。
上記ですでに例を説明した。OOSをパスする分類器があるが、リターンは60/40に分布している。あなたはそれが気に入らず、判定しきい値を上げますが、状況は変わらず、時にはさらに悪化します。なぜそうなるのか、あなたは頭を悩ませます。
本当の確率推定の場合、状況は変わるはずだからだ。
解決策がある。
このカルポフみたいなバカをどうやって見つけるんだ?
この男の頭は混乱している。首尾一貫した思考ができない男だ。気味が悪いだけだ!
彼は最初の数分から、分類器は確率を与えていないと言うだけだ。分類器が与えるものを使わずに、どこで確率を得られるというのか?
カルポフのようなバカをどうやって見つけるんだ?
この男の頭は混乱している。首尾一貫した思考ができない男だ。気味が悪いだけだ!
君はマッシュと一緒にイギリスに招かれたのか?)
あの男は全然気にしていない。
要領が悪い!=勘違いしている。この人たちはちょっと違う形成の人たちだから、そこが問題なんだろう。
この話題に新しい血が必要なのは、ずっと前から明らかだった。私もすでにオールドホークだ。もちろん、最後にフォーラムがカビてしまわなければ、新しい人たちがやってきてくれるだろう。
最悪なのは、加齢によって脳にどのような変化が起きるのか、なぜ人はこのように理屈を考え、あのようには考えないのかが理解できることだ。この当たり前のことは時に滑稽だが、そこから逃れることはできない。
お粥と一緒にイギリスでも働かない?)
彼はまったく気にしていない。
考えがまとまっていない!?この人たちはちょっと違う形成の人たちだから、そこが問題なんだろう。
このトピックに新しい血が必要なのは、ずっと前から明らかだった。私もすでにオールドホークだ。もちろん、フォーラムが最後にカビてしまわなければ、新しい人たちがやってきて、見せてくれるでしょう。
最悪なのは、加齢によって脳にどのような変化が起きるのか、なぜ人はこのように理屈を考え、あのようには考えないのかが理解できることだ。この当たり前のことは時に滑稽だが、そこから逃れることはできない。
それがイギリスとどう関係があるのですか?
あなたは資格のある人のようだが、常にゴミ箱に引きずり込まれている。
メリットについて議論することはほとんどない......。