トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3389 1...338233833384338533863387338833893390339133923393339433953396...3399 新しいコメント Maxim Dmitrievsky 2024.01.23 11:16 #33881 mytarmailS #: 何が違うんだ))世界中がそうしているし、みんなハッピーだ)) じゃあ、他の国みたいにすれば?そういう答えが返ってくるだろう。オプティマイザーを100500個持っていって、それで自分を汚すという手もある。) mytarmailS 2024.01.23 11:36 #33882 Maxim Dmitrievsky #: まあ、他の国みたいにすればいい。そういう答えが返ってくるだろう。オプティマイザーを100500個持っていって、それで自分を汚すという手もある。) 一体何の話をしているんだ?あなたの問題を解決するアルゴリズムがあるのなら、なぜあなたは頭を高く掲げて自分の四角い車輪を発明しなければならないのですか? Valeriy Yastremskiy 2024.01.23 11:42 #33883 Maxim Dmitrievsky #:英語の本を読むのが難しいという人のために、コズールに関する基本的なテーゼをスケッチしてみた。 そして、私のバージョンによると、どのように動作するのがベストなのか、パイソンで例を示してみた。記事が欲しいですか? Nnnada))) Maxim Dmitrievsky 2024.01.23 11:45 #33884 mytarmailS #: いったい何を言っているんだ?あなたの問題を解決するアルゴリズムがあるのなら、なぜあなたは高みの見物で自分の四角い車輪を発明しなければならないのですか? じゃあ、儲かるTSを構築するような、そんなアルゴリズムを教えてよ :) 後でモルディブから電話するよ。貝殻を送るよ。 mytarmailS 2024.01.23 11:50 #33885 Maxim Dmitrievsky #: では、プロファイルTCを構築するアルゴリズムを教えてください :) 1つのことについて話すか、すべてについて話すか、何も話さないか。L - 論理。非構造化データについて話していたのに、今度はTCについて話すのか? TCなんてクソ食らえだ。 Maxim Dmitrievsky 2024.01.23 11:51 #33886 mytarmailS #: 一つのことについて話すか、すべてについて話すか、何も話さないか。L - 論理。我々は非構造化データについて話していたのに、今はTCについて話しているのか?TCなんてクソ食らえだ。 最初は機械について話しているのであって、あとは細かいことなんだ。 mytarmailS 2024.01.23 12:07 #33887 Maxim Dmitrievsky #: 最初は工作機械の話をしていて、あとは部品なんだ :)機械は部品からできているのであって、機械ではない。バッグ・オブ・ワードは時系列ではあまり使えないから、何か問題があるんだ。 なぜなら、ボウは時系列用ではないからだ。誰がマーケットを時系列だと言った?マーケットで使えるBPの方法・アルゴリズムはあるのか?なぜなんだろう? Maxim Dmitrievsky 2024.01.23 12:12 #33888 mytarmailS #: ー ボウはーー誰がー市場がー相場はー時系列であるーとーとはー誰がーマーケットに有効なBPの単一の方法/アルゴリズムが存在するのだろうか?なぜでしょう? ータがータはータがータ。これは無意味な会話だ。 Aleksey Vyazmikin 2024.01.23 12:14 #33889 Maxim Dmitrievsky #:データセットの同じ行1000行しかない場合大雑把に言って、18以上の特徴量がある場合、分類器にすべての行を記憶させるトレーニングをしていることになる。 因果推論では、統計量を計算するために例をマッチさせることはできない。 このスレッドでもずいぶん前に書きました。それが、私が葉っぱの価値を評価する仕事をしている理由だ。 理想的なのは、サンプル全体を説明する2、3の特徴を見つけることですが、まだ誰もそれに成功していません。一方、次元を減らせばトレーニングに直接関与する特徴の数は減りますが、この混乱が結果を改善するとは思えません。 Aleksey Vyazmikin 2024.01.23 12:21 #33890 mytarmailS #: 1.任意の特徴量 2.驚くかもしれないが、その特徴がどのように作られたかなんて誰も気にしていない。 1.ということは、サンプルなんですよね? 2.うーん、このアルゴリズムはルールの構造を評価しようとしてるんだと思ってたんだけど、他のルールとの分割に小さなずれがあれば同じことだよね。 なぜそのプロセスを説明できないのか...。自分で理解しきれていなくても、それを認めることは恥ずかしいことではない。 MOでもデータを扱うというコンセプトは似ているが、意見を交換する代わりに、常に緊張感がある。 今日、NGからのスレッドを読んで、私は何も見逃していないことに気づいた...。 1...338233833384338533863387338833893390339133923393339433953396...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
何が違うんだ))
まあ、他の国みたいにすればいい。そういう答えが返ってくるだろう。
英語の本を読むのが難しいという人のために、コズールに関する基本的なテーゼをスケッチしてみた。 そして、私のバージョンによると、どのように動作するのがベストなのか、パイソンで例を示してみた。記事が欲しいですか?
Nnnada)))
いったい何を言っているんだ?
では、プロファイルTCを構築するアルゴリズムを教えてください :)
一つのことについて話すか、すべてについて話すか、何も話さないか。
最初は工作機械の話をしていて、あとは部品なんだ :)
ー ボウはー
データセットの同じ行
1000行しかない場合
大雑把に言って、18以上の特徴量がある場合、分類器にすべての行を記憶させるトレーニングをしていることになる。
因果推論では、統計量を計算するために例をマッチさせることはできない。このスレッドでもずいぶん前に書きました。それが、私が葉っぱの価値を評価する仕事をしている理由だ。
理想的なのは、サンプル全体を説明する2、3の特徴を見つけることですが、まだ誰もそれに成功していません。一方、次元を減らせばトレーニングに直接関与する特徴の数は減りますが、この混乱が結果を改善するとは思えません。
1.任意の特徴量
1.ということは、サンプルなんですよね?
2.うーん、このアルゴリズムはルールの構造を評価しようとしてるんだと思ってたんだけど、他のルールとの分割に小さなずれがあれば同じことだよね。
なぜそのプロセスを説明できないのか...。自分で理解しきれていなくても、それを認めることは恥ずかしいことではない。
MOでもデータを扱うというコンセプトは似ているが、意見を交換する代わりに、常に緊張感がある。
今日、NGからのスレッドを読んで、私は何も見逃していないことに気づいた...。