トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3337 1...333033313332333333343335333633373338333933403341334233433344...3399 新しいコメント Aleksey Vyazmikin 2023.11.12 20:55 #33361 mytarmailS #:なぜこのようなことが起こるのか、不思議に思ったことはないだろうか。 実は、これはシートの誤ったパターンなのです。なぜそうなるのか、理由はいくつも 考えられます。 それとも、具体的で明確な答えがあるのでしょうか? Aleksey Vyazmikin 2023.11.12 20:58 #33362 Maxim Dmitrievsky #:ナイーブコードにエクスポートされたモデルのテスト速度(catbust)ONNXにエクスポート2つのバージョンのボットの内部はほとんど似ており、結果も同じである。 普遍性のために支払う。 CatBoostはモデル変換に大きな制限があるのが残念だ。 Maxim Dmitrievsky 2023.11.13 03:51 #33363 Aleksey Vyazmikin #:汎用性の代償だ。CatBoostがモデル変換に大きな制限があるのは残念だ。 オブジェクトの重要性をもっと追求し始めた。そこで提供されている記事がある。 Aleksey Vyazmikin 2023.11.13 05:38 #33364 Maxim Dmitrievsky #: オブジェクトの重要性についてもっと調べてみたんだ。どんな記事があるか見てみるよ。 まだ興味を持ってくれているようで嬉しいよ。このアプローチの有用性についての研究の進捗状況を書いてください。 Aleksey Vyazmikin 2023.11.13 06:08 #33365 Forester #: 各リーフ(ツリー)の後に再分割を行うことで、ステップワイズ誤差補正を考慮したリーフ推定を再現してみようと思う。 それにしても、カテゴライズしても同じようにはいかないようですね......。計算式がよくわかりません。 私の理解では、最初の反復で、対数の近似関数が、木の助けを借りてアプローチされるべきターゲットのラベル上に構築され、理想関数と木の助けを借りて得られたものとの間のデルタが、学習率の係数を乗算した後にリーフに書き込まれる。 ただ、文字通りのアプローチでエラーをマークするのであれば、2つの異なるクラスのエラーを1つ、たとえば「1」とマークする必要があるのか? それとも何? Maxim Dmitrievsky 2023.11.13 06:27 #33366 Aleksey Vyazmikin #:君に興味を持ってもらえて嬉しいよ。このアプローチの有用性に関する研究の進展について書いてください。 私は長い間このテーマに取り組んできた。他にも方法/パッケージはある。この機能はどういうわけか見逃されていたが、もしかしたら最近追加されたのかもしれない Aleksey Vyazmikin 2023.11.13 06:57 #33367 Maxim Dmitrievsky #: このスレッドには長いことお世話になっている。他にも方法・パッケージはある。この機能はどういうわけか見逃されていた、もしかしたら最近追加されたのかもしれない このトピックに関するビデオを見ることができる Forester 2023.11.13 07:05 #33368 Aleksey Vyazmikin #:関数のY座標を形成するために合計される葉の値。 私にとっては、これが葉の答え、あるいは予測である。何らかの係数で補正したいのでは? Aleksey Vyazmikin#: ただ、文字通りアプローチしてエラーをマークする場合、2つの異なるクラスのエラーは1つ、例えば「1」でマークすべきでしょうか? あるいは、どのように? 記事のトレーニング例では、回帰だけです。分類についてはわかりません。 Maxim Dmitrievsky 2023.11.13 07:14 #33369 Aleksey Vyazmikin #:このトピックに関するビデオを見ることができる 多かれ少なかれ長い間MOをやっていると、同じような結論に達するのは興味深い。アプローチの進化という自然なプロセスがある。コズールや統計的学習、信頼できるAIはそうやって生まれたんだ。これらの単語でググれば、役に立つことが見つかるはずだ。 Aleksey Vyazmikin 2023.11.13 07:19 #33370 Forester #:記事のトレーニング例では、回帰のみ。分類についてはよくわからない。 分類については、ここに 書いたようなものです。しかし、CatBoostは少し異なる式を持っていますが、多分これは数学的変換のコストです.... そして、同じ場所からのビデオへのリンク、私は思います。 1...333033313332333333343335333633373338333933403341334233433344...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
なぜこのようなことが起こるのか、不思議に思ったことはないだろうか。
実は、これはシートの誤ったパターンなのです。なぜそうなるのか、理由はいくつも 考えられます。
それとも、具体的で明確な答えがあるのでしょうか?
ナイーブコードにエクスポートされたモデルのテスト速度(catbust)
ONNXにエクスポート
2つのバージョンのボットの内部はほとんど似ており、結果も同じである。
普遍性のために支払う。
CatBoostはモデル変換に大きな制限があるのが残念だ。
汎用性の代償だ。
CatBoostがモデル変換に大きな制限があるのは残念だ。
オブジェクトの重要性についてもっと調べてみたんだ。どんな記事があるか見てみるよ。
まだ興味を持ってくれているようで嬉しいよ。このアプローチの有用性についての研究の進捗状況を書いてください。
各リーフ(ツリー)の後に再分割を行うことで、ステップワイズ誤差補正を考慮したリーフ推定を再現してみようと思う。
それにしても、カテゴライズしても同じようにはいかないようですね......。計算式がよくわかりません。
私の理解では、最初の反復で、対数の近似関数が、木の助けを借りてアプローチされるべきターゲットのラベル上に構築され、理想関数と木の助けを借りて得られたものとの間のデルタが、学習率の係数を乗算した後にリーフに書き込まれる。
ただ、文字通りのアプローチでエラーをマークするのであれば、2つの異なるクラスのエラーを1つ、たとえば「1」とマークする必要があるのか?
それとも何?
君に興味を持ってもらえて嬉しいよ。このアプローチの有用性に関する研究の進展について書いてください。
このスレッドには長いことお世話になっている。他にも方法・パッケージはある。この機能はどういうわけか見逃されていた、もしかしたら最近追加されたのかもしれない
このトピックに関するビデオを見ることができる
関数のY座標を形成するために合計される葉の値。
私にとっては、これが葉の答え、あるいは予測である。何らかの係数で補正したいのでは?
ただ、文字通りアプローチしてエラーをマークする場合、2つの異なるクラスのエラーは1つ、例えば「1」でマークすべきでしょうか?
あるいは、どのように?
記事のトレーニング例では、回帰だけです。分類についてはわかりません。
このトピックに関するビデオを見ることができる
記事のトレーニング例では、回帰のみ。分類についてはよくわからない。
分類については、ここに 書いたようなものです。しかし、CatBoostは少し異なる式を持っていますが、多分これは数学的変換のコストです....
そして、同じ場所からのビデオへのリンク、私は思います。