トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3337

 
mytarmailS #:

なぜこのようなことが起こるのか、不思議に思ったことはないだろうか。

実は、これはシートの誤ったパターンなのです。なぜそうなるのか、理由はいくつも 考えられます。

それとも、具体的で明確な答えがあるのでしょうか?

 
Maxim Dmitrievsky #:

ナイーブコードにエクスポートされたモデルのテスト速度(catbust)

ONNXにエクスポート

2つのバージョンのボットの内部はほとんど似ており、結果も同じである。

普遍性のために支払う。

CatBoostはモデル変換に大きな制限があるのが残念だ。

 
Aleksey Vyazmikin #:

汎用性の代償だ。

CatBoostがモデル変換に大きな制限があるのは残念だ。

オブジェクトの重要性をもっと追求し始めた。そこで提供されている記事がある。
 
Maxim Dmitrievsky #:
オブジェクトの重要性についてもっと調べてみたんだ。どんな記事があるか見てみるよ。

まだ興味を持ってくれているようで嬉しいよ。このアプローチの有用性についての研究の進捗状況を書いてください。

 
Forester #:

各リーフ(ツリー)の後に再分割を行うことで、ステップワイズ誤差補正を考慮したリーフ推定を再現してみようと思う。

それにしても、カテゴライズしても同じようにはいかないようですね......。計算式がよくわかりません。

私の理解では、最初の反復で、対数の近似関数が、木の助けを借りてアプローチされるべきターゲットのラベル上に構築され、理想関数と木の助けを借りて得られたものとの間のデルタが、学習率の係数を乗算した後にリーフに書き込まれる。

ただ、文字通りのアプローチでエラーをマークするのであれば、2つの異なるクラスのエラーを1つ、たとえば「1」とマークする必要があるのか?

それとも何?

 
Aleksey Vyazmikin #:

君に興味を持ってもらえて嬉しいよ。このアプローチの有用性に関する研究の進展について書いてください。

私は長い間このテーマに取り組んできた。他にも方法/パッケージはある。この機能はどういうわけか見逃されていたが、もしかしたら最近追加されたのかもしれない
 
Maxim Dmitrievsky #:
このスレッドには長いことお世話になっている。他にも方法・パッケージはある。この機能はどういうわけか見逃されていた、もしかしたら最近追加されたのかもしれない

このトピックに関するビデオを見ることができる


 
Aleksey Vyazmikin #:

関数のY座標を形成するために合計される葉の値。

私にとっては、これが葉の答え、あるいは予測である。何らかの係数で補正したいのでは?

Aleksey Vyazmikin#:
ただ、文字通りアプローチしてエラーをマークする場合、2つの異なるクラスのエラーは1つ、例えば「1」でマークすべきでしょうか?

あるいは、どのように?

記事のトレーニング例では、回帰だけです。分類についてはわかりません。

 
Aleksey Vyazmikin #:

このトピックに関するビデオを見ることができる

多かれ少なかれ長い間MOをやっていると、同じような結論に達するのは興味深い。アプローチの進化という自然なプロセスがある。コズールや統計的学習、信頼できるAIはそうやって生まれたんだ。これらの単語でググれば、役に立つことが見つかるはずだ。
 
Forester #:

記事のトレーニング例では、回帰のみ。分類についてはよくわからない。

分類については、ここに 書いたようなものです。しかし、CatBoostは少し異なる式を持っていますが、多分これは数学的変換のコストです....

そして、同じ場所からのビデオへのリンク、私は思います。


理由: