トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1615

 
アレクセイ・ヴャジミキン

縮減ではなく、分割外のサンプルにおける予測値の振る舞いの統計です。これにより、予測値の選択のランダム性を減らすことができるはずです。

ところで、AlgLibはグリッドを分割ごとに行うのでしょうか、それとも一度だけ行ってそのグリッドを使うのでしょうか?私の理解では、CatBoostの開発者は、グリッドは彼らが一度だけ作ったものであると述べています。

ランダム性はありません。各予測器の利用可能な最良のパーティションが選択される。森にはランダム性があり、各木にはすべての予測変数ではなく、例えばランダムに選ばれた半分の予測変数が与えられます。

一度学習する。再教育はありません。木や森については、再学習が全くないようですが、これはむしろ再学習のスピードが速いからでしょう。
また、なぜグリッドなのか?木には節と葉があります。

 
エリブラリウス
ちなみに、ブーストで気に入らないのは、推奨ツリー深度が7~10であることです。
つまり、100個の予測変数があり、そこでの分割も各予測変数の途中から始まる場合です。7種類の予測変数が真ん中で分かれる可能性が非常に高いのです。1、2個は1/4に分割されるかもしれませんが、それ以下はあり得ません。
あるいは、ブースティング・アルゴリズムでは、アルゴリズムが半割りで動くのではなく、より小さな塊で動くのですか?どなたかご存知ですか?
また、誰がどのような樹木の深さを利用するのか?


 
マキシム・ドミトリエフスキー


47分は残念・・・。は、ほとんど知られている基本的なことを聴くことができます。具体的な質問としては、1つだけ気になる点があります。知っている人は教えてください)

 
エリブラリウス

47分は残念・・・。を聴くと、ほとんど知られている基本的なことがわかります。具体的な質問としては、1つだけ気になる点があります。知っているならば教えてください。

それぞれ作りが違うから、マニュアルを読まないといけない。

ターゲットに関連する情報があれば、どのような方法でもかまいません。

似たような機能で森とブースティングを比較したのです。ブーストはオーバーフィットが少なく、全体的に+-。

 
マキシム・ドミトリエフスキー

それぞれ異なる構造になっているので、それぞれのヘルプを読む必要があります。

ターゲットに関連する有益な機能があれば、どのような方法でもかまいません。

似たような機能で森とブースティングを比較したのです。ブーストはオーバーフィットが少なく、一般的に+-です。

ブーストはどの程度の深さに設定したのでしょうか?
 
マキシム・ドミトリエフスキー

それぞれ異なる構造になっているので、それぞれのヘルプを読む必要があります。

ターゲットに関連する有益な機能があれば、どのような方法でもかまいません。

似たような機能で森とブースティングを比較したのです。ブーストはオーバーフィットが少なく、一般的に+-です。

そういうことなんです。インプットが目的に適っていれば、どんな方法でもうまくいきます。入力がとても良いので、それを確認したかったのです。しかし、それを証明しているのはレシェトフのオプティマイザーだけであり、一人の専門家では主観的な評価ができないことはご理解いただけると思います。しかし、一般的には、入力データが出力変数を説明するものであれば、どのような方法でもうまくいくでしょう。そして、その結果は同じようなものになると思います。レシェトフ以外のシステムでも入力が使えるようになればいいなと思います。プログラマーズフォーラムに行く必要があるのですが、どこに行けばいいのかわかりません:-)
 
エリブラリウス
ブーストの深さはどの程度に設定されましたか?

2~10、深さが大きいほどフィット感が高い

最適3-7

グラデーションステップも変更可能です。一般的には関係なく、散乱が少ない、オフセットが少ない、信号が少ない、などの結果が得られます。で、平均画質が保たれています。それは最適化の問題であって、品質とは関係ない。


 
マックス 正直、ナチュラルニューロンについてのビデオはありがとうございましたが、このビデオはあまりよくありません。ずっと考えてきた再教育の理論があり、自分でもかなり十分に構築できているということです。ヤンデックスのスタッフもきっと聞いてみたいと思っているはずです。 え...ビデオ撮影をする気力があればいいのですが。いつも酔っ払っていたり、面白がっていたり。それはどうかな :-)
 
ミハイル・マルキュカイツ
マックス、ナチュラルニューロンについてのビデオに感謝したいのですが、このビデオはあまりよくありませんね。問題は、私がずっと考えてきた再教育の理論があり、それを自分にとってかなり適切に構築したことである。ヤンデックスのスタッフもきっと聞いてみたいと思っているはずです。え... ビデオ撮影をする気力があればいいのですが。いつも酔っ払っていたり、面白がっていたり。それはどうかな :-)

))) 正規性は、神経細胞を苦しめるよりも、統計解析によって求めるべきものである。

例えば、前回の記事で、EURUSDの季節変動を10年分、月別に示しました。今年もその繰り返しです。4-5月が一番面白い(目先のことより)
 
マキシム・ドミトリエフスキー

))) 規則性は統計解析で求めるべきものであり、神経細胞を拷問する必要はない

そういうことなんです。JPredictionを使う前に、6,000の列のうち、統計的に有意な150個だけを残し、その後に、出力を記述する悪名高い法則を探します。列の数は、理論的にはテーブルの行の数の2倍であるべきで、アルゴリズムは十分なデータを選択することができます。 その結果、オプティマイザーは、私が提案した150個のうち5〜10個を残して、最終モデルを形成することになるのです。
理由: