トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1298

 

前回、配列からノイズの多い値を除去する理論的な可能性についてお話しましたが、その原型は以下の通りです。

で、ここでは2分木応答重みの配列から0.01から-0.01のノイズを除去しました。

利得は若干減りますが、相対的な性能は向上しています。

 

ふむ、既に-0.02から0.02までの二分木を削除(値をゼロに)している。

ということは、この中に合理性の核があるのだろう--さらなる研究が必要だ。

 
アレクセイ・ヴャジミキン

非常に原始的な言い方をすれば、最初のツリーはサンプルに対して何の反応もなく、ゼロを返し、4番目のツリーはこの反応があって「確率」0.6と数える。技術的には最初のツリーのエラーを修正したことになるが、実際には以前はまったく存在しなかったつながりが明らかになったのである。

最初の木の誤差は0だけでなく、1もあり得る。

つまり、最初の木が1を予測したが、実際には0であった場合、次の木は1から0に合計を減少させるべきである。

 
エリブラリウス

最初の木の誤差は0だけでなく、1でもよい。

例えば、最初の木が1を予測したが、実際には0であった場合、後続の木は1から0に減少するはずである。つまり、2、3などの木は、最初の木から1を何回か減算してNステップ後に0に減少するように負の予測をする。

もちろん、私もそう思います。しかし、本質は変わらない。重要なのは、ツリーが見つけるパターンであり、このパターンの解釈は、別のアルゴリズムの仕事である。

 
アレクセイ・ヴャジミキン

そして、地域のことがわからない、つまり、他の地域の個人がどのようにやっているのかわからない?

データを引っ張ってくるのは論理的だと思います。MOの助けを借りて人間の行動モデル(あるいはアルゴリズム)を探しているのですから、そういう行動パターンはたくさんあるかもしれないし、それらは独立しているかもしれない。だから、それらをまとめて一般化することは不可能なので、できるだけたくさん引っ張ってくるのが理にかなっているのだと思います。そして、市場とは何か、集団的な思考活動の結果であり、ルールのない投票機関のようなものであると考える人は、おそらく、市場の行動を 個別の有機体として記述するための正しいモデルを探しているのでしょう。

自分がその一部になっているのに、どうしてわからないんだ )

当初の目的は、手動でルーチンを作らなくても、自分で全部拾うAIのようなものを作ることでしたので、共有できているのかもしれませんね。そのようなものを設計するときだけのルーチン

何百、何千ものモデルを手作業で見て、そこから何かを選ぶなんて、想像もつきません。それどころか、TCを「発明」したことなど、悪い夢のように忘れてしまいたいのです。

 
マキシム・ドミトリエフスキー

自分がその一部であるのに、どうしてわからないのだろう )

当初の目標は、手作業で雑用をしなくても、自分で全部淘汰されるAIみたいなものを作ることだったので、共有できているのかもしれません。そのようなものを設計するときだけのルーチン

何百、何千ものモデルを手作業で見て、そこから何かを選ぶなんて、想像もつきません。それどころか、TCを「発明」したことなど、悪い夢のように忘れてしまいたいのです。

また、各モデルを個別に解析する方法が分からないので、バッチ処理に重点を置いています。個々のモデルを詳細に分析し、モデル作成サイクルの全体的なアルゴリズムを改善し、新しいアイデアを見出す必要があります。

問題は、全く異なる結果を出すモデルのバリエーションが何十万とある場合、結果を改善するために何をすべきか理解するのが難しいということです。最初は4つの予測変数で面白いモデルができたので、これ以上予測変数を追加しても意味がなく、より多くのモデルしか生成できないように思えますが、逆に多くの予測変数を使用すると学習サンプルの影響が大きくなり、さらにCatBoost 自体で学習するための多くのパラメータを使用することになります。だからこそ、多くのモデルを生成し、10万円ごとに2〜3個保存して、より徹底的に研究したい気持ちがあります。

 
アレクセイ・ヴャジミキン

各モデルを別々に解析する方法が分からないので、バッチ処理に重点を置いています。問題は、全く異なる結果を出すモデルのバリエーションが何十万とある場合、それらをどのように扱えばいいのかがわからないことです。

問題は、全く異なる結果を出すモデルのバリエーションが何十万とある場合、結果を改善するために何をすべきか理解するのが難しいということです。最初は4つの予測変数で面白いモデルができたので、これ以上予測変数を追加しても意味がなく、より多くのモデルしか生成できないように思えますが、逆に多くの予測変数を使用すると学習サンプルの影響が大きくなり、さらにCatBoost自体で学習するための多くのパラメータを使用することになります。そのため、多くのモデルを作成し、10万円ごとに2-3個ずつ保存 する必要があり、すでにもっと詳細なモデルを検討する必要があるのではないかと考えています。

はい、そのように、できるだけ自動化することが望ましい、それはその後、より好ましいです、コーヒーのカップを持っている平凡な選択肢を残しました。

難しいのは確かですが、普通の分類器ではなく、AIになりますね。

最後になりますが、AutoML libs - a neural network selects the best neural network or set of models for the particular task, it's too cool.まだ使用していません。
 
マキシム・ドミトリエフスキー

そうですね、できればできるだけ自動化して、その後、コーヒーを飲みながら、どれが一番好きかという些細な選択ができるようなものがいいですね。

でも、そうなると普通の分類器ではなく、AIになってしまいますね。

学習後、結果はスクリプトで処理され(モデルのインタプリタなし -CatBoost 計算による)、100kモデルの中から、3つのサンプルすべてについて定義された基準(モデルと取引基準)を満たすものを取得し、約50~100モデルが得られ、私はそれらをターミナルに表示するために変換し、さらに細かい選択のために再パスしています。実は、欲しいものがはっきりすれば、端末で立ち上げることもないかもしれませんが、今は選択基準を探していて、いろいろな機種を視覚的に見ることが有効だと思っています。バランスカーブはスクリプトで保存できるのですが、グラフの扱いがわからないんですよねー、いまだに。

Pythonで、一度にたくさんのモデルを作れるかどうかはわかりませんが、もし興味があれば、私が使っているバトンを送りますよ。

 
アレクセイ・ヴャジミキン

学習後、その結果をスクリプトで処理し(モデルインタプリタなし - CatBoostの結果に基づいて)、100kモデルの中から3つのサンプルの基準(モデルと取引基準)を満たすものを取得し、約50-100モデルを取得し、ターミナルで再生するために変換し、そこでさらに詳細な選択をするためにセカンドパスを行います。実は、欲しいものがはっきりすれば、端末で立ち上げることもないかもしれませんが、今は選択基準を探していて、いろいろな機種を視覚的に見ることが有効だと思っています。バランスカーブはスクリプトで保存できるのですが、グラフの扱いがわからないんですよねー、いまだに。

pythonで一度にたくさんのモデルを作れるかどうかは分かりませんが、もし興味があれば、私が使っているバトンをお送りしますよ。

Pythonで何でもできる、もっとできる。

まだ、結構です...面白い本を読んでいるところです。私もpythonでcatbustを使ったことがあります。forestと比較しましたが、大きな改善は見られませんでしたが、設定可能で単体でも問題なく動きますね。実は2、3行で。

 
マキシム・ドミトリエフスキー

AutoML - ニューラルネットワークは、特定のタスクに最適なニューラルネットワークまたはモデルのセットを選択し、またクールです。まだ使っていない。

私は似たようなことをしました。質問は、再び予測因子と選択基準(ターゲット)についてです。今(何カ月も後)、予測因子ですべてのアイデアを確定し、このトピックに戻る。そして、結果は一般的にそこそこです。このようなモデルがどのように機能するかは先に掲載しましたが、できれば異なるモデルによる、異なる散らばりのサンプルが必要です。

また、AutoMLは予測因子とターゲットとして何を使っているのでしょうか?

理由: