トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1322

 
ユーリイ・アサウレンコ

みんな、このトピックはMOについてであって、トレードスタイルやストップについてではないよ。それが彼らとどんな関係があるのでしょうか?

だから、NSで議論したかったのですが、結果的に議論する相手がいないんです。

 
Yuriy Asaulenko:

つい昨日のことですが、正弦波の予測について話が出たので、昔の話題を思い出しました。

(マキシムさん、やはりこの話題を突いていたんですね。 執念深く、何でも書き込んでしまう私です)

無駄なことをしたと言わざるを得ないが、話題は停滞し、本題に入ることはなかった。おそらく、文言があまり明確でなかったからでしょう。

実は、私たちは何の問題も解決する必要はないのです。お題にあるような、あるいはもっと複雑な、何らかの関数を取る必要があるのです。この機能を持つ人工的なツールを作成し、テスターですでに動作しているストラテジーで実行する。理想は、利益が作業用TSに乗り移ることです。あ、忘れてた、関数はTSが設定されているシンボルにほぼ対応するようにあらかじめ正規化しておく必要があるんでしたね。あとは、ノイズを加えてどうなるか。

私は予測を立てないし、そのようなTSを用意していないので、直近で確認することはできない。でも、遠い将来には、そうするつもりです。

さて、なぜこのようなものが必要なのかについてです。

NS(または他のMO)予測を教える必要があるとします。通常、NSの初期重みはランダムに初期化され、学習時にmin-maxに入ったら大変なことになりますね。

次のようにしてみましょう。

1.市場BPに近い 非ランダムな関数を生成し、それを使ってランダムに初期化したNSを教示する。チェックしたりします。今、私たちのNSは設定上必要なものに近いのですが、今のところ本当の問題を解決することはできていません。

2.実BPを用いたNSの学習(ポイント1参照)を行う。NSの予備的な設定はミニマックス領域の近辺にあり、事前学習の過程で、あるべきところに行くが、ランダムなミニマックスには行かないという保証がすでにある。

例えるなら、小学生があるテーマについて、最初は簡単な問題を解くことを教わり、その問題がだんだん複雑になっていくようなものです。最初から複雑な問題を解かせようとするよりも、アラフォーに教える方が効果的です。

一般に、この方法は開口一番ではなく、文献のどこかで発生しているのですが、多くの本があり、私一人が覚えているわけではありません。いずれにせよ、その実装について考えてみました。さて、一般に既製のTSで解析関数を予測しようとする最初の試みは、段階的なものが必要である。



もしこれが失敗していなければ、2ページ前にfeを使った例を見ることができたはずです。

重みの初期化などの考え方がよくわからない。そうすると、事前学習用のグリッドが必要になるし、予測すべきことにまったく対応していないもので学習する意味があるのか。

強化 学習の基本を真似ているのでしょう。

 
マキシム・ドミトリエフスキー

アホがはぐらかしてなかったら2ページ前にF眼で例題が出てたはず。

重みの初期化とか、それから事前学習グリッドが必要で、予測すべきことにマッチしていないもので学習する意味があるのか、という考え方は理解できません。

強化学習の基本を表現しようとしているのでしょうね。

いいえ、事前学習用のグリッドは必要ありません。

1.近いデータ、明確に予測できるデータで事前学習を行う。スプライン、多項式、フーリエなど、実データから準備することができます。

2.p. 1に従ったネットワークの実データに対するポストトレーニング(非ランダム初期化あり)。

予測については、やり方がわかるし、成果が上がるかもしれないと思っています。分類としては、どうしたらいいのかわからない。

機能を使った例......そういうことではありません。そんな例はたくさんあります。

 
マキシム・ドミトリエフスキー

アレクセイは、最悪のキャットバストではなく、研究に最適なキャットバストを選択したのです。例えばCERNでは、衝突型加速器の結果を分析するのに使われている...量子ランダム性を扱う人)

非常に興味深い)。CERNのXGBoostは、偶然に出会った。

当然ながら、CERNはこの方法を大型ハドロン衝突型加速器の信号を分類するための最良の方法として認めている。CERNが提起したこの特殊な問題では、年間3ペタバイトのペースで生成されるデータを処理できる拡張性と、複雑な物理プロセスにおけるバックグラウンドノイズから極めて疎な信号を効率的に識別するソリューションが求められました。XGBoostは、最も便利でシンプル、かつ信頼性の高いソリューションとなりました。(2018年9月6日)

__________________________________

CatBoostは、欧州原子核研究機構(CERN)が大型ハドロン衝突型加速器(LHCb)の研究に導入し、LHCb検出器の異なる部分からの情報を組み合わせて、最も正確で集約された粒子に関する知識を得るために使用されています。データを結合するためにCatBoostを使用することで、科学者は最終的なソリューションの質的性能を向上させることができ、CatBoostの結果は他の手法で得られた結果よりも優れています[6][7]。

_______________________________________

ほとんど同じようなものばかりです。では、CatbustとXGBoostは どちらなのか?誰が誰をだましたんだろう?))

 
Aleksey Vyazmikin:

未来は不確実であり、パターンが行ったり来たりするのは普通のことですが、必ずしも短期的でなければならないかというと、それは疑問です。トレンド戦略の関係でサンプルがあまり多くないので、これ以上減らすのは無理があると思います。

しかし、トレーニングに参加したトレーニングサンプルとバリデーションサンプルの比率を変えて、その効果についての実験を行うことにしたのです。つまり、最初はトレーニングサンプルが90%、テストサンプルが10%で、その後テストサンプルを徐々に10%ずつ増やしていきます。 各サンプルには200個のモデルが含まれます - どうなるか見てみましょう。もうひとつは、これらの組み合わせを、平均値や絶対値で比較するのがベストなのか、ということですが、これはアイデア次第です。

10~15分から最大1時間までの短期パターンでは、何かを変えるような重要な出来事が起こる確率は非常に低く、特に重要な出来事についてすでに取引に入った場合はなおさらです。あと1時間以上したら......何が起こるか、少なくとも僕にはわからない。これはあなたへの反論ではなく、私の意見を支持するものです)。

あなたの道に沿って、私の修正と見解を加えることにした。特に、必要な予知能力がすでに備わっているのですから。XGBoostで試してみることにした一方で、何か私には見えた - または私はCatBoostの ドキュメントに感銘を受けなかった(XGBoost、imhoは、より明確である)、または何か他のもの。配給の何があるのか、まだ理解できていません。NSの場合、そこにすべてを配給するのは難しい。

 
ユーリイ・アサウレンコ

すべてほぼ同じです。では、CatbustとXGBoostは どちらなのか?) 誰が誰から騙されたんだろう?))

そして、それを元にモデルを作り、市場のカオスに放つ前に、それを理解するのが良いだろう。

半年ほど前、ここでCatBoostのテストが行われましたが、その時はXGBoostと違って、掛け算の表すら学習できなかったと記憶しています。

もしかしたら、単純なことが学べないなら、複雑なことに挑戦してみようということになったのかもしれませんね。

そして、これを判断するためには、上で提案した合成BPを使えばよいのでしょう。

 
Ivan Negreshniy:

そして、それをもとにモデルを作り、市場のカオスに放つ前に、それを理解するのがよいでしょう。

半年ほど前にCatBoostを試したところ、XGBoostと違って、掛け算表すら学習できなかったと記憶しています。

もしかしたら、簡単なことが学べないなら、複雑なことに挑戦してみようということになったのかもしれないし、本当にクールなのかもしれない。

そして、それはおそらく、上記の提案された合成BPを使用することができると判断できるだろう。

少なくともXGBoostはドキュメントがずっと充実していますしね。CatBoostは、Yandex独自の資料を除けば、一見すると他にはほとんどないように見えます。

 
ユーリイ・アサウレンコ

短期パターン(10-15分~最大1時間)によると、重要なイベントが何かを変える確率は非常に低く、特に重要なイベントですでに取引を行っているためです。あと1時間以上したら......何が起こるか、少なくとも僕にはわからない。これはあなたへの反論ではなく、私の意見を支持するものです)。

私は戦略の一環として、確率の変動をそのように見ていません。今(簡単に言えば、トレーニングで得られた統計によると)それのための有利な条件があるので、モデルが入力する信号を与えた場合、我々は入力し、TSの私の異なるバージョンの出口は異なっている - TP / SLのいずれか、または唯一のSLによって、です。その結果、ポジションを閉じる前に予測がキャンセルされることはなく、最大で3時間働く可能性があります。つまり、正確な時間ではなく、x小節前の価格に戻る確率、つまりローカルフラットの終了を予測しているのです。

つまり、3年間に発生したパターンが予測可能な事象につながったのであれば、4年目もそれが継続する可能性が高いが、トレーニング時間のごく一部で確認されたパターンは、上位TF(週足チャートでのトレンド)の状況を説明したものに過ぎない可能性があるということです。

とにかく、これは私の理論的な推測であって、これから実験結果を処理すれば、状況はもっと透明になる、と思っています。

ユーリイ・アサウレンコ

私は、あなた方のやり方を踏襲し、私なりの修正とビジョンを持って、このテーマに取り組むことにしました。特に、必要な予知能力がすでに備わっているのですから。XGBoostにしようとすることを決定しているが、何か彼は私に見えた - docs CatBoostは(XGBoost、イミフ、クリア)、または他の何を感動しないかどうか。配給の何があるのか、まだ理解できていません。NSの場合、そこですべてを正常化するのは難しい。

Catbustは、XGBoostのアイデアを発展させたもので、より多くのオプションがあり、主な長所と同時に短所は、固定次元の木であり、その数が多くない場合は再トレーニングができないことである。

純粋な分類のために正規化する必要のあるものはありません。ただし、予測変数の前処理として、値の範囲を 小さくしたり、範囲そのものを経験的にグループに分解したりしています。もしかしたら、このような変換をしない方が良い結果になったかもしれません。開発者は「自分で変換する必要はない」と言う一方で、桁変換のアルゴリズムにはさまざまな設定があり、さらに別のファイルから独自のブレークダウンを使用することもできます。キャットバストを指していますが、理屈はどこでも同じだと思います。

 
Ivan Negreshniy:

そして、それをもとにモデルを作り、市場のカオスに放つ前に、それを理解するのがよいでしょう。

半年ほど前にCatBoostを試したところ、XGBoostと違って、掛け算表すら学習できなかったと記憶しています。

もしかしたら、単純なことが学べないなら、複雑なことに挑戦してみようということになったのかもしれませんね。

そして、それを判断するために、おそらく上記の提案された合成BPを使用することができるだろう。

CatBoostと XGBoostは木の深さが違いますが、CatBoostは木の本数を増やすことに成功したと記憶しています。

また、木で異なる機能を見つけることについては、NSで検索して、その結果を分類の予測因子として与えるのがよいでしょう。とにかく、私は生値の餌を支持するものではないが、マキシムはそれで成功した、より頻繁な再教育が必要であるが。

 

NSの機能記述能力を疑う人へ