トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1776

 
アレクセイ・ヴャジミキン

これらは、おっしゃるように「チャンス」は積み重ねられるからこそ、そのように保たれているのです。

確かに...このように、さまざまな木から得られたログドを足し合わせていくのです。そして、最終的な確率を算出する。
 
アレクセイ・ヴャジミキン

そうなんです、新しいものでも、ターゲットが間違っていることに今気づきました。実際のZZベクトルをオフセットで取ったのですが、これは間違っています。

ターゲットを出すために、スクリプトを起草しなければならない。

で、結果どうなったんだ?

 
マキシム・ドミトリエフスキー

どこかのチュートリアルで見たことがあるのですが...事前学習時とかでやっておくと便利なんでしょうね。

マキシム 今はクラスタリングをしているようですね。
ここでは、足場がクラスタリングと似ていることを示しています。

https://habr.com/ru/company/ods/blog/324402/

ランダムフォレストと k-nearest neighborアルゴリズムの類似性」編。

Открытый курс машинного обучения. Тема 5. Композиции: бэггинг, случайный лес
Открытый курс машинного обучения. Тема 5. Композиции: бэггинг, случайный лес
  • habr.com
Пятую статью курса мы посвятим простым методам композиции: бэггингу и случайному лесу. Вы узнаете, как можно получить распределение среднего по генеральной совокупности, если у нас есть информация только о небольшой ее части; посмотрим, как с помощью композиции алгоритмов уменьшить дисперсию и таким образом улучшить точность модели; разберём...
 
エリブラリウス


何か質問はありますか?

 
エリブラリウス

マキシム 今はクラスタリングをしているようですね。
ここでは、足場がクラスタリングと似ていることを示しています。

https://habr.com/ru/company/ods/blog/324402/

ランダムフォレストとk-nearest neighborアルゴリズムの類似性」編。

どうなんだろう...始めたけど、諦めた)森もクラスター化できますね。

クラスタリングについては、新しいデータも含めて、増分を3つのグループに分けることができます。カテゴリ特徴量として使用することに意味がある、これは私がやりたかったことだ。
 
マキシム・ドミトリエフスキー


ご質問はありませんか?

 
声優兄弟!!!!!!!勝ってしまった......。

これぞ勝者!!!!!!!ブラザーズ!!!!ホラアアアアアアアアアアアアアアアアアアアアアアアアアアアアアアアアアアアアアアア皆さん、ハッピーホリデー。

この戦争を忘れると、すぐに次の戦争が始まるからです。いつも覚えていよう!!!!!!!!!!ヴィクトリーーーーーーーーーーーーーーーーーーーーーーーーーーーーピュー、ピュー(これは私が架空のTTガンを乱射し、警官の制服を着て通りを走っているところ)。

 
ほら、私たちはバリケードの同じ側にいるんですよ!?皆さん、ハッピーホリデー
 
mytarmailS:

で、結果はどうなんだ、アクラシは?

10個のCatBoostモデル、木の深さは6、学習は100個の新しい木で停止し、結果は改善されない、100個単位で座っている。

Accuracy=70.72461682377491
Accuracy=70.86133697920415
Accuracy=70.77066992876159
Accuracy=70.64690220910988
Accuracy=70.78506152406995
Accuracy=70.88004605310499
Accuracy=70.69871195221991
Accuracy=70.59509246599985
Accuracy=70.58501834928403
Accuracy=70.71454270705908

学習サンプル8割2018年、2019年、2割のサンプルで学習停止を抑制。独立したサンプル 2020年1月~5月

もし、さまざまなパーティショニング手法でサンプルを拷問し、より多くのモデルを構築すれば、72を得ることができると思います。

分類のバランス


 
アレクセイ・ヴャジミキン

10個のCatBoostモデル、木の深さは6、学習は100個の新しい木で停止し、結果は改善されない、100個単位で座っている。

トレーニングサンプル80%2018年、2019年、20%のサンプルでトレーニング停止を制御する。独立したサンプル 2020年1月~5月

もし、さまざまなパーティショニング手法でサンプルを拷問し、より多くのモデルを構築すれば、72を得ることができると思います。

分類のバランス


まあ...ナイスでもっともなことです。また、トレード自体の収支や、エントリーのあるチャートも見てみたいです。

これは10機種のアンサンブルだと思いますが、これらの機種の違いは何でしょうか?

理由: