トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1373

 
エリブラリウス
Rでダーチをノコギリで切ってました。いくつかのバグを発見し、コメントに記載しました。数週間の沈黙の後、このDarchはCRANaのアーカイブにあることが判明しました。
開発者にいくつかの修正を依頼し、彼はそれを実行しました。そして、完全に元のバージョンにロールバックし、すべての修正を消去してしまったのです。その結果、私が使用した改造品はすべて使用できなくなった。
結論 - すべて自分でやるか、サポートが充実しているトップ製品を使うか。

1.フォークを作成し、すべての変更をホストする必要があります。採用されることもあれば、されないこともありますが、あなたのGitHubからあなたのバージョンを使用することができるようになります。

2.もちろん、これが最も確実な方法です。

 
マキシム・ドミトリエフスキー

複雑なものを求めても、シンプルなものがいかに美しいか理解できない人のために

と英語はもちろん、リクエストに応じて。自分で翻訳することはありません。記事の翻訳ができるサイトへのリンクがあります。


この非常に興味深いレポートは、単純なものと複雑なものだけではありません。強調したいのは、複雑な前処理をすることで、問題解決を単純なモデルに落とし込むことができるという点です。私が記事の中で飽きることなく繰り返し述べている、シンプルな真実の確認なのです。「主な労力は予測変数の前処理に割くべきであり、モデルは二の次である。

スピーカーが可笑しい。

グッドラック

 
Vladimir Perervenko:

この非常に興味深い話は、単にシンプルとコンプレックスの話だけではありません。複雑な前処理を使うことが、いかに簡単なモデルで問題を解決することに還元されるかに重点を置いています。これは、私が記事の中で繰り返し述べている単純な真実の確認なのです。「主な労力は予測変数の前処理に割くべきであり、モデルは二の次である。

スピーカーが可笑しい。

グッドラック

XGBOOSTは、入力配列の重みを行の重みとします。他のパッケージにも搭載されているものもあります。
そこで、1(新しい文字列)から0.5(古い文字列)までの重みを書くことができるのではないかと考えていました。そうすれば、新しいデータのインパクトが増す。
試してみましたが、特に改善は感じられませんでした。

どなたか試された方はいらっしゃいますか - 改善されましたか?

 
エリブラリウス
XGBOOSTは、入力配列weightsに行の重みを持たせています。他のパッケージにも搭載されているものもあります。
そこで、新しいデータには1、古いデータには0.5というように重みを書けばいいと思ったのです。そうすれば、新しいデータのインパクトが増す。
試してみましたが、特に改善は感じられませんでした。

どなたか試された方はいらっしゃいますか - 改善されましたか?

少し間違っていますね。例えばtrain[2000,]とtest[500,]がありますね。trainで初期例重みを1.0として学習し、test[]述語を学習済みモデルにする。各テストのプリフィックスの品質に基づいて、重みをつけるのです。次に,trainとtestを組み合わせて新しい学習サンプルを形成し,モデルを学習し,テストするという作業を,すべての学習サンプルがこの方法で得られた重みを持つまで繰り返す.古いバーにはリダクションファクターを適用することができますが、私は確認していません。もちろん、これらはすべて分類のためです。

now_train <- rbind(train,test)%>% tail(dim(train)[1])

ELMで確認したところ、良好な結果が得られています。

グッドラック

 
ウラジミール・ペレヴェンコ

それはちょっと違うんじゃないですか?例えばtrain[2000,]とtest[500,]がありますね。nrainで初期例重み=1.0で学習し、述語test[]を学習済みモデルにする。各テストプリフィックスの品質に基づいて、重みをつけています。そして,訓練とテストを統合し,新しい訓練サンプルを作成し,モデルを訓練し,テストするという作業を,訓練サンプル全体がこの方法で得られた重みを持つようになるまで繰り返す.古いバーにはリダクションファクターを適用することができますが、私は確認していません。もちろん、これらはすべて分類のためです。

ELMで確認したところ、良好な結果が得られています。

グッドラック

クロスバリデーションのように、データを5~10個のパーツに分け、すべての重みが設定されるまで、サイクルごとに重みをつけていくのです。バランスを考えて2-3回フルサークルをした方がいいと思います。

自習のように何度も反復して最適な行の重みを設定することを思い出す。
 
エリブラリウス
クロスバリデーションのように、データを5~10個に分割し、それぞれの行の重みを設定し、すべての行の重みが設定されるまで繰り返す。バランスをとるために、2-3回フルサークルをするべきだと思います。

自習のように何度も反復して最適な行の重みを設定することを思い出す。

クロスチェックで確認することが可能です。

 
エリブラリウス
XGBOOSTは、入力配列weightsに行の重みを持たせています。他のパッケージにも搭載されているものもあります。
そこで、文字列の重みを1(新鮮)から0.5(古い)まで書けばいいのではないかと考えたのです。そうすれば、新しいデータのインパクトが増す。
試してみましたが、特に改善は感じられませんでした。

どなたか試された方はいらっしゃいますか - 改善されましたか?

では、新しいものの下だけで、教育してください。これらの重みは、データセットでのモデル分散のアライメントのためのもので、ロジット回帰では、変数分散も使用されます(もし、私が何を話しているのか混乱していないなら)。

データセットフィッティング以外の概念的に重要な改良はないはずです。

小さな部分標本に対する一般集団の信頼できる一般化が必要な場合、これらはベイズ的なアプローチです。
 
elibrarius:
XGBOOSTは、行の重みを持つ重みの入力配列を持っています。他のパッケージにも搭載されているものがあります。
新しいデータには1、古いデータには0.5というように、重みをつけることができると考えていました。そうすれば、新しいデータのインパクトが増す。
試してみましたが、特に改善は感じられませんでした。

どなたか試された方はいらっしゃいますか - 改善されましたか?

これらの重みが最初の木の構築に影響を与えるということです。つまり、ほとんど同じ種とバグ、異なる技術です。理論的には,よく分離されたサンプル予測変数が 正しい分類を与えるそれらの行の背景に移動させれば,結果は大きく変わる可能性があります.

X分割から予測変数の適用を設定することはできないのでしょうか?良いモデルに出会えるというのは、とても有意義なことだと思います。
 
マキシム・ドミトリエフスキー

じゃあ、新しいものだけトレーニングすればいい。これらの重みは、データセット上で モデルの分散を調整するための もので、ロジット回帰では、変数の分散も使用されます(私たちが話していることが間違っていなければ)。

データセットフィッティングを除き、概念的に有意な改良は、与えるべきではありません。

小さな部分標本に対する一般集団の信頼できる一般化が必要な場合は、ベイズアプローチになります

つまり、アライメントはウラジミールが提案した方法で選ばれるのですか?

 
アレクセイ・ヴャジミキン

考え方としては、これらの重みは最初の木の構築に影響します。つまり、ほとんど同じ種とバグ、異なる技術です。理論的には,よく分離されたサンプル予測変数が正しい分類を与える行で,バックグラウンドにシフトさせれば,結果は大きく変わる可能性があります.

X分割から始まる予測変数のみの適用方法を指定することはできないのでしょうか?良いモデルを探すのにとても役立つものだと思います。

これらの重みはブースティングだけでなく、フォレストやNSの場合にも適用可能である。どうやら、この方法論はMoDの全システムに共通するようだ。
最初に古いデータの影響を減らす実験をしたところ、改善が見られませんでした。

80000行で学習した場合よりも、30000行で学習した場合の方が、テストは良好に見える。80000では、両方のトランザクションが小さくなり、誤差が大きくなっています。重量を比例して減らしてみたが(新鮮なものを1、古いものを0.5)、結果はほとんど同じだった。


どうやら、Maximが指摘したように、Vladimirが述べた方法によって、やはり分散のアライメントをとるためのようです。

理由: