トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 189

 
サンサニッチ・フォメンコ


データマイニングの本を手に取ると、相関のある予測因子を除去する手順が必ず記述されています。

相互作用する予測因子は必ずしも相関があるとは限らない...。ターゲットで対話する...。

そして、相互作用の有無が種の結果を生む。

> summary(lm(data = train_sample_list[[1]], price_future_lag_diff_6 ~ price_diff_lag_11 * price_diff_min_lag_16))


Call:

lm(formula = price_future_lag_diff_6 ~ price_diff_lag_11 * price_diff_min_lag_16, 

    data = train_sample_list[[1]])


Residuals:

      Min        1Q    Median        3Q       Max 

-0.035970 -0.000824  0.000001  0.000847  0.027278 


Coefficients:

                                          Estimate Std. Error t value Pr(>|t|)    

(Intercept)                              3.883e-05  3.146e-05   1.234  0.21714    

price_diff_lag_11                        4.828e-02  9.092e-03   5.310 1.12e-07 ***

price_diff_min_lag_16                   -3.055e-02  1.141e-02  -2.678  0.00743 ** 

price_diff_lag_11:price_diff_min_lag_16 -3.520e+00  3.515e-01 -10.014  < 2e-16 ***

---

Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1


Residual standard error: 0.0024 on 10465 degrees of freedom

Multiple R-squared:  0.01611, Adjusted R-squared:  0.01583 

F-statistic: 57.11 on 3 and 10465 DF,  p-value: < 2.2e-16

すべての予測因子(およびその交互作用)は有意である。F統計ってすごいな...。

 
アレクセイ・ブルナコフ

相互作用する予測因子は必ずしも相関がない...ターゲットで対話する...。

そして、相互作用の有無が種の結果をもたらすのです。

> summary(lm(data = train_sample_list[[1]], price_future_lag_diff_6 ~ price_diff_lag_11 * price_diff_min_lag_16))


Call:

lm(formula = price_future_lag_diff_6 ~ price_diff_lag_11 * price_diff_min_lag_16, 

    data = train_sample_list[[1]])


Residuals:

      Min        1Q    Median        3Q       Max 

-0.035970 -0.000824  0.000001  0.000847  0.027278 


Coefficients:

                                          Estimate Std. Error t value Pr(>|t|)    

(Intercept)                              3.883e-05  3.146e-05   1.234  0.21714    

price_diff_lag_11                        4.828e-02  9.092e-03   5.310 1.12e-07 ***

price_diff_min_lag_16                   -3.055e-02  1.141e-02  -2.678  0.00743 ** 

price_diff_lag_11:price_diff_min_lag_16 -3.520e+00  3.515e-01 -10.014  < 2e-16 ***

---

Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1


Residual standard error: 0.0024 on 10465 degrees of freedom

Multiple R-squared:  0.01611, Adjusted R-squared:  0.01583 

F-statistic: 57.11 on 3 and 10465 DF,  p-value: < 2.2e-16

すべての予測因子(およびその交互作用)は有意である。F統計ってすごいな...。

まあ、「インタラクション」という言葉の意味について、私の考え方が違っていただけかもしれませんが。
 

ヴィザード_。

データがない...

データがない、なら議論することもない。

休め...お前!

 
ヴィザード_。
あなたのネットワークが適切に構成されていないことを9 y.y.であなたに言った人、そしてポリアナリストと数式を引っ張ることができます)))))少なくとも、バカにしないでユール、。
気取りや秘密はなく、標準的なdmのツールを使い、時には細かい編集もします。紹介にしか興味がない人は聞いてください。
が、現実はちょっと違う...。前回の実験は、実データを用いたものでした。簡単な人工的なデータでやってみた。第1セットは絶対的に認められた
を正しく表示します。追加したところ............。答えは100%のはずですが、jPrediction 11はとてもシャークな "ii "なので、なんとか諦めることができます)))要するに、ファインチューニングをする。

デバイスはまだ動かない。データは渡さない、見せびらかしてる、自分で考えろ...。バージョン20は、今日のような「広告」になるのなら、また見てみようかな)))


複数の最適化を行うと、必ず異なる結果が得られることをご存知でしょうか。これが最適化です。いつも同じ答えになるなら確かに良いのですが、あまりにも変です。何度か最適化してみてください。きっと10回中8回は100%になるはずです。そういうことか...と思いました。
 
サンサニッチ・フォメンコ
まあ、私が「インタラクション」という言葉の意味を勘違いしていただけかもしれませんが。


線形モデルにおける交互作用の扱いには明確なルールがある。これらは線形結合処理より少し複雑です:https://www.r-bloggers.com/interpreting-interaction-coefficient-in-r-part1-lm/

しかし、意味のあるインタラクションを見つけるには、たくさんの組み合わせを掘り起こす必要があります。今のは恥ずかしかったな。

Interpreting interaction coefficient in R (Part1 lm)
Interpreting interaction coefficient in R (Part1 lm)
  • grumble10
  • www.r-bloggers.com
Interaction are the funny interesting part of ecology, the most fun during data analysis is when you try to understand and to derive explanations from the estimated coefficients of your model. However you do need to know what is behind these estimate, there is a mathematical foundation between them that you need to be aware of before being able...
 
Mihail Marchukajtes:
複数の最適化を行うと、常に異なる結果が得られることをご存知でしょうか。最適化です、いつも同じ結果が出るならいいのですが、あまりにもおかしいので、何度か最適化をしてみてください、きっと10回中8回は100%が出ます。 つまり、こういうことです......。

訓練前の一般的なサンプルは、あるパターンは訓練用に、あるパターンはテスト用にと、ランダムに分割されていることにも気づいていないのだ。また、このような内訳では、パターンを明らかにするために必要なパターンがテスト部分に混在しており、トレーニング部分には表現されていないことが判明することも十分にあり得る。また、アルゴリズムは学習部分のみを学習し、テスト部分の中身を知るテレパシー能力がないため、汎化能力を計算する際にエラーが発生します。つまり、驚くようなことは何も起こらないのです。

しかし、パターンを特定すべきものが、サンプルの異なる部分に均等に 分布していることが判明した場合、上記の場合よりも高い学習能力を発揮する。

つまり、ケースバイケースの効果があり、どんなランダム性も遅かれ早かれ望ましくない面を見せる可能性があるのです。

一般的なサンプルをランダムではなく、決定論的に分割する方法が見つかる可能性は十分にあるのではないでしょうか?しかし、これまでの経験から、サンプル分割の決定論はすべてフィッティングに陥り、その後に過学習が起こることが分かっている。

 
ユーリー・レシェトフ

一般的なサンプルをランダムではなく、決定論的な方法で分割する方法を見つけることは可能かもしれませんね?しかし、これまでの経験から、サンプルの分割を決定論で行うと、フィッティングやその後の再トレーニングに支障をきたすことが分かっています。

何度かトレーニングを行い、その都度ランダムにサンプルを分割したいのでは?そして、この用意された学習済みモデルのセットから、私たちはモデルを選択し、一般に、そのモデルがどれほど優れているかを評価することができます。
だから、決定論の人質にならずに、ランダムに フィットしたモデルが得られる確率を否定することができるのです。

 
アンドレイ・ディク
何度かトレーニングを行い、その都度ランダムにサンプルを分割する必要があるのでは?そして、この準備された学習済みモデルのセットから、モデルを選択し、一般的にモデルが良いかどうかを評価することができます。
つまり、決定論にとらわれずに、ランダムに フィットするモデルが得られる確率をゼロにすることができるのです。

これはjPredictionにすでに実装されています。つまり、複数の異なるサンプル分割が異なるCPUコアで並行して計算されます(2つのバイナリ分類器は空きコアあたり1テラリです)。プロセッサーは100%負荷がかかっていることが判明。問題は、CPUのコア数が限られているため、パターンの不均等分布の確率を下げることはできても、それを最小化することは非常に困難であることです。PCではなく、スーパーコンピュータでパターンを学習させれば別ですが。

例えば、中国のスーパーコンピュータ「天河2号」でパターン計算をする場合、312万コアを搭載 しています。サンプルの一部にパターンが偏在する確率は無視できないだろう。4コアのスタッフ(さらに他のタスクのために数コア確保)でパターン計算をすれば、遅かれ早かれイレギュラーな事態に遭遇しても不思議ではありません。

 
なぜこんなことをするのか 誰も私に聞いていないことを思い出してほしいのですが、私は出力変数を1と0の数に等しくしているのです。私は、シグナルの利益を-10pipsから+50pipsまで調整することでそれを行っています。1と0の量が同じであれば、モデルが2つに分かれることはほとんどない。もう一度言いますが、分け方は重要ではなく、分け方が安定していることが重要なのです......。
 
ユーリー・レシェトフ

これはjPredictionにすでに実装されています。つまり、複数の異なるサンプル分割が異なるCPUコアで並行して計算されます(2つのバイナリ分類器は空きコアあたり1テラリです)。プロセッサーは100%負荷がかかっていることが判明。問題は、CPUのコア数が限られているため、パターン分布が不均一になる確率を下げることはできても、それを最小化することは非常に困難であるということです。PCではなく、スーパーコンピュータでパターンを訓練するのであれば話は別ですが。

例えば、中国のスーパーコンピュータ「天河2号」でパターン計算をする場合、312万コアを搭載 しています。サンプルの一部にパターンが偏在する確率は無視できないだろう。4コアのスタッフでパターン計算をすれば(2コアは他のタスクのために確保)、遅かれ早かれイレギュラーに遭遇するのは当然のことです。

つまり、便利なものなんです。だから、4つのパーティションでは明らかに足りない代わりに、40のパーティションを作る必要があります。4コアの場合、カウントに10倍の時間がかかりますが、堅牢性を優先して時間を犠牲にすることもできるのでしょう。

"できることなら、役に立つことなら、やるべきだ "と。(c) Papo Carlo Albertovich.

理由: