トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3056

 
mytarmailS #:
たった1行のコードだ。

そして、自己欺瞞に陥らないように、自分のためだけに、自分でやるべきだったんだ......。
だから、あなたがまだ知らないというのは奇妙なことだ。:) しかし、私たちはそれについて知る必要はない:)

この話題について何か?読むと面白いですよ。
いや~まあ、神に感謝
 
Maxim Dmitrievsky #:
この話題について何か?
いや、よかった。

話題になっていない?

何がそんなにおかしいんだ?
 
Maxim Dmitrievsky #:

matstatレベルであろう。新しいデータ(検証サブサンプル)において、複数のモデルが平均して同じことを予測するのに間違っている場合、それはまったく予測不可能であり、"取引しない "ことに移行する。

特定の時間とサイン/シグナルの対応する値を "同じもの "とみなすことができる。

時々、穴の開いたキルトを取得し、(ゴミを捨てて)再フィッティングを行いました。その後、残りのキルトのピースを分類し、いくつかの穴をダーニングして、すでに小さなキルトを得る。その後、もう何も捨てずに、それぞれの小さなキルトをトレーニングした。


このようにして、オーバーフィッティングは予測可能な島を素早く特定するのに役立った。同時に、再適合から逃れることもできた。


例えば、私は午後に30分間続く長時間のパターンを見つけた。

 
fxsaber #:

時々、(ゴミを混ぜて)仕立て直しをして、穴のあいたキルトを作った。そして、残ったキルトのピースを分類し、穴のいくつかを縢り、小さなキルトを作る。その後、それぞれの小さなキルトを捨てずに訓練した。


このようにして、オーバーフィッティングは予測可能な島を素早く特定するのに役立った。同時に、オーバーフィッティングからの脱却にも役立った。


例えば、午後に30分間続く長時間のパターンを見つけた。

毛玉はすでに小さな毛布に乗っていたのだろうか?:)
 
Maxim Dmitrievsky #:
毛玉はもう小さな毛布の上を転げ回った?:)

はい、そうでないと、意味がなくなります。

 
fxsaber #:

そうでないと、意味がなくなってしまう。

また、トレーニングのないサブサンプルとトレーニングのあるサブサンプルをols回帰係数(「治療」の効果の推定)によって比較する場合、パンで表現することもできます。

T=1が治療ありのサンプル、T=0が治療なしのサンプルで、平均が治療効果の有無の差である。

因果推論はまだまだ未熟です。


 
Maxim Dmitrievsky #:

また、トレーニングのないサブサンプルとトレーニングのあるサブサンプルを比較する際に、ols回帰係数を用いてパンを表現することも可能である(「トリートメント」効果の推定)。

T=1 標本は治療あり、T=0 標本は治療なし、平均は平均で治療効果があったかどうかの差である。

私は関連に弱い。MEの理解はゼロ。

因果推論はやっぱり苦手。

コミュニケーションの形式が悪いだけなのに、変な人だ。間違いなく、深く考える良いきっかけになる。本当に市場に蹴られた。

 

ーグラフはー乱数関数でーによってーによってーによってーによってー


のののののののののののののののののののののののののののののののののののののののののす。

ー ローソク足のー、ー エスキモー、ー テイクオーバーーーーすべてそこにある。

library(quantmod)
library(xts)

len <- 20000

times <- seq(as.POSIXct("2016-01-01 00:00:00"), length = len, by = "sec")

random_prices <- cumsum(rnorm(len))
s <- as.xts(random_prices,order.by = times)
s <- to.period(s,period = "minutes",k = 5,indexAt = 'startof')

chart_Series(s)


ーなにがー本物、ーなにがー錯覚ー


そして、筆者の正確なインプットのテクニックは、そこでも機能する。

 

あらゆるトレンドやさまざまな状況をモデル化し、TSのパラメーターを計算することができる。


 

「ローソク足に身を包んだ "あなたの正弦波モデル

2つの正弦波モデルのローソク足で見た反転とは?

それは、ボラティリティが大きな波の中で統計的な安値まで下がることです。

トレンド・エントリーとは何かは、こちらをご覧ください。

理由: