トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1508

 
mytarmailS:

イリヤ顧問のご機嫌はいかがでしょうか?

グレイルにはがっかりです。私の理論的な計算や仮定と強い乖離があるのです。私は、マキシムの同名の論文に触発され、いわゆるロングメモリー、長距離依存性という 現象を研究することになったのです。ARFIMAを ベースにしたインジケータを書きました 著者らは、ARIMAよりも 優れた予測能力を持つとしている。

Autoregressive fractionally integrated moving average - Wikipedia
Autoregressive fractionally integrated moving average - Wikipedia
  • en.wikipedia.org
In statistics, autoregressive fractionally integrated moving average models are time series models that generalize ARIMA (autoregressive integrated moving average) models by allowing non-integer values of the differencing parameter. These models are useful in modeling time series with long memory—that is, in which deviations from the long-run...
ファイル:
R_ARFIMA.zip  20 kb
 
イリヤ・アンチピン

ガッカリした。私の理論的な計算や仮定と強い乖離があります。Maximの同名の論文に触発されて、いわゆるロングメモリーや長距離依存性 という現象を研究しているのですが......。

そんなものはない、気にする必要はない。
 
イリヤ・アンチピン

グレイルにはがっかりです。私の理論的な計算や仮定と強い乖離があるのです。マキシムの同名の論文がきっかけで、いわゆるロングメモリー、長距離依存性という 現象を研究するようになりました。ARFIMAを ベースにしたインジケータを書きました 著者の意見では、ARIMAよりも 優れた予測能力を持つ。

LRDは波があるので、エンの高いところをフィルタリングして、それから予測するのが、小さな視点としては理にかなっています。そして、窓を選ぶ。

チェーンはクラスタリングに不利なのか? ほぼ理解できたので、面白半分にmqlで書き換えてみる、武器として持っておく。
 
イリヤ・アンチピン

グレイルにはがっかりです。

では、私が投げたインジケータをチェーンで試したのですか? それとも価格だけをいじったのですか?

 

感動した、甘やかされた心理学者は見ないほうがいい


 
マキシム・ドミトリエフスキー

感動した、甘やかされた心理学者は見ないほうがいい


どうだ!ドロビシェフスキーは、ホメニッド頭蓋骨の体系化から、その内容(頭蓋骨の意味)をテーマとした哲学へと移行したのである。 意外と知らない!?とても楽しく拝見しました、ありがとうございます。

ピシー:アノーヒンやチェルニゴフスカヤの功績に甘んじているわけではなさそうですね。
 
sibirqk

どうだ!ドロビシェフスキーは、ホメニドスカルプの体系化から、その中身(頭蓋骨)をテーマにした哲学的な考察に切り替えた。意外と知らない!?とても楽しく拝見しました、ありがとうございます。

ピシー:アノーヒンやチェルニゴフスカヤから安らぎを得られていないようだ。

わからないことがあると、必ず神頼みになるとか、信者の気持ちの前にひれ伏すような人は、まともに相手にしていられないですね。アノーヒンは常識人に見えるが、いざ高尚なことを考え始めると......。二枚目は言わずもがな :))

 
マキシム・ドミトリエフスキー

感心するほど甘やかされた心理学者は見ないほうがいい


よく驚いた、人型の古代類人猿・人間が現代猿人の祖先とされていることは知らなかった(58分18秒)。

素材からして、歴史にフィットしている感じがする :)残念ながら理由付けが弱く、矛盾していますが、一応の見解として、そうさせてください。

私見では、同様の研究は、種の発展に貢献した新しい突然変異を分離した亜種のDNAの変化の分析によってサポートされるべきであり、そうすれば、私にとってより興味深いものになるでしょう。

また、人間が日常生活の中で、重要な問題を含めて軽率に判断してしまうことが多い「条件反射」については、ロバート・チャルディーニの「影響力の心理学」という本が面白いです。そこでも話題は尽きないが、知識と関心のある人たちが目的に応じたテクニックを集めているのが興味深い。

 
ほらね、言ったでしょ :( 心理学者が恐竜と同じくらい古い化石からDNAを抽出するよう要求している。
 
マキシム・ドミトリエフスキー
回路はどうなっているのですか、性能が足りなくなったのでしょうか?

チェーンでは、すべてが曖昧です。EURUSD/M20のログリターンを取り、「lambertW」で「調整」してみました(写真はこちら)。 私は2つの状態(より良い方、著者は5と言う)でモデルを学習させました。以下、コードと写真を掲載します。

require(LambertW)
set.seed(12358)
y1 <- diff(log(pr$close), 3)*100
out <- Gaussianize(y1, return.tau.mat = TRUE)
x1 <- get_input(y1, c(out$tau.mat[, 1]))  #  same as out$input
#---
 States <- 2 L
#set.seed(12358)
 param0 <- matrix(c(0.1, 0.05, -1, -0.1, -0.05, 1), States, 3 L, byrow = TRUE)
gamma0 <- ldhmm.gamma_init(m = States)
h <- ldhmm(m = States, param = param0, gamma = gamma0, stationary = TRUE)

mod <- ldhmm.mle(h, x1)
dc <- ldhmm.decoding(mod, x1)
post <- t(as.matrix(dc@states.prob))
#predStates <- cbind(post[,1:States])
prStat <- apply(post, 1, function(x) which.max(x))
Stat <- dc@states.global

mod@param
mod@delta
floor(mod@gamma*10000)/100
ldhmm.ld_stats(mod)


> mod@param
               mu      sigma    lambda
[1,] -0.001182310 0.09119015 0.4625385
[2,]  0.001808756 0.04114724 0.6977260
> mod@delta
[1] 0.4189323 0.5810677
> floor(mod@gamma*10000)/100
      [,1]  [,2]
[1,] 93.79  6.20
[2,]  4.47 95.52
> ldhmm.ld_stats(mod)
             mean         sd kurtosis
[1,] -0.001182310 0.05256228 2.142325
[2,]  0.001808756 0.02542165 2.465665

シグナルとクウォートを描こう

par(mfrow = c(2,1))
matplot(tail(post, 300), t = "l", col = c(1,2,4,5))
abline(h = 0.5, col = 2)
plot(tail(pr$close, 300), t = "l")
par(mfrow = c(1,1))

信号

理由: