交易中的机器学习:理论、模型、实践和算法交易 - 页 1508

 
mytarmailS:

伊莉娅顾问怎么样了?

我对圣杯感到失望。与我的理论计算和假设有很大偏差。我受到马克西姆同名文章的启发,研究所谓的长记忆或长距离依赖 现象。我写了一个 基于ARFIMA指标 作者声称它比ARIMA 有更好的预测能力。

Autoregressive fractionally integrated moving average - Wikipedia
Autoregressive fractionally integrated moving average - Wikipedia
  • en.wikipedia.org
In statistics, autoregressive fractionally integrated moving average models are time series models that generalize ARIMA (autoregressive integrated moving average) models by allowing non-integer values of the differencing parameter. These models are useful in modeling time series with long memory—that is, in which deviations from the long-run...
附加的文件:
R_ARFIMA.zip  20 kb
 
伊利亚-安提平

失望。与我的理论计算和假设有很大偏差。马克西姆的同名文章激励我研究所谓的长记忆或长距离依赖 现象。

没有这样的事情,你不必担心这个问题。
 
伊利亚-安提平

我对圣杯感到失望。与我的理论计算和假设有很大偏差。马克西姆的同名文章激励我研究所谓的长记忆或长距离依赖 现象。我写了一个 基于ARFIMA指标 在作者看来,它比ARIMA 有更好的预测能力。

LRD在波浪中漂浮,过滤掉高en的区域是有意义的,那么预测就有意义了,对于一个小的角度。并选择一个窗口。

链子对集群不好吗? 我已经差不多了,我会把它们改写成mql来玩,让它们成为我的武器库
 
伊利亚-安提平

我对圣杯感到失望。

那么,你有没有试过我抛出的带链子的指标? 还是你只在价格上做了手脚?

 

印象深刻、养尊处优的心理学家最好不要看


 
马克西姆-德米特里耶夫斯基

印象深刻、养尊处优的心理学家最好不要看


怎么样!?德罗比舍夫斯基从系统化的homenid头骨,已经转移到关于他们的内容(头骨是指)的主题的哲学研究。 出乎意料的是!我非常高兴地观看了它,谢谢。

Pyssy:看来他对阿诺金和切尔尼戈夫斯卡娅的桂冠意犹未尽。
 
sibirqk:

怎么样!?德罗比舍夫斯基从霍梅尼德头骨的系统化转为对其内容(事实上是头骨)的哲学思考。出乎意料的是!我非常高兴地观看了它,谢谢。

Pyssy:看起来他没有从阿诺金和切尔尼戈夫斯卡娅那里得到任何和平。

我不能认真对待那些当他们不理解某些东西时,他们总是来找上帝,或者他们在信徒的感情面前如此卑躬屈膝的人。阿诺金似乎是个理智的人,但当他开始思考高大上的东西时......关于第二个问题我就不说了 :))

 
马克西姆-德米特里耶夫斯基

印象深刻的养尊处优的心理学家最好不要看


好惊讶,不知道人形古猿/人类现在被认为是现代猿人的祖先(58:18)。

从材料上看,感觉是符合历史的:)不幸的是,这种推理是软弱无力和自相矛盾的,但作为一种观点--随它去吧。

在我看来,类似的研究应该得到亚种DNA变化分析的支持,并分离出为物种发展服务的新突变--那么它对我来说会更有趣。

至于 "条件反射",一个人在日常生活中经常不假思索地做出决定,包括在重要问题上,罗伯特-西亚尔迪尼的一本书《影响心理学》很有意思。那里也没有完全涵盖这个主题,但有知识和有兴趣的人为了他们的目的而收集的技术很有意思。

 
你去吧,我告诉过你:(心理学家要求从化石遗骸中提取DNA,像恐龙一样古老。
 
马克西姆-德米特里耶夫斯基
那么电路呢,你的性能用完了吗?

有了链子,一切都变得模糊不清了。我取了一个EURUSD/M20的logreturn,用 "lambertW "对其进行了 "调整"(图片在此)。 我用两种状态训练模型(更好的状态,作者说是5)。下面你将看到代码和图片。

require(LambertW)
set.seed(12358)
y1 <- diff(log(pr$close), 3)*100
out <- Gaussianize(y1, return.tau.mat = TRUE)
x1 <- get_input(y1, c(out$tau.mat[, 1]))  #  same as out$input
#---
 States <- 2 L
#set.seed(12358)
 param0 <- matrix(c(0.1, 0.05, -1, -0.1, -0.05, 1), States, 3 L, byrow = TRUE)
gamma0 <- ldhmm.gamma_init(m = States)
h <- ldhmm(m = States, param = param0, gamma = gamma0, stationary = TRUE)

mod <- ldhmm.mle(h, x1)
dc <- ldhmm.decoding(mod, x1)
post <- t(as.matrix(dc@states.prob))
#predStates <- cbind(post[,1:States])
prStat <- apply(post, 1, function(x) which.max(x))
Stat <- dc@states.global

mod@param
mod@delta
floor(mod@gamma*10000)/100
ldhmm.ld_stats(mod)


> mod@param
               mu      sigma    lambda
[1,] -0.001182310 0.09119015 0.4625385
[2,]  0.001808756 0.04114724 0.6977260
> mod@delta
[1] 0.4189323 0.5810677
> floor(mod@gamma*10000)/100
      [,1]  [,2]
[1,] 93.79  6.20
[2,]  4.47 95.52
> ldhmm.ld_stats(mod)
             mean         sd kurtosis
[1,] -0.001182310 0.05256228 2.142325
[2,]  0.001808756 0.02542165 2.465665

我们来画一下信号和报价

par(mfrow = c(2,1))
matplot(tail(post, 300), t = "l", col = c(1,2,4,5))
abline(h = 0.5, col = 2)
plot(tail(pr$close, 300), t = "l")
par(mfrow = c(1,1))

信号