贝叶斯回归 - 有没有人用这种算法做了一个EA? - 页 28

 

关于该分支的主题:贝叶斯,mql

贝叶斯公式

线性依赖y=ax+b。

正态分布的公式。(原则上,你可以采取不同的分布)。

让我们重写一下这个公式

P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y);(1)。

接下来,根据我的理解,你需要列举出a和b的所有可能组合。根据公式(1),那些给出最大概率的a和b将成为系数。

 
Yuri Evseenkov:

关于该分支的主题:贝叶斯,mql

贝叶斯公式

线性依赖y=ax+b。

正态分布的公式。(原则上,你可以采取不同的分布)。

让我们重写一下这个公式

P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y);(1)。

接下来,根据我的理解,你需要列举出a和b的所有可能组合。根据公式(1),那些给出最大概率的a和b将成为系数。

有一些人怀疑情况并非如此。
 
Dmitry Fedoseev:
有一些人怀疑情况根本不是这样。
请分享你的猜测。
 
Yuri Evseenkov:
请分享你的猜测。
没有。如果我确定的话,我会把它放在代码中,但你可以无休止地唠叨下去。这条线上有这样的巨无霸,让他们在实践中展示他们的口才吧。
 
Dmitry Fedoseev:
没有。如果我确定的话,我会在代码中表示出来,但你可以无休止地唠叨下去。这条线上有这样的巨无霸,让他们在实践中展示他们的口才吧。
遗憾的是。在这个问题上,你是最具体的。而非顶层的有能力的同志对我来说非常有趣,但我害怕在 "森林 "里迷路。
 
Yuri Evseenkov:

关于该分支的主题:贝叶斯,mql

贝叶斯公式

线性依赖y=ax+b。

正态分布的公式。(原则上,你可以采取不同的分布)。

让我们重写一下这个公式

P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y);(1)。

接下来,根据我的理解,你需要列举出a和b的所有可能组合。根据公式(1),那些给出最大概率的a和b将成为系数。

你的思考方向似乎是正确的。我已经忘记了,但解释是这样的。

假设我们有一个时间序列(价格,如果你喜欢),Y = {y[1], y[2], ..., y[n]}。我们还有未知的模型参数W={w[1], w[2], ...。, w[m]}。假设模型是回归的,也就是

y[i] = SUM_j w[j]*f(X) + e[i] 。

其中f()是一个近似函数(例如多项式),X是输入数据,e[]是一个误差。

让我们用最大似然定理来寻找模型W的参数。

W = argmax ln(P(W|Y))

现在应用贝叶斯定理。

p(w|y) = p(y|w)*p(w)/p(y)

除以P(Y)是一个可以忽略不计的归一化。我们得到

(1) W = argmax {ln(P(W|Y))} ~ argmax {ln(P(Y|W)) + ln(P(W)) } ~ argmin {-ln(P(Y|W))- ln(P(W))}

P(Y|W),即在参数W下X的概率,可以计算如下。

P(Y|W) = P(SUM_j w[j]*f(X) + e[i] | W) = P(E)

如果误差具有正态分布且相互独立,那么

(2) P(Y|W) = P(E) ~ exp(-SUM{e[i]^2}/(2*sigma^2))

将(2)代入(1),得到

W ~ argmin {-ln(P(Y|W))- ln(P(W))} ~ argmin SUM{e[i]^2} - ln(P(W))

P(W)通常为1,我们可以拿出拉普拉斯分布。

P(W) ~ exp(-lambda*||W||_1)

我们得到

W ~ argmin SUM{e[i]^2} - ln(P(W)) ~ argmin SUMChe[i]^2 + lambda*||W||_1

结果,将最大似然法和贝叶斯定理应用于我们的高斯误差的序列回归,导致有或没有调整项lambda*的最小二乘法。或没有。数学是复杂的,但结果是简单的。如果你不喜欢正态误差分布,就用另一个分布来代替它,例如拉普拉斯分布,你会得到。

W ~ argmin SUM|e[i]| + lambda*||W||_1。

你也可以用一个超级高斯函数来代替,所以你会得到

W ~ argmin SUM|e[i]|^p + lambda*||W|_1

顺便说一下,这里写的调节性加法将最小二乘法变成了放空编码法。没有它,它就是一个经典的线性回归,通过微分W和等效为零来解决。

 
Vladimir:

你的思考方向似乎是正确的。我开始忘记了,但这里有解释。

假设我们有一个时间序列(价格,如果你喜欢),Y = {y[1], y[2], ..., y[n]}。我们还有未知的模型参数W={w[1], w[2], ...。, w[m]}。假设模型是回归的,也就是

y[i] = SUM_j w[j]*f(X) + e[i] 。

其中f()是一个近似函数(例如多项式),X是输入数据,e[]是一个误差。

让我们用最大似然定理来寻找模型W的参数。

W = argmax ln(P(W|Y))

现在应用贝叶斯定理。

p(w|y) = p(y|w)*p(w)/p(y)

除以P(Y)是一个可以忽略不计的归一化。我们得到

(1) W = argmax {ln(P(W|Y))} ~ argmax {ln(P(Y|W)) + ln(P(W)) } ~ argmin {-ln(P(Y|W))- ln(P(W))}

P(Y|W),即在参数W下X的概率,可以计算如下。

P(Y|W) = P(SUM_j w[j]*f(X) + e[i] | W) = P(E)

如果误差具有正态分布且相互独立,那么

(2) P(Y|W) = P(E) ~ exp(-SUM{e[i]^2}/(2*sigma^2))

将(2)代入(1),得到

W ~ argmin {-ln(P(Y|W))- ln(P(W))} ~ argmin SUM{e[i]^2} - ln(P(W))

P(W)通常为1,我们可以拿出拉普拉斯分布。

P(W) ~ exp(-lambda*||W||_1)

我们得到

W ~ argmin SUM{e[i]^2} - ln(P(W)) ~ argmin SUMChe[i]^2 + lambda*||W||_1

结果,将最大似然法和贝叶斯定理应用于我们的高斯误差的序列回归,导致有或没有调整项lambda*的最小二乘法。或没有。数学是复杂的,但结果是简单的。如果你不喜欢正态误差分布,就用另一个分布来代替它,例如拉普拉斯分布,你会得到。

W ~ argmin SUM|e[i]| + lambda*||W||_1。

你也可以用一个超级高斯函数来代替,所以你会得到

W ~ argmin SUM|e[i]|^p + lambda*||W|_1

顺便说一下,这里写的调节性加法将最小二乘法变成了放空编码法。如果没有它,它就是一个经典的线性回归,通过对W进行微分并等效为零来解决。

谢谢你!
 
Vladimir:

你的思考方向似乎是正确的。我开始忘记了,但这里有解释。

假设我们有一个时间序列(价格,如果你喜欢),Y = {y[1], y[2], ..., y[n]}。我们还有未知的模型参数W={w[1], w[2], ...。, w[m]}。假设模型是回归的,也就是

y[i] = SUM_j w[j]*f(X) + e[i] 。

其中f()是一个近似函数(例如多项式),X是输入数据,e[]是一个误差。

让我们用最大似然定理来寻找模型W的参数。

W = argmax ln(P(W|Y))

现在应用贝叶斯定理。

p(w|y) = p(y|w)*p(w)/p(y)

除以P(Y)是一个可以忽略不计的归一化。我们得到

(1) W = argmax {ln(P(W|Y))} ~ argmax {ln(P(Y|W)) + ln(P(W)) } ~ argmin {-ln(P(Y|W))- ln(P(W))}

P(Y|W),即在参数W下X的概率,可以计算如下。

P(Y|W) = P(SUM_j w[j]*f(X) + e[i] | W) = P(E)

如果误差具有正态分布且相互独立,那么

(2) P(Y|W) = P(E) ~ exp(-SUM{e[i]^2}/(2*sigma^2))

将(2)代入(1),得到

W ~ argmin {-ln(P(Y|W))- ln(P(W))} ~ argmin SUM{e[i]^2} - ln(P(W))

P(W)通常为1,我们可以拿出拉普拉斯分布。

P(W) ~ exp(-lambda*||W||_1)

我们得到

W ~ argmin SUM{e[i]^2} - ln(P(W)) ~ argmin SUMChe[i]^2 + lambda*||W||_1

结果,将最大似然法和贝叶斯定理应用于我们的高斯误差序列的回归,导致了一种最小二乘法,其支配和值为lambda*...或没有。数学是复杂的,但结果是简单的。如果你不喜欢正态误差分布,就用另一个分布来代替它,例如拉普拉斯分布,你会得到。

W ~ argmin SUM|e[i]| + lambda*||W||_1。

你也可以用一个超级高斯函数来代替,所以你会得到

W ~ argmin SUM|e[i]|^p + lambda*||W|_1

顺便说一下,这里写的调节性加法将最小二乘法变成了放空编码法。没有它,它就是一个经典的线性回归,通过W的微分和等价于零来解决。

谢谢你的详细评论。关键字和公式都给了,我会研究的。

"综上所述,将最大似然法和贝叶斯定理应用于我们具有高斯误差的系列回归中,可以得出带有lambda*调整项的最小二乘法......或没有。数学是曲折的,结果是简单的。"

深信不疑。几乎。用不同的方法计算的直线y=ax+b的系数a和b在数值上或近似于相等,这一点仍然存在疑问。 在这里,你需要费力地比较两种方法的公式或编写一个程序。 主要的是公式、算法和代码本身要符合理论。该方案必须:

-用最小二乘法计算线性回归y=ax+b的a和b的系数

-获得a和b的系数,在应用数学期望值等于ax+b的正态分布时,贝叶斯定理的概率是最大的

然后,我们需要比较这些系数,如果有相当大的差异,就根据这些a和b的动态,看看两条线的行为。例如,在可视化模式的策略测试器中。

该程序可以进一步使用其他模型、回归、分布与贝叶斯公式。也许有些东西会拍得非常好。

P.S 我想到了我最喜欢的例子。

"你有可能已经使用了贝叶斯思维,尽管你并不知道。讨论
我从尼尔-曼森那里学到的一个例子:你是一名战斗中的士兵,正躲在散兵坑里。你知道 一个事实
,战场上只剩下一名敌军士兵,大约在400
之外你也知道,如果是普通士兵,他不可能从那个
的距离击中你。然而,如果那名士兵是一名狙击手,他很有可能击中你
但敌军中没有多少狙击手,所以可能是一个普通士兵。你
,把头抬出壕沟,试图更好地观察周围。砰!一颗子弹擦过你的头盔
,你跌回散兵坑。
很好,你想。我知道狙击手很罕见,但这家伙从四百
码处击中我。仍然有很大的机会是一个普通士兵,但它是一个狙击手的机会已经
,因为他从这么远的距离打我。几分钟后,你
,敢于再次向外看,把头抬到散兵坑上方。砰!第二颗子弹
,擦过你的头盔。你又倒下了。哦,该死,你想。这绝对是一个狙击手。不管它们有多稀少,
,但是,一般的士兵不可能在这个距离上连续击中两次。 这绝对是
一个狙击手。我最好打电话请求支援。如果这是一个粗略的近似于你在
类似情况下的想法,那么恭喜你。你已经在像贝叶斯人那样思考了,至少有时候
。"
(作者不详)。

 
Yuri Evseenkov:


-用最小二乘法计算线性回归y=ax+b的系数a和b

-得到a和b的系数,在应用期望值等于ax+b的正态分布时,贝叶斯定理的概率是最大的


他们将是平等的,非常接近。问题是,在应用于金融市场时,试图为系数设定一个先验分布是否有意义。

我经常看到正则化应用于回归(L1、L2)。可能比序数线性回归 的效果更好。

 
Alexey Burnakov:

他们将是平等的,非常接近。问题是,试图为适用于金融市场的系数设定一个先验分布是否有意义。

我经常看到正则化应用于回归(L1、L2)。可能比序数线性回归 的效果更好。

我理解的系数a和b需要列举,以便根据贝叶斯公式P(a,b|x,y)=P(x,y|a,b)*P(a)*P(b)/P(x,y)找到给出最大概率的组合;(1)概率P(a)和P(b)将等于超调周期的步骤,是一个常值它们的分布将是均匀的。

P.S. 我坚持认为,真正的金融市场和外汇的性质有很大不同。外汇更像是一种赌博业务。一种多人的计算机在线模拟。因此,对于外汇来说,有可能适用这些领域的相关法律。例如,正态分布的规律。