贝叶斯回归 - 有没有人用这种算法做了一个EA? - 页 15

 
另外...你可以在你的脑子里把它短路。对优素福曲率的适应是沿着一个斜线段(几乎是一个直线段,其凸度可以忽略不计)进行的,预测它最终会水平移动。想一想吧!事实证明,该方法不适用第二次,这种一次性的。
 
Yousufkhodja Sultonov:
显然,市场并不真正关心预测本身,特别是在短期内。从长期来看,预测给出了年均10-12%的适度成果,许多人对此并不满意。

长期或短期有什么区别呢?只要换一下时间框架。

鉴于风险量,10-12%,一点都不有趣。

 
Dmitry Fedoseev:
更多...你可以在你的头脑中短路。对优素福曲率的适应是在一个斜坡段上进行的(几乎是一个直线段,其凸度可以忽略不计),预测最终是为了一个水平运动。想一想吧!事实证明,该方法不适用第二次,这种一次性的。

然后,输入所有的数据,2015年的预测就不会改变。看一看。


 
Yousufkhodja Sultonov:
......而在(18)的情况下,你不需要做任何事情,它将以最好的方式自我调整。你只是没有勇气承认,在各种意义上,比(18)更好的模型还没有被 发明出来。

诺贝尔委员会对(18)是怎么说的?或者说他们没有勇气承认吗?

 
Dmitry Fedoseev:

长期或短期有什么区别呢?只要换一下时间框架。

鉴于风险量,10-12%,一点都不有趣。

风险要低得多,因为,利润系数在3到6之间。
 
Yury Reshetov:

诺贝尔委员会对(18)是怎么说的?

尤拉,没有时间考虑这个问题了,他们会在大约100年后清醒过来。不幸的是,没有人认真对待它,不研究它。然而,后人应该欣赏它。
 
Dmitry Fedoseev:

那么这里有什么,怎么会有混淆呢?

什么可信度?

的可能性。

a) 模型的系数

b) 模型本身

假设系数是如此这般分布的,例如,系数1的平均值为0.5,标准差为0.5。0,1.这个假设是叠加在系数的结果上的,所以与OLS有区别。有一个山脊回归的概念,其中对系数的可能值进行了限制;在我的理解中,这也是一个数量级。

而错误的正常性,嗯,它必须存在。有一种广义线性回归,我对它一无所知,不知为何那里的所有假设都被绕过了。

UPD:在估计epsilon(系数)值的t统计量时,对模型残差采用sigma估计法。如果残差的分布在某处高度倾斜,不是对称的(理想情况下应该是正常的),那么系数的显著性将不再有效。换句话说,模型参数是不可信的。因此,假设误差为正态分布。

 
Alexey Burnakov:

的可能性。

1.a) 模型的系数

b) 模型本身

2.在系数是如此这般分布的假设下,例如系数1的平均值为0.5,st.dev.0,1.这个假设是叠加在系数计算结果上的,所以与OLS有区别。有一个山脊回归的概念,其中对系数的可能值进行了限制;据我所知,这是从同一角度出发的。

3.而错误的规范性,嗯,它必须存在。有一种广义线性回归,我对它一无所知,不知为何那里的所有假设都被绕过了。

4.UPD:在估计epsilon(系数)值的t统计量时,对模型残差采用sigma估计法。如果残差的分布在某处高度倾斜,不是对称的(理想情况下应该是正常的),那么系数的显著性将不再有效。换句话说,模型参数是不可信的。因此,假设误差为正态分布。

1.所以我们得到 "最大化模型系数的可能性 "或 "最大化模型的可能性"。那里有说吗?

2.系数和分布与它有什么关系?为什么要计算系数的平均值呢?

3.是什么让你认为这些错误是正常的?分布的对称性是足够的。它只会影响趋势开始时的敏感性。

4.你真的在这些类别中思考并真正理解你所写的内容吗?

 
Yousufkhodja Sultonov:
尤拉,没有时间考虑这个问题了,他们会在100年后清醒过来的。不幸的是,没有人认真对待它,不研究它。然而,后人应该感谢它。
没有什么可认真对待的。事实上,这个问题是在与自动化有关的某个系的四年级学生的学期论文层面上解决的。
 
Dmitry Fedoseev:

1.所以我们得到 "最大化模型系数的可能性 "或 "最大化模型的可能性"。它是这样说的吗?

2.系数和分布与它有什么关系?为什么要计算系数的平均值呢?

3.是什么让你认为这些错误是正常的?分布的对称性是足够的。它只会影响趋势开始时的敏感性。

4.你真的在这样的范畴内思考,真的理解你所写的东西吗?

1.可能性最大的是:进一步走长公式。我们可以说我们得到了均方残差的最小值,也可以说我们得到了最大的似然。

2.可能有一些你不明白的地方。系数b1是什么?系数b1的样本值的数学期望值,在不知道系数b1对一般人群的参数的情况下,是t分布的。线性回归(普通最小二乘法)给出了E(b)和sigma(b)的估计值,即系数b1的标准误差。你在模型的输出中看到的是所有这些估计。然后有一个关于E(b)与0有多大差异的估计,即t统计量和相关概率。

3.对于趋势,我无话可说。对称性是很重要的--事实。残差上的西格玛也很重要。峰度的系数也很重要。

4.我最近读了很多关于回归的书,所以我上面写的东西我都明白。我向我的客户报告回归结果,必须了解一些情况。虽然我更喜欢非参数方法。