交易中的机器学习:理论、模型、实践和算法交易 - 页 488

 
马克西姆-德米特里耶夫斯基

好吧,这是一个把筹码和目标弄清楚的问题,虽然看起来有什么比乘法表更简单的,但那里也有不小的错误。

我不能确定它们是否正确,但如果它们不正确,你就无法检查它们的训练,因此会出现错误。

恕我直言。
 
安德烈-基塞廖夫
我不能确定训练的正确性,因此有错误。 在外汇中,至少在某种程度上,乘法表有重复,没有重复。

恕我直言。

嗯,是的,鉴于RF根本没有能力推断

 
蜴_

可以...


(它到处都说,比如,不要...)

 
Vizard_

你还写了一个拨浪鼓))))但你决定让它产生另一个。
把它放在--
х = 1 0 1 0 1 0 1 0 1 0
目标 = 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0
那么 -
х = 1 0 1 0 1 0 1 0 11
目标 = 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0
等...
关于一个可解释的例子,请看不久。
准确性、损失、卡帕......等等,随你喜欢。前面指出的很好,也很正确--
森林里有很多东西可以看...


好的,如果是这样,我将完成战略,然后我们将看到什么是什么 :)

 

问候neuronauts!伟大的思想 ))

这是一部关于一个神经学家创造了一个超级预测软件程序并 "帮助 "一家银行 "致富 "的电影。



 
亚历山大-伊万诺夫

问候neuronauts!伟大的思想 ))

这里有一部电影,讲的是一个神经科学家创造了一个超级预测引擎,并 "帮助 "一家银行 "致富"。




看《德州电锯杀人狂》,这是一部新的、令人放松的电影。

 

我不禁想到,有一些问题是分类和回归模型所共有的。


其中一个问题是多重共线性,它通常被解释为输入变量之间的相关性,但这可能并不完全正确。


一般意义上的多重共线性会导致一个非常不愉快的后果,破坏了我们的建模工作。

  • 模型参数变得不确定
  • 估计的标准误差变得无限大。


如果把多重共线性理解为输入变量(解释变量、预测变量)之间的线性关系,那么我们就会有如下图景

  • 尽管OLS的估计值仍然是无偏的,但它们有很大的方差和协方差,因此很难做出准确的估计。
  • 因此,置信区间往往更宽。所以我们可能不会拒绝 "零假设"(即真实的采样率为零)。
  • 由于t的第一效应,一个或多个系数的比率往往在统计上不显著
  • 即使有些回归系数在统计学上不显著,但R^2值可能非常高。
  • OLS估计工具及其标准误差可能对数据的微小变化很敏感


这里有一篇文章,提供了R工具来识别多重共线性的存在。

Multicollinearity in R
Multicollinearity in R
  • Bidyut Ghosh
  • www.r-bloggers.com
One of the assumptions of Classical Linear Regression Model is that there is no exact collinearity between the explanatory variables. If the explanatory variables are perfectly correlated, you will face with these problems: However, the case of perfect collinearity is very rare in practical cases. Imperfect or less than perfect...
 
桑桑尼茨-弗门科

我不禁想到,有一些问题是分类和回归模型所共有的。


其中一个问题是多重共线性,它通常被解释为输入变量之间的相关性,但这可能并不完全正确。


一般意义上的多重共线性会导致一个非常不愉快的后果,破坏了我们的建模工作。

  • 模型参数变得不确定
  • 估计的标准误差变得无限大。


如果把多重共线性理解为输入变量(解释变量、预测变量)之间的线性关系,那么我们就会有如下图景

  • 尽管OLS的估计值仍然是无偏的,但它们有很大的方差和协方差,因此很难做出准确的估计。
  • 因此,置信区间往往更宽。所以我们可能不会拒绝 "零假设"(即真实的采样率为零)。
  • 由于t的第一效应,一个或多个系数的比率往往在统计上不显著
  • 即使有些回归系数在统计学上不显著,但R^2值可能非常高。
  • OLS估计工具及其标准误差可能对数据的微小变化很敏感


这里有一篇文章,提供了R工具来识别多重共线性的存在。


谢谢你的新词,今天已经敷衍了好几次了:)

还有什么其他问题?

 

今天我决定检查一下,我的网络基于percetron。优化到2016年5-6月初,欧元兑美元,点差15点。

尾巴本身。

我仍然对这个结果感到困惑。

 
forexman77:

今天我决定检查一下,我的网络基于percetron。优化到2016年5-6月初,欧元兑美元,点差15点。

尾巴本身。

到目前为止,我对这个结果感到困惑。

我也被宠坏了,甚至有点受惊。我在随机的样本上试了一下,结果令人吃惊。我还没有做过TC。

马克西姆说这是一条漫长的学习曲线。我有大约23个小时。但即使我每3个月做一次--这真是个垃圾)。

对于3个月来说,这肯定是足够的,我没有进一步测试。