交易中的机器学习:理论、模型、实践和算法交易 - 页 3251

 
mytarmailS #:

所以,我只想反驳一下。

相关性不需要归一化,它不是欧几里得距离,归一化已经包含在相关性中了。

谢谢您,大师。
这里不需要 PSA,因为测量值很少。测量越多,模式实例就越少。
 
Renat Fatkhullin #:

3980 实现了 复数、向量<复数>和矩阵<复数>类型的共轭方法。它们执行复数的共轭运 算。

谢谢!

 
Maxim Dmitrievsky #:
谢谢您,老师。
那里不需要 PSA,因为测量值很少。测量的次数越多,图案的实例就越少。

如果维度(特征)很多,甚至超过 5 个,就不值得寻找线与线之间的直接接近性,最好是降低维度。

 

两个敌人:过度训练和瞻前顾后。

关于过度训练--模型与原始系列过于 "相似"--已经有很多论述。每个人都对此很熟悉,因为过度训练是测试人员的常见结果。

什么是 "瞻前顾后"?

 
fxsaber #:

说这是国防部从事的主要任务是否正确?

情况就像现代物理学,你想骑马还是开车?物理学曾经试图理解世界是如何运作的,但现在他们只是在数据上延伸公式,发明虚拟实体,没有人理解任何东西,一切都非常复杂。

在数据处理方面,情况也是一样。过去,我们遇到一个问题,试图理解它,然后手工编写算法,优化计算。为了简化任务,一些关系被忽略,另一些关系被简化为线性形式。当有足够的能力和数据时,问题的解决就转移到优化器(粗略地说,就像 MT 测试仪一样)上,由它来选择某些多项式的系数。没有人知道是如何计算出来的,对结果也没有十足的把握,但这种方法能够考虑到非线性和非显而易见的关系,将一些科学计算的速度加快几个数量级。

当解决方案显而易见时,人们应该使用经典方法。但在不确定性很大的情况下,MO 并不是万能的(这就是为什么他们会在验证码的图片中添加噪音)。

 
mytarmailS #:

如果维度(属性)很多,甚至超过 5 个,那么就不值得寻找行间的直接邻近性,最好是降低维数

每个特征只有一个值是不够的。
我这样做只是为了好玩,这样晚上就不用坐在社交网络上,也不用和 vidosiki 比赛了。
虽然有时玩 Xbox 更有意思:)
 
Maxim Dmitrievsky #:
每个特性的 1 个值是不够 的 。
只是为了好玩,这样我晚上就不用坐在社交网络上,也不用参加比赛了 vidosiki
虽然有时玩 Xbox 更有趣:)

我哪里说了只有一个值?

 
mytarmailS #:

我在哪里说过一种价值?

我是说
 
Maxim Dmitrievsky #:
我是说

当缩小一个维度时,没有人会缩小到一个维度,这是可能的,但他们不会这么做。

 
Maxim Dmitrievsky #:
我说

您是使用卷积还是使用基本的预测器在故事中旋转?