交易中的机器学习:理论、模型、实践和算法交易 - 页 3251 1...324432453246324732483249325032513252325332543255325632573258...3399 新评论 Maxim Dmitrievsky 2023.09.22 09:01 #32501 mytarmailS #:所以,我只想反驳一下。相关性不需要归一化,它不是欧几里得距离,归一化已经包含在相关性中了。 谢谢您,大师。这里不需要 PSA,因为测量值很少。测量越多,模式实例就越少。 Rorschach 2023.09.22 09:06 #32502 Renat Fatkhullin #:3980 实现了 复数、向量<复数>和矩阵<复数>类型的共轭方法。它们执行复数的共轭运 算。 谢谢! mytarmailS 2023.09.22 09:08 #32503 Maxim Dmitrievsky #: 谢谢您,老师。 那里不需要 PSA,因为测量值很少。测量的次数越多,图案的实例就越少。 如果维度(特征)很多,甚至超过 5 个,就不值得寻找线与线之间的直接接近性,最好是降低维度。 СанСаныч Фоменко 2023.09.22 09:23 #32504 两个敌人:过度训练和瞻前顾后。 关于过度训练--模型与原始系列过于 "相似"--已经有很多论述。每个人都对此很熟悉,因为过度训练是测试人员的常见结果。 什么是 "瞻前顾后"? Rorschach 2023.09.22 09:50 #32505 fxsaber #:说这是国防部从事的主要任务是否正确? 情况就像现代物理学,你想骑马还是开车?物理学曾经试图理解世界是如何运作的,但现在他们只是在数据上延伸公式,发明虚拟实体,没有人理解任何东西,一切都非常复杂。 在数据处理方面,情况也是一样。过去,我们遇到一个问题,试图理解它,然后手工编写算法,优化计算。为了简化任务,一些关系被忽略,另一些关系被简化为线性形式。当有足够的能力和数据时,问题的解决就转移到优化器(粗略地说,就像 MT 测试仪一样)上,由它来选择某些多项式的系数。没有人知道是如何计算出来的,对结果也没有十足的把握,但这种方法能够考虑到非线性和非显而易见的关系,将一些科学计算的速度加快几个数量级。 当解决方案显而易见时,人们应该使用经典方法。但在不确定性很大的情况下,MO 并不是万能的(这就是为什么他们会在验证码的图片中添加噪音)。 Maxim Dmitrievsky 2023.09.22 09:52 #32506 mytarmailS #:如果维度(属性)很多,甚至超过 5 个,那么就不值得寻找行间的直接邻近性,最好是降低维数 每个特征只有一个值是不够的。我这样做只是为了好玩,这样晚上就不用坐在社交网络上,也不用和 vidosiki 比赛了。虽然有时玩 Xbox 更有意思:) mytarmailS 2023.09.22 10:12 #32507 Maxim Dmitrievsky #: 每个特性的 1 个值是不够 的 。 只是为了好玩,这样我晚上就不用坐在社交网络上,也不用参加比赛了 vidosiki 虽然有时玩 Xbox 更有趣:) 我哪里说了只有一个值? Maxim Dmitrievsky 2023.09.22 10:21 #32508 mytarmailS #:我在哪里说过一种价值? 我是说 mytarmailS 2023.09.22 10:23 #32509 Maxim Dmitrievsky #: 我是说 当缩小一个维度时,没有人会缩小到一个维度,这是可能的,但他们不会这么做。 Aleksey Vyazmikin 2023.09.22 10:36 #32510 Maxim Dmitrievsky #: 我说 您是使用卷积还是使用基本的预测器在故事中旋转? 1...324432453246324732483249325032513252325332543255325632573258...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
所以,我只想反驳一下。
相关性不需要归一化,它不是欧几里得距离,归一化已经包含在相关性中了。
3980 实现了 复数、向量<复数>和矩阵<复数>类型的共轭方法。它们执行复数的共轭运 算。
谢谢!
谢谢您,老师。
如果维度(特征)很多,甚至超过 5 个,就不值得寻找线与线之间的直接接近性,最好是降低维度。
两个敌人:过度训练和瞻前顾后。
关于过度训练--模型与原始系列过于 "相似"--已经有很多论述。每个人都对此很熟悉,因为过度训练是测试人员的常见结果。
什么是 "瞻前顾后"?
说这是国防部从事的主要任务是否正确?
情况就像现代物理学,你想骑马还是开车?物理学曾经试图理解世界是如何运作的,但现在他们只是在数据上延伸公式,发明虚拟实体,没有人理解任何东西,一切都非常复杂。
在数据处理方面,情况也是一样。过去,我们遇到一个问题,试图理解它,然后手工编写算法,优化计算。为了简化任务,一些关系被忽略,另一些关系被简化为线性形式。当有足够的能力和数据时,问题的解决就转移到优化器(粗略地说,就像 MT 测试仪一样)上,由它来选择某些多项式的系数。没有人知道是如何计算出来的,对结果也没有十足的把握,但这种方法能够考虑到非线性和非显而易见的关系,将一些科学计算的速度加快几个数量级。
当解决方案显而易见时,人们应该使用经典方法。但在不确定性很大的情况下,MO 并不是万能的(这就是为什么他们会在验证码的图片中添加噪音)。
如果维度(属性)很多,甚至超过 5 个,那么就不值得寻找行间的直接邻近性,最好是降低维数
每个特性的 1 个值是不够 的 。
我哪里说了只有一个值?
我在哪里说过一种价值?
我是说
当缩小一个维度时,没有人会缩小到一个维度,这是可能的,但他们不会这么做。
我说
您是使用卷积还是使用基本的预测器在故事中旋转?