交易中的机器学习:理论、模型、实践和算法交易 - 页 1963 1...195619571958195919601961196219631964196519661967196819691970...3399 新评论 Valeriy Yastremskiy 2020.08.09 17:21 #19621 Maxim Dmitrievsky: 多个D型神经元(网格型)误差,% = 45.10948905109489再见 ) 我把我的剪裁和我的愤慨通过邮件发给了网格的作者。 你是怎么确定的?钞票的真实性? Maxim Dmitrievsky 2020.08.09 17:22 #19622 Valeriy Yastremskiy: 你是怎么确定的?钞票的真实性? 是 Valeriy Yastremskiy 2020.08.09 17:27 #19623 Maxim Dmitrievsky: 是 有缺陷的逻辑。 Maxim Dmitrievsky 2020.08.09 17:29 #19624 Valeriy Yastremskiy: 有缺陷的逻辑。 可能会有一些隐患。例如,你不能在属性中使用负值,因为它在微测试中使用二进制的。在稀少的描述中没有关于这个的内容,它没有显示任何错误。 Valeriy Yastremskiy 2020.08.09 17:44 #19625 Maxim Dmitrievsky: 可能会有陷阱。例如,你不能在属性中出现负值,因为它在微测试中使用二进制的。在稀少的描述中没有关于它的内容,它没有显示错误。 腐败的发生往往是基于不明确的症状。而在一个看似正确的逻辑中检测它们是一个问题。 Valeriy Yastremskiy 2020.08.09 18:01 #19626 一边是权重,一边是二进制。这就是我们的来历。 Rorschach 2020.08.10 08:35 #19627 有趣的协同过滤 的NS方法 你可以拿交易工具和策略来代替人和电影的ID,拿一些衡量标准来代替成绩(期望值等)。然后计算出工具和策略的隐藏变量。然后是你想要的一切。将系统与仪器相匹配,或以必要的特性即时生成,为系统建立合成物....。 mytarmailS 2020.08.10 09:28 #19628 马克西姆-德米特里耶夫斯基:,我给网格的作者发了电子邮件,表达了我的愤慨。 我想知道他回了什么信。 Maxim Dmitrievsky 2020.08.10 15:41 #19629 mytarmailS: 我想知道他注销了什么。 到目前为止还没有。样本必须有一定的规律性,这就是问题的关键。这是一种不同的方法。我认为在常规套路和上应该进行教学。也就是说,行中的熵越低,res越好,在该数据集中,样本是随机洗牌的。用abochanstian的术语来说,重要的不是模式,而是顺序。 Aleksey Vyazmikin 2020.08.11 22:26 #19630 elibrarius: 我们把最干净的拆分和不太干净的拆分混在一起。也就是说,我们将恶化在火车上的结果,原则上这对我们来说并不重要。但不确定它是否会改善测试的结果,即普适性。有人应该试试...就个人而言,我不认为泛化会比脚手架的情况好。 限制树的深度,不做最后的分割,在前一个分割处停止,这就容易多了。我们最终会得到同样不那么清晰的床单,比起我们做一个额外的分割。无论我们是否进行拆分,你的选择都会在两者之间提供一些东西。例如,你将用你的方法在第7层的深度上对板材进行平均。它将比第6个深度水平表略为干净。我认为这个概括不会有太大的变化,而且要检验这个想法是很费事的。你也可以用深度为6和7的几棵树取平均值--你会得到与你的方法论大致相同的东西。 我刚才可能没有说明,在小样本上应该至少有1%的指标留在表内,在大样本上应该有100个指标,所以当然拆分不会达到在任何类上的表内没有错误的程度。 你似乎误解了最后一步--我把它看作是对剩余1%样本的统计评估--在这个样本中,我们观察到结果随着不同预测器的分割而改善,我们得到了子空间信息,例如。 如果A>x1,那么目标1将有40%的正确率,也就是60%的子样本。 如果B>x2,那么目标1将以55%的比例被正确识别,也就是子样本的45%。 如果A<=x1,那么目标1将被70%的人正确定义,也就是50%的子样本。 这些拆分中的每一个都有一个重要性系数(我还没有决定如何计算),最后一个拆分也有一个。 以此类推,比方说最多5-10个预测因子,那么在应用时,如果我们到达最后一个分割点,我们将系数相加(或使用更复杂的求和方法),如果系数之和超过阈值,则该表被归类为1,否则为0。 实现这一点的一个简单方法是强行构建一个森林,直到倒数第二个分割点,然后排除已经从样本中选择的预测因子,这样就可以选择新的预测因子。或者干脆,在建立树后,按叶子过滤样本,并逐一查看每个预测器,寻找符合完整性和准确性标准的最佳分割。 而且,如果其他类别的 "0 "意味着没有行动,而不是相反的输入,那么训练样本的结果就会改善,否则就会有改善和恶化。 1...195619571958195919601961196219631964196519661967196819691970...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
多个D型神经元(网格型)
误差,% = 45.10948905109489
再见 )
我把我的剪裁和我的愤慨通过邮件发给了网格的作者。你是怎么确定的?钞票的真实性?
是
是
有缺陷的逻辑。
可能会有一些隐患。例如,你不能在属性中使用负值,因为它在微测试中使用二进制的。在稀少的描述中没有关于这个的内容,它没有显示任何错误。
可能会有陷阱。例如,你不能在属性中出现负值,因为它在微测试中使用二进制的。在稀少的描述中没有关于它的内容,它没有显示错误。
有趣的协同过滤 的NS方法
你可以拿交易工具和策略来代替人和电影的ID,拿一些衡量标准来代替成绩(期望值等)。然后计算出工具和策略的隐藏变量。然后是你想要的一切。将系统与仪器相匹配,或以必要的特性即时生成,为系统建立合成物....。
,我给网格的作者发了电子邮件,表达了我的愤慨。
我想知道他回了什么信。
我想知道他注销了什么。
我们把最干净的拆分和不太干净的拆分混在一起。也就是说,我们将恶化在火车上的结果,原则上这对我们来说并不重要。但不确定它是否会改善测试的结果,即普适性。有人应该试试...就个人而言,我不认为泛化会比脚手架的情况好。
限制树的深度,不做最后的分割,在前一个分割处停止,这就容易多了。我们最终会得到同样不那么清晰的床单,比起我们做一个额外的分割。无论我们是否进行拆分,你的选择都会在两者之间提供一些东西。例如,你将用你的方法在第7层的深度上对板材进行平均。它将比第6个深度水平表略为干净。我认为这个概括不会有太大的变化,而且要检验这个想法是很费事的。你也可以用深度为6和7的几棵树取平均值--你会得到与你的方法论大致相同的东西。
我刚才可能没有说明,在小样本上应该至少有1%的指标留在表内,在大样本上应该有100个指标,所以当然拆分不会达到在任何类上的表内没有错误的程度。
你似乎误解了最后一步--我把它看作是对剩余1%样本的统计评估--在这个样本中,我们观察到结果随着不同预测器的分割而改善,我们得到了子空间信息,例如。
如果A>x1,那么目标1将有40%的正确率,也就是60%的子样本。
如果B>x2,那么目标1将以55%的比例被正确识别,也就是子样本的45%。
如果A<=x1,那么目标1将被70%的人正确定义,也就是50%的子样本。
这些拆分中的每一个都有一个重要性系数(我还没有决定如何计算),最后一个拆分也有一个。
以此类推,比方说最多5-10个预测因子,那么在应用时,如果我们到达最后一个分割点,我们将系数相加(或使用更复杂的求和方法),如果系数之和超过阈值,则该表被归类为1,否则为0。
实现这一点的一个简单方法是强行构建一个森林,直到倒数第二个分割点,然后排除已经从样本中选择的预测因子,这样就可以选择新的预测因子。或者干脆,在建立树后,按叶子过滤样本,并逐一查看每个预测器,寻找符合完整性和准确性标准的最佳分割。
而且,如果其他类别的 "0 "意味着没有行动,而不是相反的输入,那么训练样本的结果就会改善,否则就会有改善和恶化。