交易中的机器学习:理论、模型、实践和算法交易 - 页 1963

 
Maxim Dmitrievsky:

多个D型神经元(网格型)

误差,% = 45.10948905109489

再见 )

我把我的剪裁和我的愤慨通过邮件发给了网格的作者。
你是怎么确定的?钞票的真实性?
 
Valeriy Yastremskiy:
你是怎么确定的?钞票的真实性?

 
Maxim Dmitrievsky:

有缺陷的逻辑。
 
Valeriy Yastremskiy:
有缺陷的逻辑。

可能会有一些隐患。例如,你不能在属性中使用负值,因为它在微测试中使用二进制的。在稀少的描述中没有关于这个的内容,它没有显示任何错误。

 
Maxim Dmitrievsky:

可能会有陷阱。例如,你不能在属性中出现负值,因为它在微测试中使用二进制的。在稀少的描述中没有关于它的内容,它没有显示错误。

腐败的发生往往是基于不明确的症状。而在一个看似正确的逻辑中检测它们是一个问题。
 
一边是权重,一边是二进制。这就是我们的来历。
 

有趣的协同过滤 的NS方法

你可以拿交易工具和策略来代替人和电影的ID,拿一些衡量标准来代替成绩(期望值等)。然后计算出工具和策略的隐藏变量。然后是你想要的一切。将系统与仪器相匹配,或以必要的特性即时生成,为系统建立合成物....。

 
马克西姆-德米特里耶夫斯基
,我给网格的作者发了电子邮件,表达了我的愤慨。

我想知道他回了什么信。

 
mytarmailS:

我想知道他注销了什么。

到目前为止还没有。样本必须有一定的规律性,这就是问题的关键。这是一种不同的方法。我认为在常规套路和上应该进行教学。也就是说,行中的熵越低,res越好,在该数据集中,样本是随机洗牌的。用abochanstian的术语来说,重要的不是模式,而是顺序。
 
elibrarius:
我们把最干净的拆分和不太干净的拆分混在一起。也就是说,我们将恶化在火车上的结果,原则上这对我们来说并不重要。但不确定它是否会改善测试的结果,即普适性。有人应该试试...就个人而言,我不认为泛化会比脚手架的情况好。

限制树的深度,不做最后的分割,在前一个分割处停止,这就容易多了。我们最终会得到同样不那么清晰的床单,比起我们做一个额外的分割。无论我们是否进行拆分,你的选择都会在两者之间提供一些东西。例如,你将用你的方法在第7层的深度上对板材进行平均。它将比第6个深度水平表略为干净。我认为这个概括不会有太大的变化,而且要检验这个想法是很费事的。你也可以用深度为6和7的几棵树取平均值--你会得到与你的方法论大致相同的东西。

我刚才可能没有说明,在小样本上应该至少有1%的指标留在表内,在大样本上应该有100个指标,所以当然拆分不会达到在任何类上的表内没有错误的程度。

你似乎误解了最后一步--我把它看作是对剩余1%样本的统计评估--在这个样本中,我们观察到结果随着不同预测器的分割而改善,我们得到了子空间信息,例如。

如果A>x1,那么目标1将有40%的正确率,也就是60%的子样本。

如果B>x2,那么目标1将以55%的比例被正确识别,也就是子样本的45%。

如果A<=x1,那么目标1将被70%的人正确定义,也就是50%的子样本。

这些拆分中的每一个都有一个重要性系数(我还没有决定如何计算),最后一个拆分也有一个。

以此类推,比方说最多5-10个预测因子,那么在应用时,如果我们到达最后一个分割点,我们将系数相加(或使用更复杂的求和方法),如果系数之和超过阈值,则该表被归类为1,否则为0。


实现这一点的一个简单方法是强行构建一个森林,直到倒数第二个分割点,然后排除已经从样本中选择的预测因子,这样就可以选择新的预测因子。或者干脆,在建立树后,按叶子过滤样本,并逐一查看每个预测器,寻找符合完整性和准确性标准的最佳分割。

而且,如果其他类别的 "0 "意味着没有行动,而不是相反的输入,那么训练样本的结果就会改善,否则就会有改善和恶化。