交易中的机器学习:理论、模型、实践和算法交易 - 页 1243

 
马克西姆-德米特里耶夫斯基

嗯,Traine 14测试40

一般来说,测试的准确率从57%到61%不等,随机的trains/test - 80/20,在这样一个小的数据集上出现这样的分布是很合理的。

 
forexman77:

是的,是的。你也可以从蛤蟆的耳朵里拉出一个美人来)

坦率地说,我不明白问题出在哪里,也不明白在渠道中工作的难度?也许你玩了1小时及以上?- 那么那里就没有通道,只是表面上的月亮的反射。

ZS 说到MO。如果我们假设外汇是由噪声主导的,那么MO问题的表述应该是不同的)。

 
圣杯

一般来说,测试的准确率从57%到61%不等,随机跟踪测试的准确率为80/20%,在这样一个小的数据集上出现这样的分布是很合理的。

谢谢,很好理解......我将在python中查看更多的模型,也许会做一个更大的集合,我会检查的

 

数据集是10倍大。

猫咪的声音。

Alglib。

2018.12.27 11:44:10.475 核心2 2018.12.26 23:59:59 0.10990

2018.12.27 11:44:10.475 核心2 2018.12.26 23:59:59 0.49840

我能够注意到的是,alglib一次就被严重超训,但在测试中,它显示的错误与boost相对类似。不过Boost很好地平滑了这两个错误,如果你等待,托盘上的图形也会进入空间,而测试则保持悬空状态。Boost只是得到了更好的控制,而且在algib中也没有办法提前停止分支。

一般来说,这是随机的,当然不会赚到任何钱,而且助推器也不会保存。


附加的文件:
 

马克西姆-德米特里耶夫斯基

而且在alglib中也没有办法提前停止树形分支。

代码是开放的--你可以对它进行调整。或者你可以在Alglib的基本树的基础上写你自己的树

巫师写了一些他自己的东西......不是梯子,不是网,而是一种未知的动物))
 
elibrarius

代码是开放的--你可以对它进行调整。或者在Alglib的基本树的基础上编写你自己的树。

Wizard写了一些他自己的东西...而不是森林或网络,而是一种未知的动物))

Ehhhhh....

再次强调--Warlock只是知道如何为神经网络准备输入数据。输入数据!而从那里开始,它并不关心使用什么。

让我给你举个例子。

我记得这里有一个博士。现在他走了...最聪明、最有效率的家伙!"。你认为他受挫而放弃了吗?我不这么认为!

我和他在LS上合作了很久。他在接收/处理打勾报价方面做了数十亿的研究。采取不同的报价来源,把它们变薄,变薄,把它们弯成一个弯。

然后,他既不在PM中也不在论坛上,就这样消失了。

我想他终于找到了为NS准备投入的方法,还有Koldun--然后他就可以自由地做他想做的事,在这里坐在论坛上或不做。

但他做得很好,我是一个见证者。

 
嗯,我也没有在这里呆过五个月,因为我有一份很好的兼职工作。现在我自由了,我回来了...也许博士会回来。也许他找到了永久性的东西。
 
马克西姆-德米特里耶夫斯基

数据集是10倍大。

猫咪的声音。

Alglib。

2018.12.27 11:44:10.475 核心2 2018.12.26 23:59:59 0.10990

2018.12.27 11:44:10.475 核心2 2018.12.26 23:59:59 0.49840

我能够注意到的是,alglib一次就被严重超训,但在测试中,它显示的错误与boost相对类似。不过Boost很好地平滑了这两个错误,如果你等待,托盘上的图形也会进入空间,而测试则保持悬空状态。Boost只是得到了更好的控制,而且在alglieb中也没有办法提前停止分支。

这是在一般情况下的随机性,当然,这不会赚到钱,也不会保存。


嗯,是的,52-53岁,不完全是一个流浪汉,但也不会挣钱。

 
亚历山大_K2

Ehhhhh....

再次强调--Warlock只是知道如何为神经网络准备输入数据。输入数据!而从那里开始,它并不关心要使用什么。

让我给你举个例子。

我记得这里有一个博士。现在他走了...最聪明、最有效率的家伙!"。你认为他受挫而放弃了吗?我不这么认为!

我和他在LS上合作了很久。他在接收/处理打勾报价方面做了数十亿的研究。采取不同的报价来源,把它们变薄,变薄,把它们弯成一个弯。

然后,他既不在PM中也不在论坛上,就这样消失了。

我想他终于找到了为NS准备投入的方法,还有Koldun--然后他就可以自由地做他想做的事,在这里坐在论坛上或不坐。

但是,他所做的工作是巨大的--我是这方面的见证人。

我是目击者。 多克似乎已经清空了他从numerai得到的所有比特币,并在市场上采取了行动,可能是 "上瘾了"。

 
亚历山大_K2

Ehhhhh....

再次强调--Warlock只是知道如何为神经网络准备输入数据。输入数据!而从那里开始,它并不关心使用什么。

让我给你举个例子。

我记得这里有一个博士。现在他走了...最聪明、最有效率的家伙!"。你认为他受挫而放弃了吗?我不这么认为!

我在LS上与他合作了很多次。他在接收/处理打勾报价方面做了数十亿的研究。采取不同的报价来源,把它们变薄,变薄,把它们弯成一个弯。

然后,他既不在PM中也不在论坛上,就这样消失了。

我想他终于找到了为NS准备投入的方法,还有Koldun--然后他就可以自由地做他想做的事,在这里坐在论坛上或不坐。

但他已经做了很好的工作,我是见证者。

你知道你在说什么吗?-他在接收/处理打勾报价的领域做了数十亿的研究。他把不同来源的引文,变薄,变细,变弯...。 有印象吗?没错,猴子和他的眼镜,他把它们放在背上,然后把它们放在尾巴上,然后他闻到了它们,然后他舔了它们 为你的大师们做了很好的广告))。

至于大师,在可预见的过去,我们只有一个--桑桑尼茨,而且没有更好的人选。他至少把很多人拉到了R,已经是一件事了。

至于IO的主题,其存在多年的事实表明,这种方法完全是徒劳的:IO作为一种交易系统。研究大象的排泄物,对大象本身没有什么可说的,更不用说预测它了。还有引言,没有别的。

目前,指标-逻辑系统,以较少的努力,显示出相当真实的结果。所以不妨在这种系统中使用MO。说,森林树--已经为这样的系统准备了可教的逻辑,比起费力地写完它。总的来说,MO作为现有系统的应用解决方案,是一个相当工作的话题。