交易中的机器学习:理论、模型、实践和算法交易 - 页 1123

 
Mihail Marchukajtes:

好吧,让我们谈谈.....

你能把你的人工智能减少到一个神经元,并仍然运行我的数据吗?当然,尊重桑尼奇,但我可以自己在拉特尔做统计分析,我可以在那里转网......。没意思 :-(

到目前为止,我还没有等到答案,坦率地说,我也不指望得到答案了.......。

又是谁和什么阻止你以你认为合适的方式去做?你训练一个神经元,称其为人工智能,当然,这很有趣,但如果它有效,那为什么不呢?顺便说一句,我并不太支持复杂的解决方案,但我认为摆弄一两个神经元不太可能有什么意思。这就是为什么我没有看到任何热心人愿意检查什么。

顺便说一句,马克西姆大约在一年半前已经对雷舍托夫的神经元进行了调整,他的图形 成堆飞出。但他很早就放弃了。可能有这方面的原因)。

 
马克西姆-德米特里耶夫斯基

1个神经元不拉,做了很多神经元,但由于权重的数量,优化器开始窒息,云计算吃了很多的资源。

之后,我从模糊逻辑(模糊输出)做了一个神经元,它只有2个权重,甚至是1个。这些模糊神经元的组合已经被优化得快了许多倍,但这是一个大量的写作,而且优化器并不灵活。

这就是为什么我们走了另一条路

很明显,1没有也不可能拖。

嗯,他们都是NS的现状,而且有模糊的逻辑。

我的NS需要很长的时间来学习--总共大约一天。我认为这很正常。它们工作得很快,即使在慢速软件(确切地说,是shell)上也是如此--没有性能问题。

另一种方式是什么呢?

 

不幸的是,我不是一个雄辩和正式证明的大师,事实上,我会仔细考虑,如何正式地证明它,只是为了澄清自己,我甚至不记得确切的时间和从谁那里学到的,或者一般来说,这是不言而喻的,但如果只是在 "常识 "层面,未来(向前)是我们无法得到的,不应该在学习阶段以任何形式,我们通过过去学习算法,即ML的测试和优化的未来根本不应该看到未来。谈论通过窗口过滤器获得的样本的 "独立性 "是天真的;想想看,例如每一个 "独立 "的点都有一些以不同窗口为特征的动量,并以移向未来的动量为目标,而下一个点在特征中已经有一个目标))))不...这只是另一种偷看的方式。

不,不服气))。

我仍然可以接受,如果动量窗口太大,那么也许会在某种程度上影响到前进后退,尽管...不

 
马克西姆-德米特里耶夫斯基

窥视仍然只能作为一个小错误出现在火车上,而不是在测试中。

与森林无关--有了森林,即使不偷看,你也能在任何受训者身上达到可忽略的误差。仿佛是为最大限度的过度训练而设计的 :)

通过窥视未来,你们在坑害自己.....。所有想愚弄市场的人,比如说马丁斯等等。他们首先欺骗自己。 最主要的是要尽快意识到这一点。他们首先是在欺骗自己。 最主要的是要尽快了解它。你必须是一个多么白痴的人,才会知道自己欺骗了自己,还继续这样做。我的意思是matinoshootnikogriders或者不管他们怎么称呼自己 :-)

 

怎么了?

 
伊戈尔-马卡努

fxsaber主题是一个非常好的工具,我坐在这里想,如果一个好的模型可以用更简单的方法来描述,那么NS/lesa等是多么的必要 - fxsaber再次证明了这一点;)

实际上,两种方法,有MO和没有MO,都是平等的。实际上,IR需要一些想法,就像一个简单的策略一样。

 
尤里-阿索连科

实际上,两种方法,有和没有国防部,都是平等的。你需要在ME下有某种想法,事实上,就像你需要一个普通的战略一样。

我今天在想这个问题,我已经厌倦了阅读...但我说服了自己:如果有一个用于MA的TS,那么MA就可以用NS来做(它是 elementary....),所以值得完成NS.... 的理论研究来做一个MA。

))))

 
伊戈尔-马卡努

我今天一直在思考这个话题......我已经厌倦了阅读...但我说服了自己:如果有一个用于MA的TS,那么可以用NS做一个MA(它是elementary....),所以还是值得完成NS....的理论研究来做一个MA

))))

这就是我开始的地方。我一直在用NS解决原始的任务,比如识别MAH的交叉点和其他市场的废话,这在实践中绝对是无用的。但我发现了放马的地方)。

 
耻辱

落后就是露阴癖,在阿尔戈里特的环境中,为你感到羞愧。

那是为了你的顿悟,因为把有利可图的交易称为随机的,就像把牛熊和展览者混为一谈。
 
马克西姆-德米特里耶夫斯基

是的,这个主题仍然可以发展......仍然有更多的空间 )


阿托!我认为,这是过去多年来真正的新主题......可以说,fxsaber把空间和时间 联系在了一起

;)