在MTS使用人工智能 - 页 21

 
Mak:
IMHO,这不值得用网络来蒸煮 :)

学习NS实际上是对一个有大量参数(成百上千)的函数进行优化。
我不知道在这种情况下该怎么做才能避免过度训练。
唯一的解决办法是采取1-1亿个样本的训练样本。
但是不能保证...
所以你把 "过度训练 "理解为 "训练不足"? 在我看来它们是反义词=)请澄清一下。
 
分类网格比插值网格更好。
我没有读过这方面的资料,请解释一下它们之间的区别,如果可以的话,请举例说明每一种的工作原理,你可以使用通用术语=)
 
Mak:
Aleksey24:

向数学家提问。

应用待优化参数的多变量正态分布的想法是否等同于神经网络 的原则?

请解释清楚。

这是个奇怪的问题。
解释一下这个问题。


解释一下。

我现在认为,有必要不是用具体的拟合参数进行交易,而是用系统中每个参数的光谱进行交易。
最简单的方法是把几个相同的EA,但有不同的参数集--在参数谱的不同范围。
每个专家顾问都应分配一定的存款百分比,但所有这些都应等于存款百分比值,当只使用一个专家顾问(无谱)交易时。
然后,如果在移动平均线上,三个专家顾问开了三个头寸,分别在运动的开始、中间和结束时。

我还不能决定如何在一个EA中使用这个想法进行测试。

我向Posh询问了这个问题,但仍然没有答案。

多变量正态分布(高斯)和aX+bY+...=Z类型的神经网络的任务是一样的(用于交易),还是我脑子里一片混乱,搞不清楚?
 
Aleksey24:
小迈
Aleksey24:

向数学家提问。

应用待优化参数的多变量正态分布的想法是否等同于神经网络的原则?

请解释清楚。

这是个奇怪的问题。
解释一下这个问题。


解释一下。

我现在认为,人们不应该用具体的拟合参数进行交易,而应该用系统中每个参数的频谱进行交易。
最简单的事情是把几个相同的EA,但有不同的参数集--在参数谱的不同范围。
每个专家顾问都应分配一定的存款百分比,但所有这些都应等于存款百分比值,当只使用一个专家顾问(无谱)交易时。
然后,如果在移动平均线上,三个专家顾问开了三个头寸,分别在运动的开始、中间和结束时。

我还不能决定如何在一个EA中使用这个想法进行测试。

我向Posh询问了这个问题,但仍然没有答案。

多变量正态分布(高斯)和aX+bY+...=Z型的神经网络的问题是一样的(用于交易),还是我脑子糊涂了,乱了?
你说的是一些复杂的光谱!以下是我曾经学习的关于ANN主题的资源。
https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D0%B5_%D1%81%D0%B5%D1%82%D0%B8- 它在维基上,而且都是大写的。
http://users.kpi.kharkov.ua/mahotilo/Docs/Diss/diss_ch1_intr.html- 有一篇关于ANN的论文,在论文中间有一个关于它的来源和内容的讨论,有图表和公式。
http://www.robo-planet.ru/library.php?parent_id=324&PHPSESSID=82aafc8cb3c043ecbe043fa11dd50943- 这是 "人工神经网络基础 "的链接,这是一个很好的网站,有一整棵关于ANN的 "树"--不仅仅是我写的。
 
谢谢你的链接,我会研究的。
但关于 "光谱",你错了。
当然,我不是一个专业的教授--但那里有一个理性的观点。
 
伙计们,没有人回答我,是否有必要思考一下遗忘的算法,或者它毕竟是ANN的一个自然属性?
 
lucifuge:
伙计们,没有人回答我,是否有必要思考一下遗忘的算法,或者它毕竟是ANN的一个自然属性?

如果你把你的训练限制在有限的条数上(或者不是条数,不管用什么方法),遗忘将是一个自然的过程。市场正在发生变化,五年前有效的东西现在可能不适用。但是新的条件已经出现了,如果你不教它,它就会过去。
这取决于每个人的决定。
 
Mathemat:
小麦,你显然是在夸大其词。而不是像你说的那样超过数百或数千倍,根据ANN理论,10就足够了。而重新训练(拟合)的标准是已知的:它是测试区的全球最小误差。

另一件事是网络架构。分类网格比插值网格更好。
也许--我是一个对NS持怀疑态度的人。
嗯,是的,在统计学中,人们认为如果样本数是未知参数数的10倍,就可以得出一些结论。 但这样做的误差是在合理性的边缘。

但你应该同意,NS本质上只是某种输入向量和一组权重的函数。
这套权重包含从几百个(最简单的情况)到几万个和几十万个参数(权重)。
对NS的学习无非是通过这几百--几十万个参数来优化这个函数。
大家都知道在这种情况下会发生什么。
这就是为什么我是一个怀疑论者 ...
 
lucifuge:
小迈
IMHO,这不值得用网络来蒸煮 :)

学习NS实际上是在优化一个有大量参数(数百和数千)的函数。
我不知道在这种情况下该怎么做才能避免过度训练。
唯一的解决办法是采取1-1亿个样本的训练样本。
但是不能保证...
所以你把 "过度训练 "理解为 "训练不足"? 在我看来它们是反义词=)请澄清一下。
我所说的过度训练是指所谓的曲线拟合(CurveFitting)。
它发生在有很多优化参数而数据很少的情况下。
 
Mak:
lucifuge:
小迈
IMHO,这不值得用网络来蒸煮 :)

学习NS实际上是在优化一个有大量参数(数百和数千)的函数。
我不知道在这种情况下该怎么做才能避免过度训练。
唯一的解决办法是采取1-1亿个样本的训练样本。
但是不能保证...
所以你的意思是 "过度训练 "是指 "训练不足"? 这两个是反义词=)请澄清一下。
我所说的过度训练是指所谓的曲线拟合(CurveFitting)。
它发生在有很多优化参数而数据很少的情况下。

但这就提出了网络规模的问题。一个网络能存储什么取决于其规模和结构。如果你设置了太多网络无法记住的训练样本,就会造成过度学习效应--网络会停止识别它所知道的东西。