文章:用神经网络进行价格预测 - 页 11

 
slava1:
我知道喂养什么已经有很长一段时间了。我想讨论一下,可以说是可能的模式。通过共同努力,通常会有更好的结果。我自己已经在机器人上工作了一年了。有结果,但不是很稳定。

嗯,一年是不够的 :)


好吧,让我们来试试,但这将是一个单向的游戏,不是你的。


阿塔奇是由x = 4 * (x-1) * (1 - (x-1))形成的伪随机数列,x0=0.2

它是否让你想起了什么?初步估计,这个系列类似于市场上的数据流。


预测t+1值。网络结构,MLP 1-5-1,输入和输出神经元的额外突触耦合。

二次方误差(10e-3),达到60-70t epochs左右,训练样本为1000个元素。学习是通过反梯度法完成的。


通过对不同架构的建模,很容易证明我们有与拓扑结构无关的序列,误差不会减少。

受到网络复杂性的显著影响,包括额外的层数。


让我们使用人工实例或加热的方法,结果 - 学习的速度增加了2.5倍,即达到了可接受的误差。

在30-40t.纪元的区域内。


这里是第一个例子,你可以旋转它来看看结果......

 
slava1:
我很早就知道要申请什么了。我想讨论一下可能的模式,可以这么说。如果我们一起工作,通常效果会更好。我自己已经在机器人上工作了一年了。有结果,但不是很稳定。

而关于模型,正如我已经说过的,请看Reshetov对实现的描述。是的,不要寻找圣杯,它并不存在;)

 
slava1:
我已经知道很长时间了,什么东西要喂给哪里。我想讨论一下可能的模式,可以这么说。通常情况下,如果我们一起工作,效果会更好。我自己已经在机器人上工作了一年了。有结果,但不是很稳定。

我只能说一件事:再次仔细阅读理论(科学理论,而不是流行的文献),也许你会发现你错过的或没有考虑到的东西。如果你认为在使用NeuroShell Day Trader等程序时不需要了解理论,那么只有一件事可以做--不要管神经网络

我现在要告辞了。

 
在一个1x5x1的网络中,我相信你永远不会有任何结果。该网络必须至少有两个隐藏层。对于神经网络的输入,我将读数规范化为20个指标。所以我尝试了不同的拓扑结构。我在20х140х140х4处停了下来,这个网络可能很麻烦,但能产生很好的解释信号。当然,它可以扩大规模。此外,我打算用遗传算法来选择拓扑结构。 整个网络创建和训练的过程是用JAVANNS实现的,训练后的网络被转化为C代码,这个代码被用于创建一个dll的决定性功能,可以在MetaTrader中使用。 这只是对过程的粗略描述。这就是为什么我已经做了一年了。这是一个非常大的工程量。我认为使用NeuroShellDay Trader 等工具是很愚蠢的,如果你能创建自己的网络并按自己的方式来做。 但这不是我想谈的。我对创建训练样本的问题的方法感兴趣。
 
slava1:
在一个1x5x1的网络中,我相信你永远不会有任何结果。该网络必须至少有两个隐藏层。对于神经网络的输入,我将读数规范化为20个指标。所以我尝试了不同的拓扑结构。我在20х140х140х4处停了下来,这个网络可能很麻烦,但能产生很好的解释信号。当然,它可以扩大规模。在未来,我计划使用遗传算法来选择拓扑结构。网络创建和训练的整个过程使用JAVANNS进行,训练后的网络被转化为C代码,该代码被用于创建一个可以在MetaTrader中使用的dll接收器函数。这是一个非常粗略的过程描述。这就是为什么我已经做了一年了。这是一个非常大的工程量。我认为使用NeuroShell Day Trader等工具是愚蠢的,如果你能创建自己的网络并按自己的方式来做。但这不是我想谈的。我对创建训练样本的问题的方法感兴趣。

训练样本是你送入输入的东西。在这种情况下,你要喂养20个指标。指标是什么,是对一个初始时间序列 的处理,一个价格序列{H,L,O,C}。如果你从数学的角度考虑TA中使用的指标,你可以区分一组或另一组数学方法--比如说MA是最简单的频率滤波器等等,但谁说用经典TA方法准备的数据对神经网络来说是最好的?我甚至会说,恰恰相反,实际上是不合适的。我并没有白白举出为推断伪随机f-zi而建立的浅层网络的例子。


如果你多调查一下,你会发现一些非常有趣的特性,这将使你对训练样本的准备有一些不同的看法。一个报价流也可以被认为是一个伪随机的f-ci,有一个复杂的规律。神经网络是一种数学方法,但该技术更像是一种艺术。


是的,顺便说一句,如果你认为网络规模会影响解决问题的能力,你就错了。

 
不,恰恰相反,我强调大小并不重要(指隐藏层和神经元的数量):-))让我们摒弃一切蛊惑人心的东西,试着想象一下什么可以作为培训的对象。我完全根据指标读数 建立我的策略,在与他们长期斗争后,我承认这种方法......,不适合...因此,问题是...纯粹是哲学上的。还有什么是MONA POPOBUT?
 
再一次,你所说的艺术也许是可以预测的。这就是我所说的。输入神经元的数量起着巨大的作用。输入越多,正确预测的概率就越大。这很明显。
 
slava1:
同样,你所说的艺术也许是可以预测的。这就是我所说的。输入神经元的数量起着巨大的作用。输入越多,正确预测的概率就越大。这很明显。


我不同意。我给你举的例子,一个1-5-1网络,可以让你以很高的精度预测一个伪随机序列。

我建议你重新读一下这个理论,因为我的印象是你不太理解这个机制。


告诉我,你认为神经网络 是什么?

 
好吧,我们可以为这个问题争论很久,谁理解什么,或者不理解。讨论的内容是数据准备。我明白,这里没有人愿意讨论这个问题。遗憾的是
 
slava1:
好吧,我们可以为这个问题争论很久,谁理解什么,或者不理解。讨论的内容是数据准备。我明白,这里没有人愿意讨论这个问题。遗憾的是

亲爱的先生,有可能讨论一下。但是,如果我提到TA中的指标是什么以及它们如何适合NS的数据预处理这个主题,你不想讨论,或者说我认为你错过了这个话题,那还有什么可讨论的呢 :)

如果你想看关于如何为NS训练准备数据的讲座,我想你不应该在这个论坛上做,只有少数人会对这里感兴趣。