NS+指标。实验。 - 页 11

 
Figar0 >>:

Пора поднять веточку, все-таки она посвящена входам НС и новую тему заводить не стану...

Появилась пара совсем простых теоритических вопросов-раздумий.

*

Ать). Подавая в НС варианты входов, которые утрировано выглядят примерно так:

а) Open[0]-Open[1], Open[0]-Open[2], Open[0]-Open[3], Open[0]-Open[4],..., Open[0]-Open[N]

б) Open[0]-Open[1], Open[1]-Open[2], Open[2]-Open[3], Open[3]-Open[4],..., Open[N-1]-Open[N]

рассчитывал получить примерно одинаковый результат. Все-таки входы весьма тавтологичны. Ан нет, результаты далеко не всегда даже рядом лежат, как и на участке обучения так и вне его. Пробовал разные варианты сетей, разные нейросетевые пакеты, везде картина примерно одинакова... Почему? несовершенство механизма обучения? "Слабость" сети? Многого от нее хочу?

*

Два). Хочу услышать мнение опытных или считающих себя таковыми нейросетевиков, как далеко должны быть входы от цены в нащей прикладной задаче прогнозирования ценового ВР? Мои опыты показывают, что использование всяческих индикаторов, "производных N-го порядка" от цены, в лучшем случае, вообщем-то ничего не дает. Цена, максимум сглаживание, экстремумы, все остальное от опиум для НС.. Не считаете?

At) 这些信息对你、对我、对其他许多μl程序员来说都是 "同义 "的。你是否尝试过相互关联,看看输入的关联性如何?在学习领域之外,根据个人经验,差异的出现只是由于输入的非平稳性......

二)关于 "投入应该离价格有多远"--相对而言,相反,对我来说,使用衍生品提高了标准......我个人并不这么认为。输入应该是什么取决于输出,问题取决于你怎么想出来的(大致上说)。

 
Figar0 >>:

Ать). Подавая в НС варианты входов, которые утрировано выглядят примерно так:

а) Open[0]-Open[1], Open[0]-Open[2], Open[0]-Open[3], Open[0]-Open[4],..., Open[0]-Open[N]

б) Open[0]-Open[1], Open[1]-Open[2], Open[2]-Open[3], Open[3]-Open[4],..., Open[N-1]-Open[N]

рассчитывал получить примерно одинаковый результат. Все-таки входы весьма тавтологичны. Ан нет, результаты далеко не всегда даже рядом лежат, как и на участке обучения так и вне его. Пробовал разные варианты сетей, разные нейросетевые пакеты, везде картина примерно одинакова... Почему? несовершенство механизма обучения? "Слабость" сети? Многого от нее хочу?

乍一看,在案例a)和b)中输入到网络的信息确实是同义的。大脑通过眼睛,以书面形式接受图形信息。

公式的符号本身并不携带任何对大脑有用的信息,信息包含在这些符号的值中。

它实际上一开始并没有看到区别。我没有看到。:)

直到它开始理解公式的符号下隐藏着哪些数字,它才会发现其中的差别。这就是立即变得清晰的区别所在,一个很大的区别。


下面是图表a)的截图。

我们看到一条从无穷大到Open[0]-Open[1]之间的差值的几乎完美的线。



现在我们来看看图b)。



正如他们所说的,区别是显而易见的!在第二种情况下,我们的函数值在0附近 "跳跃",有明确的界限。

任何NS都有由神经元激活的功能和权重限制决定的输入敏感度的极限。不能要求网络学习它在学习功能的模式和敏感度限度内没有学到的 东西。这意味着,NS只能对输入数据进行正确计算,即使它不在训练样本中,但同时,如果提交给输入的值属于训练函数的确定区域,并且位于网络的灵敏度范围内。这是两个必要条件,在这两个条件下,任何NS都能正常工作。

Figar0 >>:
二)。我想知道有经验的或自认为有经验的神经网络人员的意见,在我们预测价格VR的应用问题上,输入应该离价格多远?我的经验表明,使用各种指标,从价格出发的 "N次方导数",通常最多只能得到什么。价格,最大限度的平滑,极端,其他一切从NS鸦片...你不觉得吗?

从价格中得出的指标,它们之间在计算原则上有主要区别,可以而且应该使用。单独的相邻条本身并不携带任何有用的信息。只有当我们考虑 "组 "条的相互作用,或换句话说,"窗口",才能获得有用的信息。

 
joo писал(а)>>

乍一看,在案例a)和b)中输入到网络的信息确实是同义的。

下面是图表a)的截图。

有些东西告诉我,你对公式a)的图形解释并不正确。

你的图表是类似于(变体)的东西。

f[0]=Open[0]-Open[1] 我明白了。

f[1]=Open[0]-Open[2] 也就是向前看?

或者用Open[0]代替当前值,即

f[1]=Open[1]-Open[2] 即公式b)

或者咳咳。

f[1]=Open[1]-Open[3] 但从上下文来看,这并不符合逻辑。

按照我的理解(至少这是我对输入的类似 "实验 "的想法),这都是 "0点 "的N-1位数的数组,即f[0][N-1] 。

在点f[1][N-1]将是Open[1]-Open[2],Open[1]-Open[3],...。

这意味着人们应该画一个n-1维的平面。

事实上,结果不同是自然的。但我还没有决定哪些输入是 "更正确的"(对于相同的输出)。

SZY.我很久以前就在 "黑盒子 "里搜索了。

 
SergNF >>:

Что-то мне подсказывает, что Вы не правильно графически интерпретировали формулу a).

而你在咨询这个 "东西 "时是白费力气的。

做一个指标,看看。

SergNF >>

事实上,结果不同是自然的

但哪些输入是 "正确的"(对于相同的输出)

还没有决定。

你说结果不同是什么意思?哪些输入和输出是一样的!而其中哪些是 "正确的",描述了上面的帖子。

 
joo писал(а)>>

而你从那个 "东西 "那里白白接受了建议。

你可能是对的 :)

做一个指标,看看。

输入矢量的顶部 "图"!!!!!DBuffer[i]=Close[i]-Close[i+DPeriod]。

输入矢量的底部 "图形"!!!!!DBuffer[i]=Close[i+DPeriod]-Close[i+DPeriod+1]。


下面是对原帖的语言学解析和...再来看看职权范围中措辞的正确性问题。;)

 
SergNF >>:

Наверное Вы правы :)

Верхний "график" входного вектора!!!!! DBuffer[i]=Close[i]-Close[i+DPeriod];

Нижний "график" входного вектора!!!!! DBuffer[i]=Close[i+DPeriod]-Close[i+DPeriod+1];


Дальше будет лингвистический разбор исходного поста и ... опять к вопросу о корректности формулировок в ТЗ. ;)

是的,所以提问者的ToR不好,因为两个人对这个问题的解释不同。:)

我们应该等待Figar0,看看他有什么要说的。

 
StatBars писал(а)>>

输入应该是什么取决于输出(任务),任务(输出)取决于你如何想出(大致上)。

能有什么产出?我们希望根据这些信号获得股权的平稳增长而不出现滑坡)虽然任务确实可能由NS....,但也有不同的设定。

joo 写道>>

那么,这意味着提问者的ToR不好,因为两个人对这个问题的解释不同。:)

我们必须等待Figar0,他要说什么。

说实话,我没有想到会有如此大的意见分歧......。在他们狭窄的世界里酿造NS的成本。SergNF 正确理解了我的 "ToR")两个输入向量,其中一个可以很容易地从另一个获得,并且在输出中具有不同的结果。而且我似乎开始理解为什么它们是不同的,明天我将做几个实验,并试图把这种理解变成文字......

 
Figar0 >>:

Какие могут быть выходы? Сигналы, работая по которым надеемся получить плавный рост эквити без просадок) Хотя задачу НС можно действительно поставить по разному....

我们希望得到平稳上升的信号是一种类型的问题,可以有很多原则,但很多还是会非常相似(至少在相关性方面)。而输出的意思正是在这个背景下。

你怎么看这个问题?

我同意我们不应该分享经验,无论如何,一方面很多事情会更容易,而关于项目和发展的重要信息仍然会被隐藏起来,也就是说,例如,我有一些东西可以分享,可以使别人的生活更容易,但同时也不会以任何方式透露我的秘密 :)

 
Figar0 писал(а)>>

而且我想我已经开始理解为什么不同了,我明天会做一些实验,并尝试把这种理解写成字母......

嗯,似乎有一个明确的理解,一个结论。

- 输入a)和b)是相同的,由于学习机制不完善,以及数据转换中的计算错误,导致结果不同。也就是说,如果我使用任何东西的输入增量:指标、价格,我仍然会从零报告或相邻的点中获取差异。我只是通过实验学会了它,将NS简化到了极限,并使其有可能通过全面搜索权重来学习。这些结果与一个世纪前的数据相吻合。

在消化了这个结论后,我陷入了GA的研究。

StatBars 写道>>

我同意不分享经验是一种浪费,无论如何,很多事情一方面会更容易,而关于项目和发展的重要信息仍然会被隐藏起来,也就是说,例如,我有一些东西可以分享,可以方便别人的生活,但同时也不会泄露我的秘密 :)

绝对是一种浪费...至少在一段时间内同步你的手表,这不是一个坏主意)。

我先从自己说起。目前,我在MQL中准备我的网,我只在终端的测试器/优化器中训练它们。然而,我调查了统计学中投入的一些成分。这种方法既有缺点也有某些优点。最大的好处是直接在应用环境中学习网络,你可以把它教给最终目标--利润。作为一个架构,我已经在实验中停止了MLP的几层:传入、传出和一个或两个隐藏层。足够的近似值,IMHO。目前,我正在考虑为MLP增加反向链接。使用的输入数量~50到200,更多的会使结构和训练复杂化,在我看来是多余的。

也许我的一些描述很奇怪,也许不奇怪,但我是一个自学成才的神经网络学家,而且,嫉妒地守护着我的大脑,不让它受到过多的灰尘文献的影响)

 

我使用MQL对数据进行预处理,将其上传到内部格式,并对网络结果进行分析。我只在NSH2中训练网络。当然,也有MCL和C++的网络,但NSH2更好...

网络通常不超过通常的3层(MLP),不需要更多。

顺便说一下,关于输入,我最多输入了128个,通过一些实验,我发现超过20-30个输入已经是很强的过剩了,很有可能去除不重要的输入会大大改善学习标准。如果少于40个输入,这个问题可能还有待商榷,但超过40个输入就是100%的矫枉过正。

学习标准是NSH2的标准 - sko。

一定要使用测试样本,以避免网络装配。此外,按顺序划分样本--第一部分样本让我们说从2005.01.01--2006.01.01--训练样本,测试样本--2006.01.01--2006.04.01。很多人可能怀疑这样的方式能摆脱重新训练网络,但我100%肯定它能摆脱重新训练,如果你不摆脱,那么问题就在另外,即我不建议改变样本分区,而是要完全这样训练(用2个样本)。考虑哪个对你更重要:网络开始时应该是稳定的,但你需要努力使它也有足够的利润 :)或者网络是盈利的,但你不知道它什么时候会不盈利,也就是说,首先我们看到盈利,然后再算出网络的稳定性。我在这里并不是指股权的平稳增长,而是指在不同的远期测试中,净值显示出不同的结果(depo drains,反之亦然)这一事实。

第一个对我个人来说更重要,因为我正在向这个方向发展。现在我已经取得了一定的成果,比如说。(我已经在论坛上说过了,但我重复一下)有一个 "一般样本",我在一般样本的大约20-30%上训练网络,训练之后,网络在所有地方都同样工作,在整个样本上,而 "一般样本 "的日期是从2003年到现在

随着电网的盈利,我也已经非常接近一个解决方案了。净识别84%的样本,87%是稳定-平稳增长的最低门槛。

公平。当我第一次开始解决这个问题时,识别率是70%。