рассчитывал получить примерно одинаковый результат. Все-таки входы весьма тавтологичны. Ан нет, результаты далеко не всегда даже рядом лежат, как и на участке обучения так и вне его. Пробовал разные варианты сетей, разные нейросетевые пакеты, везде картина примерно одинакова... Почему? несовершенство механизма обучения? "Слабость" сети? Многого от нее хочу?
*
Два). Хочу услышать мнение опытных или считающих себя таковыми нейросетевиков, как далеко должны быть входы от цены в нащей прикладной задаче прогнозирования ценового ВР? Мои опыты показывают, что использование всяческих индикаторов, "производных N-го порядка" от цены, в лучшем случае, вообщем-то ничего не дает. Цена, максимум сглаживание, экстремумы, все остальное от опиум для НС.. Не считаете?
рассчитывал получить примерно одинаковый результат. Все-таки входы весьма тавтологичны. Ан нет, результаты далеко не всегда даже рядом лежат, как и на участке обучения так и вне его. Пробовал разные варианты сетей, разные нейросетевые пакеты, везде картина примерно одинакова... Почему? несовершенство механизма обучения? "Слабость" сети? Многого от нее хочу?
Какие могут быть выходы? Сигналы, работая по которым надеемся получить плавный рост эквити без просадок) Хотя задачу НС можно действительно поставить по разному....
Пора поднять веточку, все-таки она посвящена входам НС и новую тему заводить не стану...
Появилась пара совсем простых теоритических вопросов-раздумий.
*
Ать). Подавая в НС варианты входов, которые утрировано выглядят примерно так:
а) Open[0]-Open[1], Open[0]-Open[2], Open[0]-Open[3], Open[0]-Open[4],..., Open[0]-Open[N]
б) Open[0]-Open[1], Open[1]-Open[2], Open[2]-Open[3], Open[3]-Open[4],..., Open[N-1]-Open[N]
рассчитывал получить примерно одинаковый результат. Все-таки входы весьма тавтологичны. Ан нет, результаты далеко не всегда даже рядом лежат, как и на участке обучения так и вне его. Пробовал разные варианты сетей, разные нейросетевые пакеты, везде картина примерно одинакова... Почему? несовершенство механизма обучения? "Слабость" сети? Многого от нее хочу?
*
Два). Хочу услышать мнение опытных или считающих себя таковыми нейросетевиков, как далеко должны быть входы от цены в нащей прикладной задаче прогнозирования ценового ВР? Мои опыты показывают, что использование всяческих индикаторов, "производных N-го порядка" от цены, в лучшем случае, вообщем-то ничего не дает. Цена, максимум сглаживание, экстремумы, все остальное от опиум для НС.. Не считаете?
At) 这些信息对你、对我、对其他许多μl程序员来说都是 "同义 "的。你是否尝试过相互关联,看看输入的关联性如何?在学习领域之外,根据个人经验,差异的出现只是由于输入的非平稳性......
二)关于 "投入应该离价格有多远"--相对而言,相反,对我来说,使用衍生品提高了标准......我个人并不这么认为。输入应该是什么取决于输出,问题取决于你怎么想出来的(大致上说)。
Ать). Подавая в НС варианты входов, которые утрировано выглядят примерно так:
а) Open[0]-Open[1], Open[0]-Open[2], Open[0]-Open[3], Open[0]-Open[4],..., Open[0]-Open[N]
б) Open[0]-Open[1], Open[1]-Open[2], Open[2]-Open[3], Open[3]-Open[4],..., Open[N-1]-Open[N]
рассчитывал получить примерно одинаковый результат. Все-таки входы весьма тавтологичны. Ан нет, результаты далеко не всегда даже рядом лежат, как и на участке обучения так и вне его. Пробовал разные варианты сетей, разные нейросетевые пакеты, везде картина примерно одинакова... Почему? несовершенство механизма обучения? "Слабость" сети? Многого от нее хочу?
乍一看,在案例a)和b)中输入到网络的信息确实是同义的。大脑通过眼睛,以书面形式接受图形信息。
公式的符号本身并不携带任何对大脑有用的信息,信息包含在这些符号的值中。
它实际上一开始并没有看到区别。我没有看到。:)
直到它开始理解公式的符号下隐藏着哪些数字,它才会发现其中的差别。这就是立即变得清晰的区别所在,一个很大的区别。
下面是图表a)的截图。
我们看到一条从无穷大到Open[0]-Open[1]之间的差值的几乎完美的线。
现在我们来看看图b)。
正如他们所说的,区别是显而易见的!在第二种情况下,我们的函数值在0附近 "跳跃",有明确的界限。
任何NS都有由神经元激活的功能和权重限制决定的输入敏感度的极限。不能要求网络学习它在学习功能的模式和敏感度限度内没有学到的 东西。这意味着,NS只能对输入数据进行正确计算,即使它不在训练样本中,但同时,如果提交给输入的值属于训练函数的确定区域,并且位于网络的灵敏度范围内。这是两个必要条件,在这两个条件下,任何NS都能正常工作。
二)。我想知道有经验的或自认为有经验的神经网络人员的意见,在我们预测价格VR的应用问题上,输入应该离价格多远?我的经验表明,使用各种指标,从价格出发的 "N次方导数",通常最多只能得到什么。价格,最大限度的平滑,极端,其他一切从NS鸦片...你不觉得吗?
从价格中得出的指标,它们之间在计算原则上有主要区别,可以而且应该使用。单独的相邻条本身并不携带任何有用的信息。只有当我们考虑 "组 "条的相互作用,或换句话说,"窗口",才能获得有用的信息。
乍一看,在案例a)和b)中输入到网络的信息确实是同义的。
下面是图表a)的截图。
有些东西告诉我,你对公式a)的图形解释并不正确。
你的图表是类似于(变体)的东西。
f[0]=Open[0]-Open[1] 我明白了。
f[1]=Open[0]-Open[2] 也就是向前看?
或者用Open[0]代替当前值,即
f[1]=Open[1]-Open[2] 即公式b)
或者咳咳。
f[1]=Open[1]-Open[3] 但从上下文来看,这并不符合逻辑。
按照我的理解(至少这是我对输入的类似 "实验 "的想法),这都是 "0点 "的N-1位数的数组,即f[0][N-1] 。
在点f[1][N-1]将是Open[1]-Open[2],Open[1]-Open[3],...。
这意味着人们应该画一个n-1维的平面。
事实上,结果不同是自然的。但我还没有决定哪些输入是 "更正确的"(对于相同的输出)。
SZY.我很久以前就在 "黑盒子 "里搜索了。
Что-то мне подсказывает, что Вы не правильно графически интерпретировали формулу a).
而你在咨询这个 "东西 "时是白费力气的。
做一个指标,看看。
事实上,结果不同是自然的
。但哪些输入是 "正确的"(对于相同的输出)
我
还没有决定。
你说结果不同是什么意思?哪些输入和输出是一样的!而其中哪些是 "正确的",描述了上面的帖子。
而你从那个 "东西 "那里白白接受了建议。
你可能是对的 :)
做一个指标,看看。
输入矢量的顶部 "图"!!!!!DBuffer[i]=Close[i]-Close[i+DPeriod]。
输入矢量的底部 "图形"!!!!!DBuffer[i]=Close[i+DPeriod]-Close[i+DPeriod+1]。
下面是对原帖的语言学解析和...再来看看职权范围中措辞的正确性问题。;)
Наверное Вы правы :)
Верхний "график" входного вектора!!!!! DBuffer[i]=Close[i]-Close[i+DPeriod];
Нижний "график" входного вектора!!!!! DBuffer[i]=Close[i+DPeriod]-Close[i+DPeriod+1];
Дальше будет лингвистический разбор исходного поста и ... опять к вопросу о корректности формулировок в ТЗ. ;)
是的,所以提问者的ToR不好,因为两个人对这个问题的解释不同。:)
我们应该等待Figar0,看看他有什么要说的。
输入应该是什么取决于输出(任务),任务(输出)取决于你如何想出(大致上)。
能有什么产出?我们希望根据这些信号获得股权的平稳增长而不出现滑坡)虽然任务确实可能由NS....,但也有不同的设定。
那么,这意味着提问者的ToR不好,因为两个人对这个问题的解释不同。:)
我们必须等待Figar0,他要说什么。
说实话,我没有想到会有如此大的意见分歧......。在他们狭窄的世界里酿造NS的成本。SergNF 正确理解了我的 "ToR")两个输入向量,其中一个可以很容易地从另一个获得,并且在输出中具有不同的结果。而且我似乎开始理解为什么它们是不同的,明天我将做几个实验,并试图把这种理解变成文字......
Какие могут быть выходы? Сигналы, работая по которым надеемся получить плавный рост эквити без просадок) Хотя задачу НС можно действительно поставить по разному....
我们希望得到平稳上升的信号是一种类型的问题,可以有很多原则,但很多还是会非常相似(至少在相关性方面)。而输出的意思正是在这个背景下。
你怎么看这个问题?
我同意我们不应该分享经验,无论如何,一方面很多事情会更容易,而关于项目和发展的重要信息仍然会被隐藏起来,也就是说,例如,我有一些东西可以分享,可以使别人的生活更容易,但同时也不会以任何方式透露我的秘密 :)
而且我想我已经开始理解为什么不同了,我明天会做一些实验,并尝试把这种理解写成字母......
嗯,似乎有一个明确的理解,一个结论。
- 输入a)和b)是相同的,由于学习机制不完善,以及数据转换中的计算错误,导致结果不同。也就是说,如果我使用任何东西的输入增量:指标、价格,我仍然会从零报告或相邻的点中获取差异。我只是通过实验学会了它,将NS简化到了极限,并使其有可能通过全面搜索权重来学习。这些结果与一个世纪前的数据相吻合。
在消化了这个结论后,我陷入了GA的研究。
我同意不分享经验是一种浪费,无论如何,很多事情一方面会更容易,而关于项目和发展的重要信息仍然会被隐藏起来,也就是说,例如,我有一些东西可以分享,可以方便别人的生活,但同时也不会泄露我的秘密 :)
绝对是一种浪费...至少在一段时间内同步你的手表,这不是一个坏主意)。
我先从自己说起。目前,我在MQL中准备我的网,我只在终端的测试器/优化器中训练它们。然而,我调查了统计学中投入的一些成分。这种方法既有缺点也有某些优点。最大的好处是直接在应用环境中学习网络,你可以把它教给最终目标--利润。作为一个架构,我已经在实验中停止了MLP的几层:传入、传出和一个或两个隐藏层。足够的近似值,IMHO。目前,我正在考虑为MLP增加反向链接。使用的输入数量~50到200,更多的会使结构和训练复杂化,在我看来是多余的。
也许我的一些描述很奇怪,也许不奇怪,但我是一个自学成才的神经网络学家,而且,嫉妒地守护着我的大脑,不让它受到过多的灰尘文献的影响)
我使用MQL对数据进行预处理,将其上传到内部格式,并对网络结果进行分析。我只在NSH2中训练网络。当然,也有MCL和C++的网络,但NSH2更好...
网络通常不超过通常的3层(MLP),不需要更多。
顺便说一下,关于输入,我最多输入了128个,通过一些实验,我发现超过20-30个输入已经是很强的过剩了,很有可能去除不重要的输入会大大改善学习标准。如果少于40个输入,这个问题可能还有待商榷,但超过40个输入就是100%的矫枉过正。
学习标准是NSH2的标准 - sko。
一定要使用测试样本,以避免网络装配。此外,按顺序划分样本--第一部分样本让我们说从2005.01.01--2006.01.01--训练样本,测试样本--2006.01.01--2006.04.01。很多人可能怀疑这样的方式能摆脱重新训练网络,但我100%肯定它能摆脱重新训练,如果你不摆脱,那么问题就在另外,即我不建议改变样本分区,而是要完全这样训练(用2个样本)。考虑哪个对你更重要:网络开始时应该是稳定的,但你需要努力使它也有足够的利润 :)或者网络是盈利的,但你不知道它什么时候会不盈利,也就是说,首先我们看到盈利,然后再算出网络的稳定性。我在这里并不是指股权的平稳增长,而是指在不同的远期测试中,净值显示出不同的结果(depo drains,反之亦然)这一事实。
第一个对我个人来说更重要,因为我正在向这个方向发展。现在我已经取得了一定的成果,比如说。(我已经在论坛上说过了,但我重复一下)有一个 "一般样本",我在一般样本的大约20-30%上训练网络,训练之后,网络在所有地方都同样工作,在整个样本上,而 "一般样本 "的日期是从2003年到现在。
随着电网的盈利,我也已经非常接近一个解决方案了。净识别84%的样本,87%是稳定-平稳增长的最低门槛。
公平。当我第一次开始解决这个问题时,识别率是70%。