神经网络,如何掌握它们,从哪里开始? - 页 12 1...5678910111213141516171819 新评论 TheXpert 2009.01.16 10:02 #111 Neutron >> : 无论你如何旋转NS,无论你在它的输入中放了什么,肯定没有奇迹!"。 因此,我们得到的结果是:一方面,NS的层数越多,其预测能力越高,但建立超过三层是毫无意义的--三层网格已经是一个通用的近似器。 一般来说,不,我不打算争论--我很无聊。 由此可见,NS的分层越多,其训练样本的时间就越长。不仅训练的复杂度以P^3的形式增长,而且我们还可能耗尽数据! 这是我第二次看到这个学位。让我们来算一算。 让我们以一个网络m - n - k为例 -- 这些字母分别代表输入、隐藏和输出层的神经元数量。 对于完全耦合的突触,信号传播的复杂性是O(m*n + n*k)。 背面传播的复杂性也是如此。 现在让我们引入一个相同大小的额外隐藏层。 复杂度为O(m*n + n*n + n*k)。 让我们采取比率 -- 我们得到(m + n + k)/(m + k)。 此外,第2个隐藏层的引入允许你专门减少第1层的大小。 为此,我在Mathcad中制作了三个网格--1、2和3,并比较了提前一个计数的cotier增量的预测结果(我收集了100个独立实验的统计数据)。结果如下。 1-p=10%正确猜到的标志(概率=1/2+p)。 2 - 15-16% 3 - 12% 这里有一些自由参数:输入的尺寸和层中的神经元数量。第一个参数对所有架构都是一样的,第二个参数是个人选择的。我们看到,3层NS网格并不是万能的,也许对我们这些交易员来说,MTS分析块的最佳选择是两层网格--从最大预测精度和对训练复杂性的最低要求的角度来看(RS的功率、大历史及其不增长)。 现在是时候考虑分形NS与分形层数的问题了:)) 。2.5将是恰到好处的。 "新神经 "是MetaTrader 5平台的一个开源神经网络引擎项目。 非广延统计分布结构化分析的本征坐标法应用 神经网络变得简单(第 56 部分):利用核范数推动研究 Aleksandr Pak 2009.01.16 10:49 #112 掌握NS技术的假设方法 步骤1。 在NS中建立一个有一个买入/卖出输出的NS,用Close[x]喂它,看图表,看到--网格是有噪音的! 第二步。 现在,我们喂养的东西比最初的报价更平稳,但无论如何,NS是嘈杂的。 为什么?因为老师是不均匀的。我太懒了,不能用手做。(这里你需要一个螺旋器) 步骤3。 阅读Reshetov的文章,发送NS,在测试器中训练,并注意到--没有明确定义任何错误函数。 因此,战略测试员 发出隆隆声,开发人员发出呼噜声,说雷舍托夫很聪明,他想出了这一切,发明了一个真正的老师。 然而,雷舍托夫是个聪明人,但我的电脑在MT-4上不好用,那么MT-5在哪里呢? 而对于4个输入,这个 "NS "又很吵。现在,历史数据变成了不均匀的--它包含了不同类型的市场,我们不知道是哪一种).... 我们在循环中重复步骤1-3。 步骤4。 我们意识到我们被卡住了--我们不能增长网络,MQL很慢,而且神经路径训练离交易还有点远。 步骤5。 思考在一个十字路口 - 现在我们已经开始与NS合作,我们知道NS不是那么多的数学。作为技术, ,可以通过NS交易员保存,它有一个更好的测试器。 好和。 这一切是为了什么? 第六步 如果我们发明了一个网络并对其进行训练,在这个过程中,我们真正需要的东西会变得更加清晰,真正的东西是在没有NS的情况下进行的, ,根本不需要NS。 ,事实证明 ,NS只是在你向一个哑巴解释的时候需要了解可以解释的东西)) Neutron 2009.01.16 10:50 #113 TheXpert писал(а)>>让我们来算一算。 在我发布的文章存档的主题第7页,有一个对训练复杂性的估计(第65-66页):C=P*w^2=d*P^2=(w^4)/d,这表明我稍微搞砸了(有点怀孕),复杂性与d*P^2或通过突触的数量成正比:(w^4)/d 另外,引入第2个隐藏层可以专门减少第1层的大小。 这是从哪里来的? TheXpert 2009.01.16 10:54 #114 Neutron >> : 它从哪里来? 如果不是严格意义上的,则是间接地从可调参数的数量上看。严格意义上的尼亚希尔。我不善于证明。 如果我再加上我自己的想法,实际上我有一段时间认为perseptron的最佳收敛非线性速度结构是人字形,但我还没有检查。 等我有机会了,我就会画出来。 一些新年的想法:))。 Neutron 2009.01.16 11:05 #115 Korey писал(а)>> >>))在他向她解释的时候,他应该明白他在解释什么。) 有一个重要的观点你不想说--你必须解释一次NS(你也会理解它,正如你正确指出的那样),然后,像车床一样,它将在变化的世界上工作(cotier),而不在乎你是否完全理解它的意思!"。 TheXpert 写道>> 人字形结构--人字形 你在抽什么烟? 哦,我明白了!嗯,它看起来确实像一棵圣诞树。我在直觉层面上也有同样的事情。 Борис 2009.01.16 11:06 #116 Neutron >> : ... 这是从哪里来的? 阅读 haykin -------> 点 4.15. 网络简化方法 [删除] 2009.01.16 11:09 #117 你采取哪种算法来学习并没有任何区别。其结果是一样的)。你不必去挖掘神经网络,你必须寻找输入。 Neutron 2009.01.16 11:09 #118 PraVedNiK писал(а)>> 阅读 haykin -------> 点 4.15. 网络简化方法 没问题。>> 我们来读一读! Aleksandr Pak 2009.01.16 11:14 #119 斯普鲁斯!直觉与此无关,NS是一个金字塔式编码器,+它与FFT类似。 例如,基于金字塔编码器模型,计算最小的神经元数量是很简单的。 即金字塔式编码器是设计的 NS的最小覆盖率。 TheXpert 2009.01.16 11:15 #120 Neutron >> : 你在抽什么烟? 辞职吧 :) 哦,我明白了!嗯,它看起来确实像一棵圣诞树。我在直觉上得到了同样的东西。 1...5678910111213141516171819 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
无论你如何旋转NS,无论你在它的输入中放了什么,肯定没有奇迹!"。
因此,我们得到的结果是:一方面,NS的层数越多,其预测能力越高,但建立超过三层是毫无意义的--三层网格已经是一个通用的近似器。
一般来说,不,我不打算争论--我很无聊。
由此可见,NS的分层越多,其训练样本的时间就越长。不仅训练的复杂度以P^3的形式增长,而且我们还可能耗尽数据!
这是我第二次看到这个学位。让我们来算一算。
让我们以一个网络m - n - k为例 -- 这些字母分别代表输入、隐藏和输出层的神经元数量。
对于完全耦合的突触,信号传播的复杂性是O(m*n + n*k)。
背面传播的复杂性也是如此。
现在让我们引入一个相同大小的额外隐藏层。
复杂度为O(m*n + n*n + n*k)。
让我们采取比率 -- 我们得到(m + n + k)/(m + k)。
此外,第2个隐藏层的引入允许你专门减少第1层的大小。
为此,我在Mathcad中制作了三个网格--1、2和3,并比较了提前一个计数的cotier增量的预测结果(我收集了100个独立实验的统计数据)。结果如下。
1-p=10%正确猜到的标志(概率=1/2+p)。
2 - 15-16%
3 - 12%
这里有一些自由参数:输入的尺寸和层中的神经元数量。第一个参数对所有架构都是一样的,第二个参数是个人选择的。我们看到,3层NS网格并不是万能的,也许对我们这些交易员来说,MTS分析块的最佳选择是两层网格--从最大预测精度和对训练复杂性的最低要求的角度来看(RS的功率、大历史及其不增长)。
现在是时候考虑分形NS与分形层数的问题了:)) 。2.5将是恰到好处的。
掌握NS技术的假设方法
步骤1。
在NS中建立一个有一个买入/卖出输出的NS,用Close[x]喂它,看图表,看到--网格是有噪音的!
第二步。
现在,我们喂养的东西比最初的报价更平稳,但无论如何,NS是嘈杂的。
为什么?因为老师是不均匀的。我太懒了,不能用手做。(这里你需要一个螺旋器)
步骤3。
阅读Reshetov的文章,发送NS,在测试器中训练,并注意到--没有明确定义任何错误函数。
因此,战略测试员 发出隆隆声,开发人员发出呼噜声,说雷舍托夫很聪明,他想出了这一切,发明了一个真正的老师。
然而,雷舍托夫是个聪明人,但我的电脑在MT-4上不好用,那么MT-5在哪里呢?
而对于4个输入,这个 "NS "又很吵。现在,历史数据变成了不均匀的--它包含了不同类型的市场,我们不知道是哪一种)
.... 我们在循环中重复步骤1-3。
步骤4。
我们意识到我们被卡住了--我们不能增长网络,MQL很慢,而且神经路径训练离交易还有点远。
步骤5。
思考在一个十字路口 - 现在我们已经开始与NS合作,我们知道NS不是那么多的数学。作为技术,
,可以通过NS交易员保存,它有一个更好的测试器。
好和。
这一切是为了什么?
第六步
如果我们发明了一个网络并对其进行训练,在这个过程中,我们真正需要的东西会变得更加清晰,真正的东西是在没有NS的情况下进行的,
,根本不需要NS。
,事实证明
,NS只是在你向一个哑巴解释的时候需要了解可以解释的东西))
让我们来算一算。
在我发布的文章存档的主题第7页,有一个对训练复杂性的估计(第65-66页):C=P*w^2=d*P^2=(w^4)/d,这表明我稍微搞砸了(有点怀孕),复杂性与d*P^2或通过突触的数量成正比:(w^4)/d
另外,引入第2个隐藏层可以专门减少第1层的大小。
它从哪里来?
如果不是严格意义上的,则是间接地从可调参数的数量上看。严格意义上的尼亚希尔。我不善于证明。
如果我再加上我自己的想法,实际上我有一段时间认为perseptron的最佳收敛非线性速度结构是人字形,但我还没有检查。
等我有机会了,我就会画出来。
一些新年的想法:))。
>>))在他向她解释的时候,他应该明白他在解释什么。)
有一个重要的观点你不想说--你必须解释一次NS(你也会理解它,正如你正确指出的那样),然后,像车床一样,它将在变化的世界上工作(cotier),而不在乎你是否完全理解它的意思!"。
人字形结构--人字形
你在抽什么烟?
哦,我明白了!嗯,它看起来确实像一棵圣诞树。我在直觉层面上也有同样的事情。
...
这是从哪里来的?阅读 haykin -------> 点 4.15. 网络简化方法
你采取哪种算法来学习并没有任何区别。其结果是一样的)。你不必去挖掘神经网络,你必须寻找输入。
阅读 haykin -------> 点 4.15. 网络简化方法
没问题。>> 我们来读一读!
斯普鲁斯!直觉与此无关,NS是一个金字塔式编码器,+它与FFT类似。
例如,基于金字塔编码器模型,计算最小的神经元数量是很简单的。
即金字塔式编码器是设计的 NS的最小覆盖率。
你在抽什么烟?
辞职吧 :)
哦,我明白了!嗯,它看起来确实像一棵圣诞树。我在直觉上得到了同样的东西。