神经网络,如何掌握它们,从哪里开始? - 页 7 1234567891011121314...19 新评论 [删除] 2009.01.14 07:58 #61 Neutron >> : 好了,别那么苛刻了。毕竟,网络有时会被重新训练(我在被分析的BP的每一个计数上都会这样做),平均法会找到一个最小值。至于降维,不幸的是,它对像价格的BPs不起作用。 你使用的是什么时间框架?至于缩减规模,这取决于你要做什么。如果是微不足道的预处理,那么如果没有一些先验的考虑,也就是当你已经有了足够的数据,而你只是在改善结果的时候,它就不会有适当的效果。如果你用缩减规模来做其他事情,那可能是任何事情;) Neutron 2009.01.14 08:19 #62 registred писал(а)>> 你使用的是什么时间框架? 我不使用任何TF。 原因是蜡烛图被用于所有的时间段,因此由开盘价(或开盘)建立的BP比由其他方法(如切换到仪器时间等)建立的初始BP更接近于综合随机BP。 Andrey 2009.01.14 08:29 #63 谢谢gpwr,arnautov! Шаг 1: Выбираем входные данные. Например, x1 = WPR Per1 x2 = WPR Per2 x3 = WPR Per3 我的理解是否正确,输入数据是指EA外部参数中的变量,系数将与之比较?更贴近主题?没问题!你应该先写一个神经元,然后把它们组合成一个网络。而高级程序--那是之后的事。所有其他建议都是垃圾。 而写一个神经元,你能把它分成几个阶段吗? 怎么样?谁在主题中写道,他想用一个例子,我们可以开始吗? 第一个步骤已经向我们指出,顾问在第五页... TheXpert 2009.01.14 10:21 #64 Neutron >> : 我知道不久前有两个定理被证明。 我将感谢您的推荐 根据第一条,三层非线性NS(由三层神经元组成,每层的输出都有非线性)是一个通用的近似器 嗯,这似乎很久以前就被证明了。你可以用一个3层的perseptron来近似任何函数,不管给定的精度有多小。 而进一步增加层数并不能增加网络的功率。 根据第二条定理,网络的计算能力并不取决于其神经元输出的具体非线性类型。重要的是,它(非线性)应该是原则上的,具体是什么并不重要--西格玛或正切。 我所说的是实际实验的结果。至于非线性的问题...你必须先熟悉这些定理。 此外,它还证明了历史数据的最佳训练样本长度、NS输入的维度和其突触的总数之间的明确关系,即在未参与网络训练的数据上预测误差最小。这使得人们可以不通过手动选择这种最佳状态来从事列宁主义。凭借现有的MS能力,这可以节省大量的时间和精力。 你是指可调整参数的数量吗?阈值也包括在内。顺便说一下,如果有文件证明,也会有帮助。而那些开始与神经网络打交道的人熟悉这些材料也不会有什么损失。 TheXpert 2009.01.14 10:33 #65 Andrey4-min >> : 而写一个神经元,你能把它分解成几个步骤吗? 最好是用面向对象的语言来写。 写NS时,神经元是一个太浅的概念。 一个层是相同的神经元的联合体,所以单独考虑一个神经元是没有意义的。 我在我的库中只使用了2种类型的抽象--层和权重。 砝码是连接2层的突触块。 一个层有一个输入缓冲区,一个输出缓冲区和一个误差缓冲区,以及一个激活函数。突触是一个二维数组,将该层的输出缓冲区与输入缓冲区连接起来,具体如下。 一个网络是一组层和它们之间的链接。任何在错误缓冲区有非零信号的层都可以被认为是输出层。 Neutron 2009.01.14 10:49 #66 TheXpert писал(а)>>嗯,这在很久以前就被证明了。一个3层的Perspectron可以以任何小的给定精度 近似任何函数。 错误,而不是精确。 如果这一点很清楚,那么所有这些复杂的事情又有什么意义。 TheXpert 写道>> 在许多问题上,4层perseptron显示出更好的结果和收敛性。 而在一些地方则使用了5层。至于基于perseptron的复杂网络(有多个输出层和复杂链接),我暂时不谈这部分。 你是指可调整参数的数量吗?阈值也包括在内。顺便说一下,把它们记录下来也会有帮助。而那些开始从事神经网络的人,最好能熟悉一下这些材料。 是的,我指的是NS中的权重数量以及它们与输入数量和训练样本的最佳长度的关系。这种关系的推导在附在附件中的文章第64-65页给出。64-65.简而言之,如果NS的权重数为w, 输入数为 d,训练样本长度为P,在最佳状态下,必须满足以下条件:P=(w^2)/d 定理的参考文献我以后会给出--我需要找到它们。 附加的文件: yvtwslxtn.zip 1592 kb TheXpert 2009.01.14 10:54 #67 Neutron >> : 按误差率计算,而不是按准确性计算。 是的。 如果这一点很清楚,那么为什么会如此复杂。 这很简单,当增加一个层或改变架构只需点击几下鼠标或几行代码就能完成时,那么这些复杂的东西就变成了有趣的附加物。 是的,我的意思是NS中的权重数量与输入的数量和训练样本的最佳长度有关。该关系的推导在附件中的文章中给出,该文章在第1页。64-65. >> 谢谢你。那么,该定理的证明呢?或者至少是准确的措辞? Neutron 2009.01.14 11:10 #68 任何非线性神经元函数的适用性定理是由前苏联,以及自20世纪80年代末以来的美国数学家Vladik Kreynovich[1]证明的,并发表在西方领先的神经网络期刊之一。 1.Kreinovich V.Y.任意非线性足以用神经网络表示所有的函数:一个定理/神经网络,1991,Vol.4,№3。- pp.381-383。 P.S. 关于3层的充分性--以后再说。 Neutron 2009.01.14 11:24 #69 我在Gorban A.N.的文章《......》中看到了3层的充分性证明--我找不到。 充分性的证明在下面所附的第39页的文章中。 附加的文件: esibfjnus.zip 967 kb Sceptic Philozoff 2009.01.14 11:31 #70 这似乎与科尔莫戈罗夫证明的定理有某种联系,即任何数量的变量的函数都可以用两个变量的函数来准确表达。我可能没有准确表达,但在关于NS的文章中经常提到。 1234567891011121314...19 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
好了,别那么苛刻了。毕竟,网络有时会被重新训练(我在被分析的BP的每一个计数上都会这样做),平均法会找到一个最小值。至于降维,不幸的是,它对像价格的BPs不起作用。
你使用的是什么时间框架?至于缩减规模,这取决于你要做什么。如果是微不足道的预处理,那么如果没有一些先验的考虑,也就是当你已经有了足够的数据,而你只是在改善结果的时候,它就不会有适当的效果。如果你用缩减规模来做其他事情,那可能是任何事情;)
你使用的是什么时间框架?
我不使用任何TF。
原因是蜡烛图被用于所有的时间段,因此由开盘价(或开盘)建立的BP比由其他方法(如切换到仪器时间等)建立的初始BP更接近于综合随机BP。
谢谢gpwr,arnautov!
Шаг 1: Выбираем входные данные. Например,
x1 = WPR Per1
x2 = WPR Per2
x3 = WPR Per3
更贴近主题?没问题!你应该先写一个神经元,然后把它们组合成一个网络。而高级程序--那是之后的事。所有其他建议都是垃圾。
而写一个神经元,你能把它分成几个阶段吗?
怎么样?谁在主题中写道,他想用一个例子,我们可以开始吗?
第一个步骤已经向我们指出,顾问在第五页...
我知道不久前有两个定理被证明。
我将感谢您的推荐
根据第一条,三层非线性NS(由三层神经元组成,每层的输出都有非线性)是一个通用的近似器
嗯,这似乎很久以前就被证明了。你可以用一个3层的perseptron来近似任何函数,不管给定的精度有多小。
而进一步增加层数并不能增加网络的功率。
根据第二条定理,网络的计算能力并不取决于其神经元输出的具体非线性类型。重要的是,它(非线性)应该是原则上的,具体是什么并不重要--西格玛或正切。
我所说的是实际实验的结果。至于非线性的问题...你必须先熟悉这些定理。
此外,它还证明了历史数据的最佳训练样本长度、NS输入的维度和其突触的总数之间的明确关系,即在未参与网络训练的数据上预测误差最小。这使得人们可以不通过手动选择这种最佳状态来从事列宁主义。凭借现有的MS能力,这可以节省大量的时间和精力。
你是指可调整参数的数量吗?阈值也包括在内。顺便说一下,如果有文件证明,也会有帮助。而那些开始与神经网络打交道的人熟悉这些材料也不会有什么损失。
而写一个神经元,你能把它分解成几个步骤吗?
最好是用面向对象的语言来写。
写NS时,神经元是一个太浅的概念。
一个层是相同的神经元的联合体,所以单独考虑一个神经元是没有意义的。
我在我的库中只使用了2种类型的抽象--层和权重。
砝码是连接2层的突触块。
一个层有一个输入缓冲区,一个输出缓冲区和一个误差缓冲区,以及一个激活函数。突触是一个二维数组,将该层的输出缓冲区与输入缓冲区连接起来,具体如下。
一个网络是一组层和它们之间的链接。任何在错误缓冲区有非零信号的层都可以被认为是输出层。
嗯,这在很久以前就被证明了。一个3层的Perspectron可以以任何小的给定精度 近似任何函数。
错误,而不是精确。
如果这一点很清楚,那么所有这些复杂的事情又有什么意义。
TheXpert 写道>>
在许多问题上,4层perseptron显示出更好的结果和收敛性。
而在一些地方则使用了5层。至于基于perseptron的复杂网络(有多个输出层和复杂链接),我暂时不谈这部分。
你是指可调整参数的数量吗?阈值也包括在内。顺便说一下,把它们记录下来也会有帮助。而那些开始从事神经网络的人,最好能熟悉一下这些材料。
是的,我指的是NS中的权重数量以及它们与输入数量和训练样本的最佳长度的关系。这种关系的推导在附在附件中的文章第64-65页给出。64-65.简而言之,如果NS的权重数为w, 输入数为 d,训练样本长度为P,在最佳状态下,必须满足以下条件:P=(w^2)/d
定理的参考文献我以后会给出--我需要找到它们。
按误差率计算,而不是按准确性计算。
是的。
如果这一点很清楚,那么为什么会如此复杂。
这很简单,当增加一个层或改变架构只需点击几下鼠标或几行代码就能完成时,那么这些复杂的东西就变成了有趣的附加物。
>> 谢谢你。那么,该定理的证明呢?或者至少是准确的措辞?
任何非线性神经元函数的适用性定理是由前苏联,以及自20世纪80年代末以来的美国数学家Vladik Kreynovich[1]证明的,并发表在西方领先的神经网络期刊之一。
1.Kreinovich V.Y.任意非线性足以用神经网络表示所有的函数:一个定理/神经网络,1991,Vol.4,№3。- pp.381-383。
P.S. 关于3层的充分性--以后再说。
我在Gorban A.N.的文章《......》中看到了3层的充分性证明--我找不到。
充分性的证明在下面所附的第39页的文章中。