你是如何使用神经网络的? - 页 7 12345678 新评论 Vladyslav Goshkov 2010.07.16 04:47 #61 Swetten: 让我提醒你原来的说法:NS和GA是完全不同的东西,彼此之间没有任何关系。 一个人不会以任何方式改变成另一个人。 为什么不呢:ORO<->GA;)。 好运。 [删除] 2010.07.16 05:47 #62 VladislavVG: 为什么不呢:ORO<->GA;)。 如果你删除了ORO--GA在没有它的情况下还能工作吗? 让我问一下 -- 它到底会是GA? 是的。他们给你上的课可真够呛。 好运。:) Vizard 2010.07.16 06:14 #63 LeoV: 这与动力无关。动态可以是任何东西--只要网络在训练期间发现的模式在未来有效。这就是问题所在.....))) 我指的是迪纳米卡,只要你把同一对放入网中......至于其他规律性的东西--我同意......但你在哪里能让它们一直工作呢?) Vladyslav Goshkov 2010.07.16 06:14 #64 Swetten: 如果你去掉了ORO,是否意味着没有它GA也能工作? 好吧,好吧,好吧。他们在那里很努力地教你。 祝你好运。:) 解释一下你说的 "去除ORO "和 "没有它GA也能工作 "到底是什么意思? 如果你的意思是用GA取代/扩展ORO学习算法,这就是我的意思,那么它就会,如果是别的,那么我一定是误解了。在许多情况下,共轭梯度法也会起作用,而且比ORO更有效率。这完全取决于被最小化的功能。 至于 "严厉的教导",我也可以说:你似乎受教育程度严重不足;)。 好运。 ZZY 你能找到关于用GA修改学习算法的文章吗?有一些是俄语的;)。 [删除] 2010.07.16 06:19 #65 VladislavVG: 确切地解释一下你说的 "去除ORO "和 "没有它GA也能工作 "是什么意思。 应该由你来问这是什么。还有雷舍托夫。或者如何理解你的 "嗯,为什么:GRO <-> GA"? 我个人理解的是:GA只是一种优化机制。优化任何东西。GA允许摆脱蛮力优化。 它与神经网络没有关系。事实上,它有,但只是作为一种寻找最佳权重的机制。 因此,GA不是,也永远不会是一个NS。 [删除] 2010.07.16 06:25 #66 VladislavVG: 如果你的意思是用GA取代/扩展ORO学习算法,正如我所说的,它会的,如果是其他的,我一定是误解了。在许多情况下,共轭梯度法也会起作用,而且比ORO更有效率。这完全取决于被最小化的功能。 关于 "严重受教育",我也可以这样回答:看来你是严重受教育不足;)。 我正绞尽脑汁地试图理解你的第一句话。 从你列出的选项来看,它可以是这样的结构。"如果你的意思是用GA的使用来取代ORO学习算法,这就是我所说的--那么会有的"。 将什么?工作而不是NS? Vladyslav Goshkov 2010.07.16 06:32 #67 Swetten:你才是应该问是什么的人。或者如何理解你的 "嗯,为什么:ORO<->GA"?我个人理解的是:GA只是一种优化机制。优化任何东西。GA允许摆脱蛮力优化。它与神经网络没有关系。事实上,它有,但只是作为一种寻找最佳权重的机制。因此,GA不是也永远不会成为NS。你说的 "优化 "是什么意思?如果只是搜索变体,那就不完全是一回事了。是MT在迷惑你。 现在关于GA:它是一种搜索方法,在训练网络 的情况下,我们正在寻找一些最低限度的功能。往往会犯错误。在网络训练的过程中,ORO和GA,以及梯度和退火(有这样一种方法--与GA类似)都试图找到一个极值。哪种方法更有效取决于功能和质量标准(即据以选择最佳变体的标准)。GA是所有方法中最普遍的。它们都不能保证找到全球极值。 例如,使用GA有可能同时选择网络结构,即把它(结构)纳入优化参数并设置质量标准(GA的健身函数)。还有更多的可能性。如果有必要,你也可以将ORO与GA一起使用。 好运。 Vladyslav Goshkov 2010.07.16 06:34 #68 Swetten: 将什么?工作而不是NS? 训练方法不会 "代替工作"。毕竟,EDC并不能 "代替NS "发挥作用。上面有更详细的回答。 好运。 [删除] 2010.07.16 06:41 #69 VladislavVG: 你对 "优化 "的理解是什么? 如果只是通过选择,那就不是真正的选择了。是MT在迷惑你。 现在关于GA:它是一种搜索方法,在学习网络的情况下,我们正在寻找一些最低限度的功能。往往会有错误。在训练网络的过程中,无论是ORO还是GA,无论是梯度还是退火(有这样一种方法--类似于GA),人们试图找到一个极值。哪种方法更有效取决于功能和质量标准(即据以选择最佳变体的标准)。GA是所有方法中最普遍的。它们都不能保证找到全球极值。 例如,使用GA有可能同时选择网络结构,即把它(结构)纳入优化参数并设置质量标准(GA的健身函数)。还有更多的可能性。如果有必要,你也可以将ORO与GA一起使用。 好运。 呃!你完全糊涂了! 你应该重新阅读这个主题。 雷舍托夫称:"很有可能,因为我们正在处理一个黑匣子,将使用遗传算法代替固件包中的神经网络,也许还有一些回归或其他推断方法"。 https://www.mql5.com/ru/forum/108709/page4 这就是我试图找出它是什么。而ORO将其误认为是GRNN。 [删除] 2010.07.16 06:42 #70 VladislavVG: 训练方法不会 "代替工作"。毕竟,EDC并不能 "代替NS "发挥作用。 这就是我一直想告诉你的。:) 还有一个人。 只是你原来的信息是错误的。 12345678 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
让我提醒你原来的说法:NS和GA是完全不同的东西,彼此之间没有任何关系。
一个人不会以任何方式改变成另一个人。
为什么不呢:ORO<->GA;)。
好运。
VladislavVG:
为什么不呢:ORO<->GA;)。
如果你删除了ORO--GA在没有它的情况下还能工作吗?
让我问一下 -- 它到底会是GA?
是的。他们给你上的课可真够呛。
好运。:)
这与动力无关。动态可以是任何东西--只要网络在训练期间发现的模式在未来有效。这就是问题所在.....)))
我指的是迪纳米卡,只要你把同一对放入网中......至于其他规律性的东西--我同意......但你在哪里能让它们一直工作呢?)
如果你去掉了ORO,是否意味着没有它GA也能工作?
好吧,好吧,好吧。他们在那里很努力地教你。
祝你好运。:)
解释一下你说的 "去除ORO "和 "没有它GA也能工作 "到底是什么意思?
如果你的意思是用GA取代/扩展ORO学习算法,这就是我的意思,那么它就会,如果是别的,那么我一定是误解了。在许多情况下,共轭梯度法也会起作用,而且比ORO更有效率。这完全取决于被最小化的功能。
至于 "严厉的教导",我也可以说:你似乎受教育程度严重不足;)。
好运。
ZZY 你能找到关于用GA修改学习算法的文章吗?有一些是俄语的;)。
确切地解释一下你说的 "去除ORO "和 "没有它GA也能工作 "是什么意思。
应该由你来问这是什么。还有雷舍托夫。或者如何理解你的 "嗯,为什么:GRO <-> GA"?
我个人理解的是:GA只是一种优化机制。优化任何东西。GA允许摆脱蛮力优化。
它与神经网络没有关系。事实上,它有,但只是作为一种寻找最佳权重的机制。
因此,GA不是,也永远不会是一个NS。
VladislavVG:
如果你的意思是用GA取代/扩展ORO学习算法,正如我所说的,它会的,如果是其他的,我一定是误解了。在许多情况下,共轭梯度法也会起作用,而且比ORO更有效率。这完全取决于被最小化的功能。
关于 "严重受教育",我也可以这样回答:看来你是严重受教育不足;)。
我正绞尽脑汁地试图理解你的第一句话。
从你列出的选项来看,它可以是这样的结构。"如果你的意思是用GA的使用来取代ORO学习算法,这就是我所说的--那么会有的"。
将什么?工作而不是NS?
你才是应该问是什么的人。或者如何理解你的 "嗯,为什么:ORO<->GA"?
我个人理解的是:GA只是一种优化机制。优化任何东西。GA允许摆脱蛮力优化。
它与神经网络没有关系。事实上,它有,但只是作为一种寻找最佳权重的机制。
因此,GA不是也永远不会成为NS。
你说的 "优化 "是什么意思?如果只是搜索变体,那就不完全是一回事了。是MT在迷惑你。
现在关于GA:它是一种搜索方法,在训练网络 的情况下,我们正在寻找一些最低限度的功能。往往会犯错误。在网络训练的过程中,ORO和GA,以及梯度和退火(有这样一种方法--与GA类似)都试图找到一个极值。哪种方法更有效取决于功能和质量标准(即据以选择最佳变体的标准)。GA是所有方法中最普遍的。它们都不能保证找到全球极值。
例如,使用GA有可能同时选择网络结构,即把它(结构)纳入优化参数并设置质量标准(GA的健身函数)。还有更多的可能性。如果有必要,你也可以将ORO与GA一起使用。
好运。
将什么?工作而不是NS?
训练方法不会 "代替工作"。毕竟,EDC并不能 "代替NS "发挥作用。上面有更详细的回答。
好运。
你对 "优化 "的理解是什么? 如果只是通过选择,那就不是真正的选择了。是MT在迷惑你。
现在关于GA:它是一种搜索方法,在学习网络的情况下,我们正在寻找一些最低限度的功能。往往会有错误。在训练网络的过程中,无论是ORO还是GA,无论是梯度还是退火(有这样一种方法--类似于GA),人们试图找到一个极值。哪种方法更有效取决于功能和质量标准(即据以选择最佳变体的标准)。GA是所有方法中最普遍的。它们都不能保证找到全球极值。
例如,使用GA有可能同时选择网络结构,即把它(结构)纳入优化参数并设置质量标准(GA的健身函数)。还有更多的可能性。如果有必要,你也可以将ORO与GA一起使用。
好运。
呃!你完全糊涂了!
你应该重新阅读这个主题。
雷舍托夫称:"很有可能,因为我们正在处理一个黑匣子,将使用遗传算法代替固件包中的神经网络,也许还有一些回归或其他推断方法"。
https://www.mql5.com/ru/forum/108709/page4
这就是我试图找出它是什么。而ORO将其误认为是GRNN。
VladislavVG:
训练方法不会 "代替工作"。毕竟,EDC并不能 "代替NS "发挥作用。
这就是我一直想告诉你的。:)
还有一个人。
只是你原来的信息是错误的。