你是如何使用神经网络的? - 页 8

 
VladislavVG:

你说的 "优化 "是什么意思?如果它只是通过选项,那就不是真正的内容了。是MT让你困惑。

现在谈谈GA:它是一种搜索方法,在训练网络的情况下,我们正在寻找一些功能的最小值。往往会犯错误。在网络训练的过程中,ORO和GA,以及梯度和退火(有这样一种方法--与GA类似)都试图找到一个极值。哪种方法更有效取决于功能和质量标准(即据以选择最佳变体的标准)。GA是所有方法中最普遍的。它们都不能保证找到全球极值。

例如,使用GA有可能同时选择网络结构,即把它(结构)纳入优化参数并设置质量标准(GA的健身函数)。还有更多的可能性。如果有必要,你也可以将ORO与GA一起使用。

好运。


你已经回答了自己,GA不是一个神经网络。还不如说是一种梯度法,因为很容易成为NS。有一辆车和一个司机。而且有一堆方法可以教司机开车,但每一种方法都不是汽车。

这也是Svetten 声称的。我真的不明白你在争论什么?

 
Farnsworth:

你自己回答说GA不是一个神经网络。梯度法不如说是一种简单的NS。有一辆车和一个司机。而且有很多方法可以教司机如何驾驶汽车,但每一种方法都不是汽车。

这也是Svetten 声称的。我真的不明白你在争论什么?

所以我并没有说GA是NS。我针对斯维特拉娜的这句话,展示了NS和GA是如何连接的。

Напомню изначальное утверждение: НС и ГА -- совершенно разные вещи, между собой никак не связанные.

那就是没有这种联系。


好运。
 
VladislavVG:

所以我并没有说GA是NS。我展示了NS和GA的关系,以回应斯维特拉娜的一句话,即不存在这样的事情。

1.你没有仔细阅读主题,不明白这句话指的是什么。

2.最有趣的是,他们真的与此无关。如果你加入GA,是一件事;如果你加入ORO,是另一件事;如果你加入其他东西,是另一件事。

3.GA只是一种优化机制。我应该指出,这是一个普遍的机制。我的意思是,它是一个普遍的机制,包括NS优化。

至于第2点和第3点,我的结论是,NS和GA之间没有任何关系。

 

NS--转换方法(无论如何:近似、分类、过滤、逻辑转换)。

GA--优化方法。

一个不是另一个,不能相互替代。还有basta。

在许多关于NS的文章和书籍中,谈到人工神经网络 时,都暗示它们是由ORO训练的,误导了读者。不仅如此,我还遇到过这样的说法:"这样的网络不起作用,因为....",而如果一个网络是用其他优化算法训练的,它已经是一个完全不同的网络,将完全不同的品质归于这样的 "其他 "网络--绵羊的尿。一个网络就是一个网络,如果我们用任何优化方法训练它,它都不会改变其属性。它可能会改变训练的质量,仅此而已。