"新神经 "是MetaTrader 5平台的一个开源神经网络引擎项目。 - 页 53

 
Urain

GAs或其他学习方法都有内部方法,外部他们只有外部的误差计算,对于GAs来说,它是FF。

不,GA是外部的,因为它不需要知道内部情况。
 
TheXpert
不,GA是外部的,因为它不需要知道内部情况。
是的,它是神经元的外部,但如果你把它作为一个学习方法拧进去,它必须是网格的内部,否则它就会从重载学习方法中掉出来。
 
没有。
 
TheXpert

Au 遗传学。

遗传学家需要能够改变网络拓扑结构吗?如果他们不得不这样做,又有多严重呢?

这是下一步,与引擎没有直接关系,它的实现是通过一个外部的GA来实现的,这个GA创造了不同的拓扑结构,那些初始化不同引擎的对象。
 
TheXpert

Au 遗传学。

遗传学家需要能够改变网络拓扑结构吗?如果他们不得不这样做,又有多严重呢?

简而言之,你还不能。可以通过创建不同的网络实例并将其描述添加到基因中来规避它。
 
TheXpert
没有。
???
 
TheXpert
你还不能让它变短。你可以通过创建网络的不同实例并将其描述添加到基因中来解决这个问题。

我在考虑如何使它在训练过程中,新的神经元会在正确的地方诞生,但在研究了算法后,我得出的结论是,它们不会有一个共同的形式化,实际上没有交集点。这就是为什么我拒绝并专注于建立一个垂直网络。按类型划分。

数据--> 神经元--> 封装的神经网络--> 容器神经网络

 
Urain
???
有什么不明白的呢?遗传学可以训练任何网络,一个网络根本不需要知道遗传学。
 
TheXpert
有什么不明白的呢?遗传学可以训练任何网络,一个网络根本不需要知道遗传学。

不一定,也不会,但GA会像其他训练方法一样成为 "容器神经网络 "的一部分。

就像神经网络不需要成为GA的一部分一样,GA只需要知道关于网格的权重和误差,仅此而已。

 
我建议第一项由echo或SOM来实现,接口可以顺便敲定。