"新神经 "是MetaTrader 5平台的一个开源神经网络引擎项目。 - 页 21

 
sergeev:

安德烈(TheExpert)对这个想法的乌托邦性质的感慨应该放在一边,直到聘请的专家、项目管理员和最后的参与者委员会宣布其裁决。同时,该议题仍在讨论中。

因此,你必须调整你的目标,以便至少达到类似的效果。

伙计,你似乎没有完全理解我。我属于脚踏实地、悲观的一方。

是的,这个库应该是通用的,就像乐高的构造器--你可以组装任何你喜欢的东西。

所以,没问题!但要分别教导每一个人。你可以做它的功能,合作培训要么是地狱,要么是笨拙的怪物,会花一个小时来学习XOR。

是的,这个库应该很容易使用,这需要一个模板专家。易于使用,以至于非程序员也能使用。

理论上,可以创建几个模板EA,并将其数据输入自动化,以简化和非编程人员。但无论如何,这些数据应该由自己来准备。

是的,库的输入和输出都应该有一个通用的接口,这样你就可以把一切都连接到它,从指标值到...

所以它是普遍的!一系列的配音 - 多么普遍?在委员会中,重要的是对接时尺寸一致。

 
Urain
我们说的是同一件事吗? 目标函数是计算网络输出误差的函数。
目标功能是我们的目标。在标准中 -- 与基准相比,最小化有效值输出误差。
 
TheXpert
....

这已经是普遍现象了!一个双数的阵列更具有普遍性?而委员会的主要工作是确保停靠时的尺寸一致。

你是什么意思?为了实现多功能性,GA是恰到好处的。

为了清楚起见,发动机的算法被如此简化。

如果我们想添加一个MLP网格,我们会问,如果我们输入20个值,第一个隐藏层有10个神经元,第二个有10个,输出有1个,它将有多少个权重?

它告诉我们,244。

我们想再增加一个网格(不管它是什么),所以我们再次询问.....,它告诉我们542。

所以244+542=786。

我们还想优化SL和TP,我们还想增加两个参数,所以786+2=788。

我们还想优化macdi,它有两个参数,所以788+2=790。

好的,我们把阵列的大小调整为790。

瞧!我们将在GA中优化790个参数。

然后你可以尽可能多地添加网络类型和其他东西,保持统一的接口标准(提前开发)。

类似这样的事情。

 
Urain

让我们做一个图形引擎,做一个通用的网络(几个变体),然后邀请专家来解释它。

我们可以让它变得更简单。

在这种情况下,我们从特殊到一般,试图抽象到普遍模式。

1.绘制(在纸上+矩阵的口头算法)我们可以实现的网络(拓扑结构和他们的训练方法)。
2.在绘制的模型中找到共同的对接点,创建抽象的引擎类。

我们需要研究更多的模型,以这种方式拉动基本的构建模块。

这种抽象必然是从人类语言概念("创造"、"学习"、"修复一个错误")的角度来看的。因为这首先会使普通用户清楚地了解该模型。其次,这种功能-概念可以很容易地扩展到新的拓扑结构和方法。

 
另一个imho。你不太可能从外面找到符合你要求的专家顾问。在最好的情况下,你会在与与你水平相当的专家的谈判中陷入困境,但试图推销他们的知识,在谈判阶段把他们的水平夸大到你想要的水平。 如果有预算,不管是什么预算,在项目 结束时,根据对元数的主观评估,在你们之间平分或不平分,会更有效率。
 
sergeev:

我们可以让它变得更简单。

在这种情况下,我们从特殊到一般,试图抽象到普遍模式。

1.绘制(纸上+口头算法Matmodel)我们可以实现的网络(拓扑结构和训练方法)。
2.在绘制的模型中找到共同的对接点,创建抽象的引擎类。

我们需要研究更多的模型,以这种方式拉动基本的构建模块。

这种抽象必然是从人类语言概念("创造"、"学习"、"修复一个错误")的角度来看的。因为这首先会使普通用户清楚地了解该模型。其次,这种函数和概念可以很容易地扩展到新的拓扑结构和方法。


我在第12页画了一个万能神经元,但还缺少一些东西。

即激活器中的记忆接收细胞。

但我不打算讨论训练方法,让数学家来解决这个问题 :o)

 
米切克
另一个imho。你不太可能在外面找到一个符合你要求的专家顾问。如果你们有预算,不管是什么样的预算,在项目结束时,根据对元宝的主观评估,在你们之间平分或不平分,会更有效。

等一下的预算,我个人选择了调查中的第一项,我不是为了金属而在这里发牢骚。

而关于局外人,这取决于你在哪里看,至少应该是受过训练的数学家。

不是靠近数学,而是一个数学家。

 
Urain

等一下的预算,我个人选择了调查的第一点,我不是为了金属而在这里干燥我的大脑。

而关于局外人,这取决于你在哪里看,至少应该是一个数学家的学历。

不靠近matematicheskoy的人,即数学家。

你首先尝试对专家的要求形成一个一般或几乎一般的意见
 

sergeev:

2.在绘制的模型中找到共同的对接点,创建抽象的引擎类。

我画出并布置了一个示例代码。所有的简单模型都适合在这些实体上使用。
 
TheXpert:
顺便说一句,弗拉基米尔,你愿意更广泛地发表你的观点和介词吗?

在我看来,网格分为建模网格和分类网格。建模的人试图在一些输入数据的基础上预测下一个价格,例如过去的价格。这种网状模型不能应用于市场,IMHO。分类网络试图对输入数据进行分类,即买入/卖出/持有或趋势/平坦以及或其他。这就是我觉得有趣的地方。在我看来,最有希望的分类网络是对输入数据进行正确转换的SVM。我想说的是,网络本身并不重要,重要的是输入数据的转换,也就是说,我们可以用别的东西来代替SVM,比如RBN。在过去的两年里,我一直在研究基于大脑的网络(顺便说一下,MLP和其他大多数网络与大脑没有任何共同之处)。大脑有几层用于输入数据转换(声音、图像等),有一些分类引擎如VSM。大脑中的数据转换 照例是通过过滤和降维来完成的。滤波器的特征是在没有老师的情况下训练的,使用Hebbian竞争学习或其他自学方法。对过滤后的数据的分类是在老师的指导下进行的(反馈)。我以后会写更多细节。

MLP
广义MLP
模块网络
自组织地图
神经气体
竞争性学习 - 有前途
Hebbian - 有前途
FFCPA
径向基网络
LSTM
时滞递归
部分递归
小波网络
完全递归
神经模糊
支持向量机 - 有前途
定制架构 - 有前途