"新神经 "是MetaTrader 5平台的一个开源神经网络引擎项目。 - 页 70

 

如果有人愿意,请告诉我这是怎么回事。

结合自适应控制和确定性混沌方法,建立高效的自主控制系统

自主的适应性控制方法。

具有有限数量输入的逻辑自适应控制自动机

简而言之,你可以在这里搜索http://www.aac-lab.com/rus/

Группа Методов адаптивного управления
Группа Методов адаптивного управления
  • www.aac-lab.com
Определение живого: живым является то, что содержит в себе систему управления! (Жданов А.А.) Основным направлением научной деятельности группы является исследование возможностей построения адаптивных систем управления на бионических основах. Концепция построения такого рода систем, выработанная сотрудниками отдела, названа нами методом...
附加的文件:
 

我是如何及时逃脱的:)) ...

yu-sha:

谢谢你的帮助 :)

 
TheXpert

我是如何及时逃脱的:)) ...

我还没有把所有的东西都贴出来,仍然在寻找有价值的材料,更多的乐趣在后面 :)
 
TheXpert

多么好的时机:)) ...

谢谢你的帮助 :)

不是为了做广告,而是为了一个好的事业。https://www.mql5.com/ru/code/712 是 一个本地Xml解析器。

我已经用了很久了,我修复了所有的错误。

XML parser
XML parser
  • 投票: 7
  • 2011.11.29
  • yu-sha
  • www.mql5.com
Библиотека для парсинга XML-документов. Реализация на MQL5 без использования сторонних библиотек.
 
我已经用了很长时间了,但我认为我已经修复了所有的错误, 已经把它们修好了。

不是为了做广告,而是为了一个好的事业。https://www.mql5.com/ru/code/712 - 本地Xml解析器

我已经使用了一段时间,并修复了我所有的错误。

是的,我已经下载了,但运行起来,却没有反应,留待以后整理。

我要完成对自适应控制系统文献的解析,然后再去做这件事。

 
yu-sha:

明天我将从我的工作电脑上复制我的工作,在这里存储网络原型,设置训练任务,存储找到的解决方案。

???

 
Urain

实际上GPU在我的模型中出现在NS计算阶段,如果仔细阅读我之前写的内容,你会注意到在我的通用网络模型中,处理过程本身被划分为层,因此神经元被组合成层,不是形式上的(通过所有权),而是实际上的(层有记忆,而神经元没有,神经元需要只是一个信息实体,通知层在哪里和为什么)。所以,并行性是由引擎的结构本身定义的(层内的信息被并行处理)。我已经做过用GA训练的NS,最大的生产力损失正是在NS的计算上(特别是在大型网络上)。作为一个广告,我可以说,对于joo 提议的UGA,学习NS是小菜一碟。

但是,如果有可能将FF的计算也并行化(而GA的NS是FF的一部分),我只支持它。虽然我不认为这将是一个简单的任务,在层中做简单的动作,而FF的计算可能涉及相当复杂的序列。

在其余部分,我们有:任何拓扑结构的通用引擎的想法,任何拓扑结构的通用初始化方法的想法,以及GA作为所有这些的通用教程。

我们可以暂时到此为止,我认为。

标准的GA和云将有助于FF计算的并行化。特别是雷纳特承诺。


管理员
2516
Renat2011.10.18 10:50
MQL5程序 的运行时间情况相当好,我们正在准备启用优化的新版编译器,这将使速度有多方面的提高。

就在开发神经网络的同时,我们将扩展代理的功能,以支持数学计算和大量数据(文件)的交换

但是,俗话说,三年来你不可能遵守你的承诺。

因此,就目前而言,你可以专门为神经网络优化joo算法,它将工作得更快。我希望安德烈不会介意。

 
她.人

???

a) 反汇编XmlParser

b)https://www.mql5.com/ru/forum/4956/page32#comment_110831

当我们得到更多问题时,我们将继续前进。

 
yu-sha:

a) 反汇编XmlParser

b) https://www.mql5.com/ru/forum/4956/page32#comment_110831

当我们得到更多的问题时,我们将继续前进

能否举个小例子说明如何在MT5上使用它?

 

如果我们把神经元训练看作是微观层面(GA中的独立阵列处理周期,网络中单个神经元的计算等)和宏观层面(整个PF),那么我们对第一个问题就没有疑问和问题了--一切都完美并行,在GPU上也能正常工作。

但在宏观层面上有一个问题。首先,我怀疑由于GPU上处理的信息量的限制,这是不可能的。我们可以解决这个问题,使用常规的测试器和云(每个宏观层面将被转移到独立的代理,并在那里进行微观层面的处理 - 当然,如果主机允许的话)。但我们没有工具可以从外部控制测试仪来使用外部GA。

因此,我们将不得不把自己限制在微观层面上的加速。加速也将是非常体面的,因为网格和GA本身的计算比比皆是,相互之间是独立的。

至于UGA本身, 如果你不触及为OpenCL完善它,你实际上没有什么可改进的(除非你有一些代码片段,但这不会有什么区别,感谢那些参与文章中的算法讨论线)。你只能尝试选择UGA的设置,专门用于训练网络