"新神经 "是MetaTrader 5平台的一个开源神经网络引擎项目。 - 页 78

 
该项目 现在处于什么阶段?谁是监督者?
 
更好
该项目现在处于什么阶段?谁是老板?

没有老板,你要做你自己。

ZS:我认为明天午餐时间是一个更好的谈话时间。

 
更好
该项目现在处于什么阶段?谁是老板?
赌徒不就是前几天赢得冠军的那个人吗?
 
shyma:
赌徒不就是猫头鹰神经元曾经夺冠的那个赌徒吗?
那一个。他在某个地方有一个PAMM账户......谷歌一下。
 
R0MAN
那一个。他在某个地方有一个PAMM账户......谷歌一下。
通过他的个人资料:-)
 
aharata:
通过简介:-)
这是我看的第一件事 - 我找不到它...在飞行中...:-)当时还没有醒过来......:-)
 

我想我应该提起一个旧的话题。

我提出一个普遍的NS模型供大家参考。

请反对者提交一种不可能用这种模式来描述的网格类型!!。

代码很粗糙,所以要把它弄清楚。

所提出的实现方式很容易在CPU和GPU上转化。网格中还提供了延迟运算器。

有3种转变的方式。

保持原样(所有4个阵列都是2D的),适用于GPU

out是一个一维数组,但也使用一个二维的bool掩码

out是一个一维数组,用一个由掩码构建的索引数组代替掩码。

(我们在前面谈到了二进制掩码;它就是这样一个掩码,用0和1来显示是否有连接,在这种情况下,一个神经元是一个水平阵列,它与其他神经元的连接在其地平线上用二进制掩码的相应值表示,在相同的单元中,但在平行阵列中,权重、输出和时间数据被存储,Zx是X范围的延迟运算符)

模型网

class CDmem
  {
public:
                     CDmem(void){};
                    ~CDmem(void){};
   double            m[];
  };
//+------------------------------------------------------------------+
//|                                                                  |
//+------------------------------------------------------------------+
class CBmem
  {
public:
                     CBmem(void){};
                    ~CBmem(void){};
   bool              m[];
  };
//+------------------------------------------------------------------+
//|                                                                  |
//+------------------------------------------------------------------+
class CProcessing
  {
public:
                     CProcessing(void){};
                    ~CProcessing(void){};
   virtual void      Processing(int i,CBmem &mask[],CDmem &weg[],CDmem &out[],CDmem &temp[],int I,int J)
     {
      for(int j=0;j<J;j++)
        {
         temp[i].m[j]=mask[i].m[j]*weg[i].m[j]*out[i].m[j];
        }
      double sum=0;
      for(int j=0;j<J;j++)
        {
         sum+=temp[i].m[j];
        }

      double outt=2./(1.+exp(-sum));
      for(int j=0;j<J;j++)
         out[i].m[j]=outt;
     };
   void              DelayOperator(int i,CDmem &out[])
     {
      // тут мы сдвишаем от конца к началу, реализуем оператор задержки
     };
  };
//+------------------------------------------------------------------+
//|                                                                  |
//+------------------------------------------------------------------+
class Unet
  {
   int               cnt_prcss;
   CBmem             mask[];
   CDmem             weg[];
   CDmem             out[];
   CDmem             temp[];
   CProcessing      *prcss[];
   void              Init()
     {
      ArrayResize(mask,5);
      ArrayResize(weg,5);
      ArrayResize(out,5);
      ArrayResize(temp,5);
      for(int i=0;i<5;i++)
        {
         ArrayResize(mask[i].m,19);
         ArrayResize(weg[i].m,19);
         ArrayResize(out[i].m,19);
         ArrayResize(temp[i].m,19);
        }
     };
   void              InitProcessing(CProcessing *p)
     {
      prcss[cnt_prcss]=p;
      cnt_prcss++;
     };
public:
                     Unet(void){Init(); cnt_prcss=0;};
                    ~Unet(void)
     {
      for(int i=0;i<cnt_prcss;i++)
         delete prcss[i];
     };
   void              DonwloadMask(){};
   void              DonwloadWeg(){};
   void              Processing()
     {
      for(int i=0;i<cnt_prcss;i++)
         prcss[i].Processing(i,mask,weg,out,temp,5,19);
     };
   void              DelayOperator()
     {
      for(int i=0;i<cnt_prcss;i++)
         prcss[i].DelayOperator(i,out);
     };
  };
 

这不是一个模型。神经元在哪里?连接在哪里?过程在哪里?反馈在哪里?

还有一个问题是什么--为什么要为所有的网络做一个通用模型?

我宁愿为大多数事情做一个通用网络(呵呵))。

而你为什么要直接跳到执行上呢?你首先没有准备好一个架构。

 
TheXpert

这不是一个模型。神经元在哪里?连接在哪里?过程在哪里?反馈在哪里?

还有一个问题--为什么要为所有的网络制作一个通用模型?

对大多数任务来说,最好是一个通用网络(呵呵) )

图中的神经元是水平阵列。 连接是用布尔掩码编码的。

提出引导性的问题,我会解释不清楚的地方,我不可能一下子把所有东西都描述出来。

架构遵循模型,并将继续如此。

比起大多数任务的通用网络要好得多(呵呵) )

ZZZY和我想检查这个模型是否适合所有的任务。一个头是好的,但一个合唱团更好。

通过改变CProcessing类的后代,你可以逐一改变神经元类型。

你可以另外添加一个神经元类型的数组,并给每个神经元分配一个不同的类型(通过从后代的CProcessing中选择)。

ZZZZY 反向链接在图中标为Zx

 
Urain

那么为什么你让掩码连接到输出端而不是再次连接到神经元呢?)

那你想怎么把激活函数放在GPU里呢?

我认为,你要把你不能填的东西填进去,就像上次一样。但这是一个观点,所以你可以直接把它放在线上。

我不会再打扰你了,除非是公事。

啊,cogitron。还有什么--hopfield网络--那里的输入就是输出。然后是稀疏的...