"新神经 "是MetaTrader 5平台的一个开源神经网络引擎项目。 - 页 38

 
gpwr:
过滤器是在没有老师的情况下通过呈现随机选择的10000-40000段历史(相同的迭代次数)来训练的。学习是非常快的。根据不同的计算机,10000个过滤器在20000段历史上的训练,在360个GPU CUDA处理器上为1-2分钟,在4个英特尔处理器上为1小时,有16个轨道,在我的笔记本电脑上为3-4小时,有一个处理器和两个轨道。不过时间在这里并不重要。即使我需要一两天的时间来进行这样的过滤训练,但对每个报价(欧元兑美元、美元兑日元等)只做一次。一旦过滤器被训练,它们就不会改变,并被用来过滤新的价格。筛选本身是非常快的 - 我们计算价格和筛选系数的乘积之和。

在我的印象中,我们必须多次通过每一个段,才能认为网格是训练有素的。

问题是,每个例子要提交多少次?

 
Urain

在我的印象中,为了使网格被认为是训练有素的,每个部分都必须通过几次。

问题是,每个例子要提交多少次?

你不必多次翻阅同一段历史。而且你不必把故事的每个部分都至少看一遍。一些历史部分可以省略。过滤器本质上是通过随机抽样收集报价的统计数据。样本的随机性是这里的主要内容。如果按顺序扫描整个历史,过滤器将倾向于历史开始时的统计数据。
 
gpwr:
你不需要把故事的同一部分讲好几遍。而且你不必把故事的每个部分都至少看一遍。一些历史部分可以省略。过滤器本质上是收集随机样本的报价统计数据。
不,你说的是过滤器,我告诉你这是一个旁观者,我说的是NS学习算法。
 
Urain:
不,你说的是过滤器,我警告过你,这个问题是侧面的,我说的是NS学习算法。
那么我真的不明白。我提议的网络由两个模块组成:一个带有几层过滤器的数据转换模块和一个分类模块。第一个模块中的过滤器是在没有老师的情况下对整个历史进行一次训练,并在网络的所有后续应用中被记住。一旦过滤器被训练好,我们就用老师教第二个模块,即第一个模块的输入包含一个价格模式,第二个模块的输出包含已知信号买入(+1),卖出(-1),持有(0)。第二个模块可以是我们知道的任何神经网络,如前馈网络(FFN或MLP)、支持向量机(SVM)、径向基函数(RBF)。这个模块的学习曲线就像没有第一个过滤模块一样长。正如我之前解释的那样,在我看来,第二个模块没有第一个模块那么重要。你应该首先正确转换(过滤)报价,然后再将其送入网络。最简单的过滤方法是МА。其他指标也可以应用,大多数神经网络运营商已经做了。我建议建立一个特殊的 "指标",由几个类似于生物过滤器的过滤层组成,用于对报价进行这种转换,在这个 "指标"(我的网络的第一个模块)的输出端,用相同的代码描述相同但扭曲的模式。然后就可以用众所周知的方法在第二模块中对这些代码进行分类。
 
Нейрокомпьютерные системы | Учебный курс | НОУ ИНТУИТ
Нейрокомпьютерные системы | Учебный курс | НОУ ИНТУИТ
  • www.intuit.ru
Излагаются основы построения нейрокомпьютеров. Дается детальный обзор и описание важнейших методов обучения нейронных сетей различной структуры, а также задач, решаемых этими сетями. Рассмотрены вопросы реализации нейронных сетей.
附加的文件:
Books.zip  14709 kb
 

gpwr:

那我真的不明白了。我提出的网络由两个模块组成:一个带有几层过滤器的数据转换模块和一个分类模块。第一个模块中的过滤器是在没有老师的情况下对整个历史进行一次训练,并在网络的所有后续应用中被记住。 一旦过滤器被训练好,我们就用老师教第二个模块,即输入的价格模式和输出的已知买入(+1)、卖出(-1)、持有(0)信号。第二个模块可以是我们知道的任何神经网络,例如前馈网络(FFN或MLP)、支持向量机(SVM)、径向基函数(RBF)。这个模块的学习曲线就像没有第一个过滤模块一样长。正如我之前解释的那样,在我看来,第二个模块没有第一个模块那么重要。你应该首先正确转换(过滤)报价,然后再将其送入网络。最简单的过滤方法是МА。其他指标也可以应用,大多数神经网络运营商已经做了。我建议建立一个特殊的 "指标",由几个类似于生物过滤器的过滤层组成,用于对报价进行这种转换,在这个 "指标"(我的网络的第一个模块)的输出端,用相同的代码描述相同但扭曲的模式。然后就可以用众所周知的方法在第二模块中对这些代码进行分类。

如果我理解正确的话,过滤器本身和它们的训练可以归于预处理模块。
 
Urain
如果我理解正确的话,过滤器本身和它们的训练可以归于预处理模块。
是的,第一个模块,自学一次就可以终身学习。
 
Urain
亚历克斯,你是如何做到附加14M的,是版主的特权还是他们提高了限额?
它说到16M。可能会增加。
 
好啊,第15讲就是我一开始说的模糊逻辑网络。
 

u- 激活器输入

y- 额外的功率因素。

//+------------------------------------------------------------------+
double sigma0(double u,double y=1.)// [0;1]
  {
   return(1./(1.+exp(-y*u)));
  }
//+------------------------------------------------------------------+
double sigma1(double u,double y=1.)// [-1;1] сдвинутый сигмоид
  {
   return((2./(1.+exp(-y*u)))-1.);
  }
//+------------------------------------------------------------------+
double func1(double u,double y=1.)// [-1;1]
  {
   return(y*u/sqrt(1.+y*y*u*u));
  }
//+------------------------------------------------------------------+
double func2(double u,double y=1.)// [-1;1]
  {
   return(sin(M_PI_2*y*u));
  }
//+------------------------------------------------------------------+
double func3(double u,double y=1.)// [-1;1]
  {
   return(2./M_PI*atan(y*u));
  }
//+------------------------------------------------------------------+
double func4(double u,double y=1.)// [-1;1]
  {
   return(y*u-y*y*y/3.*u*u*u);
  }
//+------------------------------------------------------------------+
double line0(double u,double y=1.)// [0;1] линейный активатор
  {
   double v=y*u;
   return((v>1.?1.:v<0.?0.:v));
  }
//+------------------------------------------------------------------+
double line1(double u,double y=1.)// [-1;1]
  {
   double v=y*u;
   return((v>1.?1.:v<-1.?-1.:v));
  }
//+------------------------------------------------------------------+
double Mline(double v)// [DBL_MIN;DBL_MAX]
  {
   return((v>DBL_MAX?DBL_MAX:v<DBL_MIN?DBL_MIN:v));
  }
//+------------------------------------------------------------------+