O "New Neural" é um projecto de motor de rede neural Open Source para a plataforma MetaTrader 5. - página 38

 
gpwr:
Os filtros são treinados sem um professor, apresentando secções de história 10000-40000 seleccionadas aleatoriamente (o mesmo número de iterações). A aprendizagem é muito rápida. Dependendo do computador, 10000 filtros são treinados em 20000 patches de histórico de 1-2 minutos em processadores CUDA 360 GPU, cerca de 1 hora em 4 processadores Intel com 16 pistas, 3-4 horas no meu laptop com um processador e duas pistas. Mas o tempo não importa aqui. Mesmo que eu precise de um ou dois dias para tal treinamento de filtro, ele só é feito uma vez para cada cotação (EURUSD, USDJPY, etc.). Uma vez que os filtros são treinados, eles não mudam e são usados para filtrar novos preços. A filtragem em si é muito rápida - calculamos a soma dos produtos de preço e coeficientes de filtragem.

Tanto quanto me lembro, temos de passar cada segmento várias vezes para que a rede seja considerada treinada,

a questão é, quantas vezes cada exemplo teria que ser apresentado?

 
Urain:

Tanto quanto me lembro, para que a grelha seja considerada treinada, cada secção tem de ser percorrida várias vezes,

a pergunta é: quantas vezes cada exemplo tem que ser apresentado?

Você não precisa passar pela mesma seção da história várias vezes. E não tens de passar por todas as partes da história pelo menos uma vez. Algumas secções da história podem ser omitidas. Os filtros reúnem essencialmente estatísticas de citações por amostras aleatórias. A aleatoriedade de uma amostra é o principal aqui. Se todo o histórico for digitalizado sequencialmente, os filtros se inclinarão para as estatísticas no início do histórico.
 
gpwr:
Não tens de passar pela mesma parte da história várias vezes. E não tens de passar por todas as partes da história pelo menos uma vez. Algumas secções da história podem ser omitidas. Os filtros recolhem essencialmente estatísticas de cotações a partir de amostras aleatórias.
Não, estás a falar de filtros, eu disse-te que a questão é lateral, eu estou a falar de algoritmos de aprendizagem NS.
 
Urain:
Não, você está falando de filtros, eu te avisei que a questão é lateral, eu estou falando de algoritmos de aprendizagem NS.
Então eu realmente não entendo. A rede que proponho é composta por dois módulos: um módulo de conversão de dados com várias camadas de filtros e um módulo de classificação. Os filtros do primeiro módulo são treinados uma vez sem um professor sobre toda a história e são lembrados para todas as aplicações subsequentes da rede. Uma vez treinados os filtros, ensinamos o segundo módulo com o professor, ou seja, a entrada do primeiro módulo contém um padrão de preço e a saída do segundo módulo contém sinais conhecidos Comprar (+1), Vender (-1), Manter (0). O segundo módulo pode ser qualquer rede neural que conhecemos, por exemplo, Feed-Forward Network (FFN ou MLP), Support Vector Machine (SVM), Radial Basis Function (RBF). A curva de aprendizagem deste módulo é tão longa quanto sem o primeiro módulo de filtragem. Como expliquei anteriormente, na minha opinião o segundo módulo não é tão importante como o primeiro. Você deve primeiro transformar (filtrar) corretamente as aspas antes de alimentá-las na rede. O método de filtragem mais simples é МА. Outros indicadores também podem ser aplicados, o que a maioria das operadoras de redes neurais já fazem. Sugiro um "indicador" especial composto por várias camadas de filtros semelhantes aos filtros biológicos para tal transformação de citações que os mesmos mas distorcidos padrões são descritos pelo mesmo código na saída deste "indicador" (o primeiro módulo da minha rede). Então é possível classificar estes códigos no segundo módulo usando métodos bem conhecidos.
 
Нейрокомпьютерные системы | Учебный курс | НОУ ИНТУИТ
Нейрокомпьютерные системы | Учебный курс | НОУ ИНТУИТ
  • www.intuit.ru
Излагаются основы построения нейрокомпьютеров. Дается детальный обзор и описание важнейших методов обучения нейронных сетей различной структуры, а также задач, решаемых этими сетями. Рассмотрены вопросы реализации нейронных сетей.
Arquivos anexados:
Books.zip  14709 kb
 

gpwr:

Então não percebo mesmo. A rede que proponho é constituída por dois módulos: um módulo de conversão de dados com várias camadas de filtros e um módulo de classificação. Os filtros do primeiro módulo são treinados uma vez sem um professor sobre toda a história e são lembrados para todas as aplicações subsequentes da rede. Uma vez treinados os filtros, ensinamos o segundo módulo com o professor, ou seja, o padrão de preço na entrada e os conhecidos sinais Comprar (+1), Vender (-1), Manter (0) na saída. O segundo módulo pode ser qualquer rede neural que conhecemos, por exemplo, Rede Feed-Forward (FFN ou MLP), Máquina Vetorial de Suporte (SVM), Função Radial Basis (RBF). A curva de aprendizagem deste módulo é tão longa quanto sem o primeiro módulo de filtragem. Como expliquei anteriormente, na minha opinião o segundo módulo não é tão importante como o primeiro. Você deve primeiro transformar (filtrar) corretamente as aspas antes de alimentá-las na rede. O método de filtragem mais simples é МА. Outros indicadores também podem ser aplicados, o que a maioria das operadoras de redes neurais já fazem. Sugiro um "indicador" especial composto por várias camadas de filtros semelhantes aos filtros biológicos para tal transformação de citações que os mesmos mas distorcidos padrões são descritos pelo mesmo código na saída deste "indicador" (o primeiro módulo da minha rede). Então é possível classificar estes códigos no segundo módulo usando métodos bem conhecidos.

Se eu entendi corretamente, os filtros em si e seu treinamento podem ser atribuídos ao módulo de pré-processamento.
 
Urain:
Se eu entendi corretamente, os filtros em si e seu treinamento podem ser atribuídos ao módulo de pré-processamento.
Sim, o primeiro módulo, auto-aprendizagem uma vez na vida.
 
Urain:
Alex e como você conseguiu anexar 14M, privilégio de moderador ou eles aumentaram o limite?
Diz para 16M. Provavelmente, aumentou.
 
Hurra, a palestra 15 é a rede de lógica difusa de que falava no início.
 

u - entrada do ativador

y - fator de potência adicional.

//+------------------------------------------------------------------+
double sigma0(double u,double y=1.)// [0;1]
  {
   return(1./(1.+exp(-y*u)));
  }
//+------------------------------------------------------------------+
double sigma1(double u,double y=1.)// [-1;1] сдвинутый сигмоид
  {
   return((2./(1.+exp(-y*u)))-1.);
  }
//+------------------------------------------------------------------+
double func1(double u,double y=1.)// [-1;1]
  {
   return(y*u/sqrt(1.+y*y*u*u));
  }
//+------------------------------------------------------------------+
double func2(double u,double y=1.)// [-1;1]
  {
   return(sin(M_PI_2*y*u));
  }
//+------------------------------------------------------------------+
double func3(double u,double y=1.)// [-1;1]
  {
   return(2./M_PI*atan(y*u));
  }
//+------------------------------------------------------------------+
double func4(double u,double y=1.)// [-1;1]
  {
   return(y*u-y*y*y/3.*u*u*u);
  }
//+------------------------------------------------------------------+
double line0(double u,double y=1.)// [0;1] линейный активатор
  {
   double v=y*u;
   return((v>1.?1.:v<0.?0.:v));
  }
//+------------------------------------------------------------------+
double line1(double u,double y=1.)// [-1;1]
  {
   double v=y*u;
   return((v>1.?1.:v<-1.?-1.:v));
  }
//+------------------------------------------------------------------+
double Mline(double v)// [DBL_MIN;DBL_MAX]
  {
   return((v>DBL_MAX?DBL_MAX:v<DBL_MIN?DBL_MIN:v));
  }
//+------------------------------------------------------------------+