"New Neural" ist ein Open-Source-Projekt für neuronale Netzwerke für die MetaTrader 5-Plattform. - Seite 38

 
gpwr:
Die Filter werden ohne einen Lehrer trainiert, indem zufällig ausgewählte 10000-40000 Abschnitte der Geschichte (dieselbe Anzahl von Iterationen) vorgelegt werden. Das Lernen geht sehr schnell. Je nach Computer werden 10000 Filter auf 20000 Patches der Historie in 1-2 Minuten auf 360 GPU CUDA Prozessoren trainiert, etwa 1 Stunde auf 4 Intel Prozessoren mit 16 Spuren, 3-4 Stunden auf meinem Laptop mit einem Prozessor und zwei Spuren. Die Zeit spielt hier aber keine Rolle. Auch wenn ich für eine solche Filterschulung ein oder zwei Tage benötige, wird sie für jeden Kurs (EURUSD, USDJPY usw.) nur einmal durchgeführt. Sobald die Filter trainiert sind, ändern sie sich nicht mehr und werden zum Filtern neuer Preise verwendet. Die Filterung selbst ist sehr schnell - wir berechnen die Summe der Produkte aus Preis und Filterkoeffizienten.

Soweit ich mich erinnere, müssen wir jedes Segment mehrmals durchlaufen, damit das Netz als trainiert gilt,

Die Frage ist, wie oft müsste jedes Beispiel eingereicht werden?

 
Urain:

Soweit ich mich erinnere, muss jeder Abschnitt mehrmals durchlaufen werden, damit das Netz als trainiert gilt,

Die Frage ist, wie oft muss jedes Beispiel eingereicht werden?

Sie müssen denselben Abschnitt der Geschichte nicht mehrmals durchgehen. Und Sie müssen nicht jeden Teil der Geschichte mindestens einmal durchlaufen. Einige Abschnitte der Geschichte können weggelassen werden. Filter sammeln im Wesentlichen Statistiken von Zitaten durch Stichproben. Die Zufälligkeit einer Stichprobe ist hier die Hauptsache. Wird der gesamte Verlauf nacheinander durchsucht, werden die Filter eher die Statistiken am Anfang des Verlaufs berücksichtigen.
 
gpwr:
Sie müssen denselben Teil der Geschichte nicht mehrmals durchgehen. Und Sie müssen nicht jeden Teil der Geschichte mindestens einmal durchlaufen. Einige Abschnitte der Geschichte können weggelassen werden. Filter sammeln im Wesentlichen Zitatestatistiken von Stichproben.
Nein, Sie sprechen von Filtern, ich habe Ihnen gesagt, dass dies eine Nebensächlichkeit ist, ich spreche von NS-Lernalgorithmen.
 
Urain:
Nein, du sprichst von Filtern, ich habe dich gewarnt, dass die Frage abwegig ist, ich spreche von NS-Lernalgorithmen.
Dann verstehe ich es wirklich nicht. Das Netz, das ich vorschlage, besteht aus zwei Modulen: einem Datenkonvertierungsmodul mit mehreren Filterschichten und einem Klassifizierungsmodul. Die Filter im ersten Modul werden ohne Lehrer einmalig auf die gesamte Historie trainiert und bleiben für alle nachfolgenden Anwendungen des Netzes gespeichert. Sobald die Filter trainiert sind, bringen wir dem zweiten Modul den Lehrer bei, d.h. die Eingabe des ersten Moduls enthält ein Kursmuster und die Ausgabe des zweiten Moduls enthält bekannte Signale Kaufen (+1), Verkaufen (-1), Halten (0). Das zweite Modul kann jedes uns bekannte neuronale Netz sein, z. B. Feed-Forward Network (FFN oder MLP), Support Vector Machine (SVM), Radial Basis Function (RBF). Die Lernkurve dieses Moduls ist genauso lang wie ohne das erste Filtermodul. Wie ich bereits erklärt habe, ist das zweite Modul meiner Meinung nach nicht so wichtig wie das erste. Sie sollten die Zitate zunächst korrekt umwandeln (filtern), bevor Sie sie in das Netz einspeisen. Die einfachste Filtermethode ist МА. Es können auch andere Indikatoren verwendet werden, was die meisten Betreiber neuronaler Netze bereits tun. Ich schlage einen speziellen "Indikator" vor, der aus mehreren Filterschichten besteht, die biologischen Filtern für eine solche Umwandlung von Kursen ähneln, so dass am Ausgang dieses "Indikators" (dem ersten Modul meines Netzes) die gleichen, aber verzerrten Muster durch den gleichen Code beschrieben werden. Anschließend ist es möglich, diese Codes im zweiten Modul mit bekannten Methoden zu klassifizieren.
 
Нейрокомпьютерные системы | Учебный курс | НОУ ИНТУИТ
Нейрокомпьютерные системы | Учебный курс | НОУ ИНТУИТ
  • www.intuit.ru
Излагаются основы построения нейрокомпьютеров. Дается детальный обзор и описание важнейших методов обучения нейронных сетей различной структуры, а также задач, решаемых этими сетями. Рассмотрены вопросы реализации нейронных сетей.
Dateien:
Books.zip  14709 kb
 

gpwr:

Dann verstehe ich es wirklich nicht. Das von mir vorgeschlagene Netz besteht aus zwei Modulen: einem Datenkonvertierungsmodul mit mehreren Filterschichten und einem Klassifizierungsmodul. Die Filter im ersten Modul werden ohne Lehrer einmalig auf die gesamte Historie trainiert und bleiben für alle nachfolgenden Anwendungen des Netzes gespeichert. Sobald die Filter trainiert sind, bringen wir dem zweiten Modul den Lehrer bei, d. h. Kursmuster am Eingang und bekannte Kauf- (+1), Verkaufs- (-1), Halte- (0) Signale am Ausgang. Das zweite Modul kann jedes uns bekannte neuronale Netz sein, z. B. Feed-Forward Network (FFN oder MLP), Support Vector Machine (SVM), Radial Basis Function (RBF). Die Lernkurve dieses Moduls ist genauso lang wie ohne das erste Filtermodul. Wie ich bereits erklärt habe, ist das zweite Modul meiner Meinung nach nicht so wichtig wie das erste. Sie sollten die Zitate zunächst korrekt umwandeln (filtern), bevor Sie sie in das Netz einspeisen. Die einfachste Filtermethode ist МА. Es können auch andere Indikatoren verwendet werden, was die meisten Betreiber neuronaler Netze bereits tun. Ich schlage einen speziellen "Indikator" vor, der aus mehreren Filterschichten besteht, die biologischen Filtern für eine solche Umwandlung von Kursen ähneln, so dass am Ausgang dieses "Indikators" (dem ersten Modul meines Netzes) die gleichen, aber verzerrten Muster durch den gleichen Code beschrieben werden. Anschließend ist es möglich, diese Codes im zweiten Modul mit bekannten Methoden zu klassifizieren.

Wenn ich es richtig verstehe, sind die Filter selbst und ihr Training dem Preprocessing-Modul zuzuordnen.
 
Urain:
Wenn ich es richtig verstehe, sind die Filter selbst und ihr Training dem Preprocessing-Modul zuzuordnen.
Ja, das erste Modul, Selbstlernen einmal für das Leben.
 
Urain:
Alex, und wie haben Sie es geschafft, 14 Mio. Euro anzulegen? Haben Sie das Privileg eines Moderators oder haben Sie das Limit erhöht?
Hier steht 16M. Wahrscheinlich erhöht.
 
Hurra, in Vorlesung 15 geht es um die unscharfen logischen Netze, von denen ich eingangs sprach.
 

u - Aktivator-Eingang

y - zusätzlicher Leistungsfaktor.

//+------------------------------------------------------------------+
double sigma0(double u,double y=1.)// [0;1]
  {
   return(1./(1.+exp(-y*u)));
  }
//+------------------------------------------------------------------+
double sigma1(double u,double y=1.)// [-1;1] сдвинутый сигмоид
  {
   return((2./(1.+exp(-y*u)))-1.);
  }
//+------------------------------------------------------------------+
double func1(double u,double y=1.)// [-1;1]
  {
   return(y*u/sqrt(1.+y*y*u*u));
  }
//+------------------------------------------------------------------+
double func2(double u,double y=1.)// [-1;1]
  {
   return(sin(M_PI_2*y*u));
  }
//+------------------------------------------------------------------+
double func3(double u,double y=1.)// [-1;1]
  {
   return(2./M_PI*atan(y*u));
  }
//+------------------------------------------------------------------+
double func4(double u,double y=1.)// [-1;1]
  {
   return(y*u-y*y*y/3.*u*u*u);
  }
//+------------------------------------------------------------------+
double line0(double u,double y=1.)// [0;1] линейный активатор
  {
   double v=y*u;
   return((v>1.?1.:v<0.?0.:v));
  }
//+------------------------------------------------------------------+
double line1(double u,double y=1.)// [-1;1]
  {
   double v=y*u;
   return((v>1.?1.:v<-1.?-1.:v));
  }
//+------------------------------------------------------------------+
double Mline(double v)// [DBL_MIN;DBL_MAX]
  {
   return((v>DBL_MAX?DBL_MAX:v<DBL_MIN?DBL_MIN:v));
  }
//+------------------------------------------------------------------+