"New Neural" ist ein Open-Source-Projekt für neuronale Netzwerke für die MetaTrader 5-Plattform. - Seite 38
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Die Filter werden ohne einen Lehrer trainiert, indem zufällig ausgewählte 10000-40000 Abschnitte der Geschichte (dieselbe Anzahl von Iterationen) vorgelegt werden. Das Lernen geht sehr schnell. Je nach Computer werden 10000 Filter auf 20000 Patches der Historie in 1-2 Minuten auf 360 GPU CUDA Prozessoren trainiert, etwa 1 Stunde auf 4 Intel Prozessoren mit 16 Spuren, 3-4 Stunden auf meinem Laptop mit einem Prozessor und zwei Spuren. Die Zeit spielt hier aber keine Rolle. Auch wenn ich für eine solche Filterschulung ein oder zwei Tage benötige, wird sie für jeden Kurs (EURUSD, USDJPY usw.) nur einmal durchgeführt. Sobald die Filter trainiert sind, ändern sie sich nicht mehr und werden zum Filtern neuer Preise verwendet. Die Filterung selbst ist sehr schnell - wir berechnen die Summe der Produkte aus Preis und Filterkoeffizienten.
Soweit ich mich erinnere, müssen wir jedes Segment mehrmals durchlaufen, damit das Netz als trainiert gilt,
Die Frage ist, wie oft müsste jedes Beispiel eingereicht werden?
Soweit ich mich erinnere, muss jeder Abschnitt mehrmals durchlaufen werden, damit das Netz als trainiert gilt,
Die Frage ist, wie oft muss jedes Beispiel eingereicht werden?
Sie müssen denselben Teil der Geschichte nicht mehrmals durchgehen. Und Sie müssen nicht jeden Teil der Geschichte mindestens einmal durchlaufen. Einige Abschnitte der Geschichte können weggelassen werden. Filter sammeln im Wesentlichen Zitatestatistiken von Stichproben.
Nein, du sprichst von Filtern, ich habe dich gewarnt, dass die Frage abwegig ist, ich spreche von NS-Lernalgorithmen.
Allgemeiner Kurs (von http://www.intuit.ru/department/expert/neuro/ müssen Sie sich dort anmelden, wenn Sie sich nicht anmelden wollen - Nic_Touch pas zdraste01 )
Vorlesungen http://www.softcraft.ru/neuro/ni/p00.shtml
Mapping-Beispiele http://www.statsoft.ru/home/products/version6/snn.htm
Bücher über Modelle und Trainingsmethoden
gpwr:
Dann verstehe ich es wirklich nicht. Das von mir vorgeschlagene Netz besteht aus zwei Modulen: einem Datenkonvertierungsmodul mit mehreren Filterschichten und einem Klassifizierungsmodul. Die Filter im ersten Modul werden ohne Lehrer einmalig auf die gesamte Historie trainiert und bleiben für alle nachfolgenden Anwendungen des Netzes gespeichert. Sobald die Filter trainiert sind, bringen wir dem zweiten Modul den Lehrer bei, d. h. Kursmuster am Eingang und bekannte Kauf- (+1), Verkaufs- (-1), Halte- (0) Signale am Ausgang. Das zweite Modul kann jedes uns bekannte neuronale Netz sein, z. B. Feed-Forward Network (FFN oder MLP), Support Vector Machine (SVM), Radial Basis Function (RBF). Die Lernkurve dieses Moduls ist genauso lang wie ohne das erste Filtermodul. Wie ich bereits erklärt habe, ist das zweite Modul meiner Meinung nach nicht so wichtig wie das erste. Sie sollten die Zitate zunächst korrekt umwandeln (filtern), bevor Sie sie in das Netz einspeisen. Die einfachste Filtermethode ist МА. Es können auch andere Indikatoren verwendet werden, was die meisten Betreiber neuronaler Netze bereits tun. Ich schlage einen speziellen "Indikator" vor, der aus mehreren Filterschichten besteht, die biologischen Filtern für eine solche Umwandlung von Kursen ähneln, so dass am Ausgang dieses "Indikators" (dem ersten Modul meines Netzes) die gleichen, aber verzerrten Muster durch den gleichen Code beschrieben werden. Anschließend ist es möglich, diese Codes im zweiten Modul mit bekannten Methoden zu klassifizieren.
Wenn ich es richtig verstehe, sind die Filter selbst und ihr Training dem Preprocessing-Modul zuzuordnen.
Alex, und wie haben Sie es geschafft, 14 Mio. Euro anzulegen? Haben Sie das Privileg eines Moderators oder haben Sie das Limit erhöht?
u - Aktivator-Eingang
y - zusätzlicher Leistungsfaktor.