"New Neural" ist ein Open-Source-Projekt für neuronale Netzwerke für die MetaTrader 5-Plattform. - Seite 37

 
sergeev:

Meta EngiNeuro (MEN) (c)

wir sind Ingenieure :)

Das gefällt mir. :)
 
sergeev:

Meta EngiNeuro (MEN) (c)

wir sind also Ingenieure :)

Das ist Scheiße. Meta ist nicht mehr der Cathetus in einem solchen Namen...

EngiNeuro - das ist gut (Daumen hoch)

 
EngiNeuroSolution ?
 
Mischek:
EngiNeuroSolution ?
EngiNeSolution und SoluNeSolution sind nicht kompatibel, hier geht es im Wesentlichen um dasselbe
 
TheXpert:
Enjin und Solution überschneiden sich nicht, es ist im Wesentlichen das Gleiche hier
Verstanden
 
gpwr:

Vladimir Ich habe eine etwas abseitige Frage,

wie viele (ungefähre) Iterationen von Lerndurchgängen sind erforderlich, um die oben genannten Netze zu trainieren?

ZS mindestens um die Größenordnung.

 
Urain:

Wie viele (ungefähre) Iterationen von FF sind erforderlich, um die oben genannten Netze zu trainieren?

Was ist ein FF?
 
TheXpert:
Was ist FF?

Fitness-Funktion, ich habe es nicht richtig ausgedrückt, FF ist in GA, in Netzwerk-Lernalgorithmus ist es, wie viele Trainingsdurchgänge.

Wenn es keine Trainingsbeispiele (Input-Output) gibt, dann ist die Parallele zu GA FF einfach, sowohl dort als auch dort muss man eine direkte Berechnung des Gitters durchführen und dann möglicherweise ein Postprocessing machen, um den Wert durch die Handelsfunktion zu überprüfen.

 

Über das Logo. Das ist wie bei den Bällen - Knoten mit Verbindungen, aber ich finde das blöd. Wir könnten z. B. Rätsel nehmen, die Abkürzung entfernen, die Farben zu Metakvot's ändern, usw.

Wenigstens haben die Rätsel eine Art von Integration und Verbindung untereinander.

 
Urain:

Vladimir Ich habe eine etwas abseitige Frage,

wie viele (ungefähre) Iterationen von Lerndurchgängen sind erforderlich, um die oben genannten Netze zu trainieren?

ZS mindestens um die Größenordnung.

Die Filter werden ohne einen Lehrer trainiert, indem zufällig ausgewählte 10000-40000 Abschnitte der Geschichte (die gleiche Anzahl von Iterationen) präsentiert werden. Das Lernen geht sehr schnell. Je nach Computer dauert das Training von 10000 Filtern auf 20000 historischen Abschnitten 1-2 Minuten auf 360 GPU CUDA Prozessoren, etwa 1 Stunde auf 4 Intel Prozessoren mit 16 Spuren, 3-4 Stunden auf meinem Laptop mit einem Prozessor und zwei Spuren. Die Zeit spielt hier aber keine Rolle. Auch wenn ich für eine solche Filterschulung ein oder zwei Tage benötige, wird sie für jeden Kurs (EURUSD, USDJPY usw.) nur einmal durchgeführt. Sobald die Filter trainiert sind, ändern sie sich nicht mehr und werden zum Filtern neuer Preise verwendet. Die Filterung selbst ist sehr schnell - wir betrachten die Summe der Produkte aus Preis und Filterkoeffizienten.

Sie werden sich übrigens fragen, warum es so viele Filter gibt - 10 000? Ich habe Daten aus meinem eigenen Bilderkennungsprojekt zitiert. Für Angebote wird es viel weniger Filter geben, vielleicht 10-100, je weniger, desto besser. Hier ist eine grobe Analogie. Ein Zitat ist eine Rede. Filter sind die Phoneme, aus denen sich Wörter zusammensetzen. Es gibt 43 Phoneme im Russischen(https://ru.wikipedia.org/wiki/%D0%A4%D0%BE%D0%BD%D0%B5%D0%BC%D0%B0). Unsere Aufgabe ist es, ein Phonembuch zum Zitieren zu finden.

Фонема — Википедия
  • ru.wikipedia.org
Единицы языка Фоне́ма (др.-греч.  — «звук») — минимальная смыслоразличительная единица языка. Фонема не имеет самостоятельного лексического или грамматического значения, но служит для различения и отождествления значимых единиц языка (морфем и слов): при замене одной фонемы на другую получится другое слово (ом — ом); при изменении...