"New Neural" ist ein Open-Source-Projekt für neuronale Netzwerke für die MetaTrader 5-Plattform. - Seite 37
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Meta EngiNeuro (MEN) (c)
wir sind Ingenieure :)
Meta EngiNeuro (MEN) (c)
wir sind also Ingenieure :)
Das ist Scheiße. Meta ist nicht mehr der Cathetus in einem solchen Namen...
EngiNeuro - das ist gut (Daumen hoch)
EngiNeuroSolution ?
Enjin und Solution überschneiden sich nicht, es ist im Wesentlichen das Gleiche hier
Vladimir Ich habe eine etwas abseitige Frage,
wie viele (ungefähre) Iterationen von Lerndurchgängen sind erforderlich, um die oben genannten Netze zu trainieren?
ZS mindestens um die Größenordnung.
Wie viele (ungefähre) Iterationen von FF sind erforderlich, um die oben genannten Netze zu trainieren?
Was ist FF?
Fitness-Funktion, ich habe es nicht richtig ausgedrückt, FF ist in GA, in Netzwerk-Lernalgorithmus ist es, wie viele Trainingsdurchgänge.
Wenn es keine Trainingsbeispiele (Input-Output) gibt, dann ist die Parallele zu GA FF einfach, sowohl dort als auch dort muss man eine direkte Berechnung des Gitters durchführen und dann möglicherweise ein Postprocessing machen, um den Wert durch die Handelsfunktion zu überprüfen.
Über das Logo. Das ist wie bei den Bällen - Knoten mit Verbindungen, aber ich finde das blöd. Wir könnten z. B. Rätsel nehmen, die Abkürzung entfernen, die Farben zu Metakvot's ändern, usw.
Wenigstens haben die Rätsel eine Art von Integration und Verbindung untereinander.
Vladimir Ich habe eine etwas abseitige Frage,
wie viele (ungefähre) Iterationen von Lerndurchgängen sind erforderlich, um die oben genannten Netze zu trainieren?
ZS mindestens um die Größenordnung.
Die Filter werden ohne einen Lehrer trainiert, indem zufällig ausgewählte 10000-40000 Abschnitte der Geschichte (die gleiche Anzahl von Iterationen) präsentiert werden. Das Lernen geht sehr schnell. Je nach Computer dauert das Training von 10000 Filtern auf 20000 historischen Abschnitten 1-2 Minuten auf 360 GPU CUDA Prozessoren, etwa 1 Stunde auf 4 Intel Prozessoren mit 16 Spuren, 3-4 Stunden auf meinem Laptop mit einem Prozessor und zwei Spuren. Die Zeit spielt hier aber keine Rolle. Auch wenn ich für eine solche Filterschulung ein oder zwei Tage benötige, wird sie für jeden Kurs (EURUSD, USDJPY usw.) nur einmal durchgeführt. Sobald die Filter trainiert sind, ändern sie sich nicht mehr und werden zum Filtern neuer Preise verwendet. Die Filterung selbst ist sehr schnell - wir betrachten die Summe der Produkte aus Preis und Filterkoeffizienten.
Sie werden sich übrigens fragen, warum es so viele Filter gibt - 10 000? Ich habe Daten aus meinem eigenen Bilderkennungsprojekt zitiert. Für Angebote wird es viel weniger Filter geben, vielleicht 10-100, je weniger, desto besser. Hier ist eine grobe Analogie. Ein Zitat ist eine Rede. Filter sind die Phoneme, aus denen sich Wörter zusammensetzen. Es gibt 43 Phoneme im Russischen(https://ru.wikipedia.org/wiki/%D0%A4%D0%BE%D0%BD%D0%B5%D0%BC%D0%B0). Unsere Aufgabe ist es, ein Phonembuch zum Zitieren zu finden.