Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 604
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Das war ein Scherz. Ohne das Geplänkel drehen Sie den Twist und sehen, wie er sich auswirkt.
Wenn die Eingaben für die Aufgabe ausreichend sind, kann man sie mit "1 Neuron" erledigen.
Im Zusammenhang mit mo, ideologisch korrekt bei toxic-a.
--------------
Professor über tiefe Netzwerke - youtu.be/qx3iM2aa2yU
31 min "Es gibt noch nicht viel Wissenschaft, aber viel Voodoo-Zauber"
Entwicklungsphasen, die sich durch ein hohes Veränderungstempo auszeichnen, werden speziell genannt: der Sprung.
Die Aktivierungsfunktion (Sigmoid, tanh und andere) ist ein Sprung, der durch die Einführung eines Grenzwertes für die Änderungsgeschwindigkeit modifiziert wird.
Wie lange wird es noch dauern, bis die "Suchenden" hier die Bedeutung dieser Tatsache erkennen...
es funktioniert nicht in Forex)
Entwicklungsphasen, die durch eine hohe Veränderungsrate gekennzeichnet sind, werden als Sprünge bezeichnet.
Die Aktivierungsfunktion (Sigmoid, tanh und andere) ist ein Sprung, der durch die Einführung eines Grenzwerts für die Änderungsrate modifiziert wird.
Wie lange wird es dauern, bis die "Suchenden" hier die Bedeutung dieser Tatsache begreifen...
Welchen Sinn hat es, etwas ohne tatsächliche Beweise für die Robustheit zu erklären?
ich bevorzuge solche aussagen: hier ist eine wachstumskurve für die hinterlegung (zumindest im test)... und ihr seid jetzt alle m...kikes azzaz... dann ja, keine fragen
Welchen Sinn hat es, sich etwas bewusst zu machen, ohne dass ein tatsächlicher Beweis für die Robustheit vorliegt?
Haben Sie verstanden, was Sie gerade gesagt haben...?
Wissen Sie, was Sie da sagen?...
Das tue ich.
Der Lernprozess kann eine Steilheitsoptimierung beinhalten, was ich auch getan habe, allerdings nur für Fuzzy-Logik. Die Steilheit kann einen großen Unterschied machen, ja.
Sie haben einen Link zu einem Artikel angegeben https://habrahabr.ru/post/322438/
Wenn ein Graph der Fehlerfunktion eines neuronalen Netzes wirklich so gezeichnet wird (er ist hier unter Tangenten zu finden):
Natürlich ist es möglich, etwas Ähnliches mit einem Sigmoid zu bauen, aber die Steilheit der einzelnen Abschnitte wird geringer sein.
Wenn das Sigma weniger steil ist, kann man wahrscheinlich dasselbe mit den Tangenten machen, man muss sie nur 3-5 Mal mehr nehmen. D.h. Erhöhung der Anzahl der Neuronen.
Wahrscheinlich hat Sigmoid mir weniger Fehler beschert, weil mir die Anzahl der Neuronen im Netz bei der Tangente fehlte.
Wer hat eine Meinung? Ist es am besten, den Handel zu studieren und dafür Geld zu bezahlen oder kostenlos? Und noch eine Frage: Lohnt es sich überhaupt, Geld für kostenpflichtige Kurse auszugeben?
Ich habe über den Artikel https://www.mql5.com/ru/articles/497 nachgedacht, in dem die Steilheit der Aktivierungsfunktion geändert wird, und bin zu dem Schluss gekommen, dass das Netz die richtige Steilheit von selbst findet:
Siehe die Formel:
Beim Training sollte das Netz die Multiplikatoren Wn aufgreifen. Wenn es für das Netz profitabler ist, die Summe *0,4 zu erreichen, dann wird es einfach alle Gewichte von Wn aufnehmen, von denen jedes bereits *0,4 ist. Das heißt, wir setzen einfach den Gesamtmultiplikator in Klammern, der wiederum durch den minimalen Fehler bestimmt wird.
Wenn jemand anderer Meinung ist, bitte korrigieren.
Ich habe über etwas nachgedacht... und kam zu dem Schluss, dass das Netz von selbst die richtige Steilheit findet:
Ganz genau. Der NS erhöht oder verringert alle Gewichte proportional um den richtigen Betrag (d. h. die Steilheit) und nimmt sogar den richtigen Offset auf.
Für die meisten Aufgaben spielt das aber keine Rolle.