"New Neural" ist ein Open-Source-Projekt für neuronale Netzwerke für die MetaTrader 5-Plattform. - Seite 22
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Sie mit den Links auf einmal. Ich verstehe Sie nicht ganz. Oder ohne die Abkürzungen :) .
Und imho kann jedes Modellierungsnetz ein Klassifikator sein.
Wer hatte mit SLTM zu tun?
Hier wollte ich gerade fragen, ob alle Neuronen eine funktionierende Strichstruktur haben:
Jetzt sehe ich, dass nicht alle von ihnen, müssen wir dies berücksichtigen und eine Vielzahl von Algorithmen nicht nur durch Aktivator-Typ, sondern auch durch Neuron-Typ zu machen.
Sie versuchen zunächst, eine allgemeine oder fast allgemeine Meinung über die Anforderungen an einen Spezialisten zu formulieren
Sie versuchen zunächst, eine allgemeine oder fast allgemeine Meinung über die Anforderungen an einen Spezialisten zu formulieren
Vladimir gpwr ist mir persönlich sympathisch, vielleicht kommen noch ein paar andere hinzu, so dass noch keine Einladungen nötig sind.
Die andere Sache ist, dass die Leute an Dinge gewöhnt sind, die sich mit einem Stundentakt bewegen sollten, aber das ist OpenSourse, solche Projekte können viel länger dauern, weil die Leute arbeiten, wenn sie Zeit haben.
Wer hat mit SLTM zu tun?
Warum genau sind Sie daran interessiert?
Sie mit den Links auf einmal. Ich verstehe Sie nicht ganz. Oder ohne die Abkürzungen :) .
Und imho kann jedes Simulationsnetz ein Klassifikator sein.
SVM = Support-Vektor-Maschine
RBN = Radiales Basis-Netzwerk
Hier sind einige Links:
Т. Serre, "Robust Object Recognition with Cortex-Like Mechanisms", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE
Bell, A. J., Sejnowski, T. J. (1997).
Die unabhängigen Komponenten der natürlichen Szenen sind Kantenfilter.
Vis. Res., 37, 3327-3338, In.
Olshausen, B. A., Feld, D. J. (1996).
Entstehung von Eigenschaften des rezeptiven Feldes einfacher Zellen durch Lernen eines spärlichen Codes für natürliche Bilder.
Natur, 381(6583), 607-609.
http://www.gatsby.ucl.ac.uk/~ahrens/tnii/lewicki2002.pdf
Ich bin mit dem Prinzip überhaupt nicht vertraut. Es ist nicht die einzige, ich kann mehr Fragen stellen :)
Wiki sagt, dass zusätzlich zu den üblichen Schaltungen.
Das Neuron verwendet auch Eingänge Multiplikation, und Feedback-Signal (offenbar von Verzögerung), schwört auch, dass die wichtigsten BeckProP Methode oft stecken bleibt, wenn ein Fehler Zyklen in Rückkopplungen, so ist es wünschenswert, Hybride des Lernens mit GA zu machen. Die Aktivatoren befinden sich nur auf der ersten Schicht, dann ist alles linear, das erste Neuron (oder der Ausschuss, den ich nicht wirklich verstehe) wandelt die Eingaben um, die anderen spielen die Rolle von Filtern (lassen das Signal durch oder nicht).
Man kann es einen neuronalen Block nennen oder ein einzelnes Neuron, das eine komplexe Funktion weitergibt - je nachdem, wie man es betrachtet, wird ein Netzwerk aus solchen Blöcken aufgebaut.
Ich bin mit dem Prinzip überhaupt nicht vertraut. Sie ist nicht die Einzige, ich kann noch mehr Fragen stellen :)