Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1748

 
Rehtag Konow:
Die Arbeit der NS ist also irgendwie mit der Optimierung verbunden?

Ja, bei der Optimierung von fs (Neuronen). Es gibt einfach viele davon und sie können auf unterschiedliche Weise miteinander verbunden werden

 
Maxim Dmitrievsky:

ahahaha ))))

Natürlich ist es unhöflich, an manchen Orten sogar falsch, aber nur an manchen Orten. Und deutlicher. Jede Optimierung der Extremsuche erfordert eine vollständige Suche nach dem längsten))))) Der GSF ist eine Überlagerung eines ungebundenen niederfrequenten Prozesses mit einem viel höherfrequenten, die Suchoptimierung ist eine logische Ausdünnung der Suche. Alles andere ist für mich leichter zu verstehen.

 
Regex Konow:
Bis zu einem gewissen Grad ist sie obligatorisch. Man kann nur wirklich verstehen, was man selbst geschaffen hat. Ich versuche, die ursprüngliche Idee hinter dem Konzept von NS wiederzugeben.

Das Konzept ist recht einfach: Jede mehrdimensionale Funktion kann durch eine Komposition von eindimensionalen Funktionen angenähert werden. Ich hoffe, Sie haben den Begriff "Funktion" bereits erfunden.)

 
Aleksey Nikolayev:

Das Konzept ist recht einfach: Jede mehrdimensionale Funktion kann durch eine Komposition von eindimensionalen Funktionen angenähert werden. Ich hoffe, Sie haben den Begriff "Funktion" bereits erfunden.)

Ich habe keine separate Definition des Begriffs "multivariate Funktion" gefunden. Es gibt eine "Verteilungsfunktion" der Wahrscheinlichkeitstheorie, und darin wird eine Art "multivariate Verteilungsfunktion" betrachtet, aber es wird kein Wort über die MO-Technologie verloren.

Es liegt auf der Hand, dass mehrdimensionale Funktionen, wenn sie überhaupt etwas mit dem NS zu tun haben, weit von seinem Wesen entfernt sind. Wahrscheinlich hat es etwas mit der Umsetzung einiger technischer Feinheiten zu tun. Ich versuche, das Wesentliche zu verstehen.
 
Aleksey Nikolayev:

Das Konzept ist recht einfach: Jede mehrdimensionale Funktion kann durch eine Komposition von eindimensionalen Funktionen angenähert werden. Ich hoffe, Sie haben den Begriff "Funktion" bereits erfunden.)

Zersetzung durch minus ein Argument auf eindimensional ist in der Regel verständlich, aber wie einfach zu erklären, wie in dieser Zusammensetzung der eindimensionalen zu finden Extrema schneller als volle Suche.

 
Hier noch ein weiterer Gedanke, um Ihr Verständnis zu erweitern:

Die Umwandlung einer Dateneinheit innerhalb der Funktionen (Neuronen) in ein "Gewicht" soll diese vereinheitlichen und die Anwendung des Netzes universalisieren.
 
Ich glaube, ihr hängt euch an den Mechanismen auf, mit denen beim Training eines Netzes optimale Werte gefunden werden, aber das Training ist nicht das Wesentliche des Geräts, es ist Teil des Prozesses.
 
Tag Konow:
Hier noch ein weiterer Gedanke, um Ihr Verständnis zu erweitern:

Die Umwandlung einer Dateneinheit innerhalb der Funktionen (Neuronen) in ein "Gewicht" soll diese vereinheitlichen und die Anwendung des Netzes universalisieren.

ein Erklärungsvideo aufnehmen, es ist so unklar

 
Maxim Dmitrievsky:

Nehmen Sie ein Video mit Erklärungen auf, es ist so unklar

Es ist noch zu früh, ich verstehe noch nicht viel.
 
Reg Konow:
Ich habe keine unabhängige Definition der "mehrdimensionalen Funktion" gefunden. Es gibt eine "Verteilungsfunktion" der Wahrscheinlichkeitstheorie, und darin wird eine Art "multivariate Verteilungsfunktion" betrachtet, aber es gibt keine Erwähnung der MO-Technologie.

Es liegt auf der Hand, dass mehrdimensionale Funktionen, wenn sie überhaupt etwas mit dem NS zu tun haben, weit von seinem Wesen entfernt sind. Wahrscheinlich hat es mit der Umsetzung einiger technischer Feinheiten zu tun. Ich hingegen versuche, das Wesentliche zu verstehen.

Eine mehrdimensionale Funktion ist eine übliche mathematische Funktion, deren Definitionsbereich ein mehrdimensionaler Raum ist. Im Falle von NS ist dies der Merkmalsraum.

Ich möchte Sie als Mathematikerin fragen: Haben Sie in der Schule Mathematik studiert?)