Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1747

 
Mihail Marchukajtes:
Was zum Teufel ist das?

Was sollte das denn?) Ich bin froh, dass sie es zurückgebracht haben))))

 
Ich habe keine Möglichkeit, das mathematische Prinzip von NS zu verstehen.

Was ich verstanden habe:

1. eine Trainingsstichprobe - isolierte Datenblöcke, die modifizierte Repräsentationen einer semantischen Invariante enthalten.

2. Struktur von NS - Aufbau von aufeinanderfolgenden Schichten von "Neuronen", wobei die erste Schicht Daten annimmt (und über die dafür notwendige Anzahl von Neuronen verfügt), und andere Schichten für die Verallgemeinerung von Daten bestimmt sind, die in der ersten Schicht verarbeitet wurden, und sie zur Invariante bringen, die durch eine klare Programmlogik betrieben wird.

3. "Neuron" - eine Funktion, die nacheinander ein Fragment von Trainingsbeispieldaten aufnimmt, dieses Fragment in ein "Gewicht" umwandelt und es an die nächste Schicht weitergibt.

Mir ist nicht klar, wie eine nicht offensichtliche Invariante in den Daten durch mehrere Filterschichten mathematisch von der "Schale" befreit wird, wobei nicht die Daten selbst, sondern ihr "Gewicht" korrigiert werden.
 
Reg Konow:
Ich habe Schwierigkeiten, das mathematische Prinzip von NS zu verstehen.

Was ich verstanden habe:

1. Learning Sampling - isolierte Datenblöcke, die modifizierte Darstellungen einer semantischen Invariante enthalten.

2. Die Struktur des NS ist eine Anordnung aufeinanderfolgender Schichten von "Neuronen", wobei die erste Schicht Daten annimmt (und über die dafür erforderliche Anzahl von Neuronen verfügt) und andere Schichten für die Verallgemeinerung der in der ersten Schicht verarbeiteten Daten und deren Anpassung an die Invariante bestimmt sind, die durch eine klare Programmlogik gesteuert wird.

3. "Neuron" ist eine Funktion, die nacheinander ein Fragment von Trainingsdaten empfängt, dieses Fragment in ein "Gewicht" umwandelt und es an die nächste Schicht weitergibt.

Mir ist nicht klar, wie eine nicht offensichtliche Invariante in den Daten durch mehrere Filterschichten, die nicht die Daten selbst, sondern ihre "Gewichte" korrigieren, mathematisch von der "Schale" befreit wird.

Auf der Suche nach dem höchsten Hügel in den Wolken ist die Höhe hinter den Wolken nicht sichtbar. Geringe Häufigkeit Finden Sie den Beginn von Erhebungen und messen Sie in deren Nähe, wo es keine Erhebungen gibt, messen Sie nicht. Es ist möglich, den Beginn des Hochlandes zu erfassen und kleine Gebiete nicht zu erfassen. Eine Art intelligente Stichprobe. In jedem Fall handelt es sich aber um einen Algorithmus. In jedem Fall, voll Brute-Force mit einer sehr geringen Wahrscheinlichkeit nicht verlieren, um verschiedene Varianten, mit jeder Suchlogik, durch und durch, an beiden Enden zu starten, ist die Wahrscheinlichkeit, eine schnellere Suche mit der Logik des gesuchten höher als in der vollen sequentiellen.

 
Reg Konow:
Ich kann das mathematische Prinzip des NS nicht verstehen.

Sie versuchen nicht, es zu verstehen - Sie versuchen, es zu erfinden.

Um die mathematischen Grundlagen von NS zu verstehen, sollten Sie die Theorie von Kolmogorow, Arnold und Hecht-Nielson lesen.

 
Aleksey Nikolayev:

Sie versuchen nicht, es zu verstehen - Sie versuchen, es zu erfinden.

Um die mathematischen Grundlagen von NS zu verstehen, sollten Sie die Theorie von Kolmogorow, Arnold und Hecht-Nielson lesen.

Selten wird sie klar erklärt. Und nur wenige Menschen sind in der Lage, sie anhand von Formeln zu verstehen)))))

 
Aleksey Nikolayev:

Du versuchst nicht, es zu verstehen - du versuchst, es zu erfinden...

Bis zu einem gewissen Grad ist dies auch notwendig. Man kann nur etwas wirklich verstehen, das man selbst geschaffen hat. Ich versuche, die ursprüngliche Idee des NS-Konzepts zu reproduzieren.
 

durch Backpropagation des invarianten Definitionsfehlers und Suche nach einem lokalen oder globalen Extremwert der Neuronenfunktion durch Newtonsche oder quasi-newtonsche Optimierungsmethoden, wobei verschiedene Gradientenstufen eingestellt werden

Dies ist für Peter verständlicher

 
Valeriy Yastremskiy:

Suchen Sie den höchsten Hügel in den Wolken, der hinter den Wolken nicht sichtbar ist. Geringe Häufigkeit: Finden Sie den Beginn der Erhebungen und messen Sie in deren Nähe, wo es keine Erhebungen gibt, messen Sie nicht. Es ist möglich, den Beginn des Hochlandes zu vermessen und kleine Gebiete nicht zu vermessen. Eine Art intelligente Stichprobe. In jedem Fall handelt es sich aber um einen Algorithmus. In jedem Fall wird die vollständige Suche mit einer sehr geringen Wahrscheinlichkeit nicht auf verschiedene Varianten zu verlieren, mit einer Logik der Suche, durch und durch, an beiden Enden zu starten, ist die Wahrscheinlichkeit der Suche nach einer schnelleren Suche in der Suche mit der Logik des gewünschten höher als in voller sequenziellen.

ahahah)))

 
Valeriy Yastremskiy:

Suchen Sie den höchsten Hügel in den Wolken, der hinter den Wolken nicht sichtbar ist. Geringe Häufigkeit: Finden Sie den Beginn der Erhebungen und messen Sie in deren Nähe, wo es keine Erhebungen gibt, messen Sie nicht. Es ist möglich, den Beginn des Hochlandes zu erfassen und kleine Gebiete nicht zu erfassen. Eine Art intelligente Stichprobe. In jedem Fall handelt es sich aber um einen Algorithmus. In jedem Fall volle Suche mit einer sehr geringen Wahrscheinlichkeit nicht verlieren verschiedene Optionen, mit einer Logik der Suche, durch und durch, an beiden Enden zu starten, die Wahrscheinlichkeit, eine schnellere Suche in der Suche mit der Logik der gewünschten höher als in einer vollständigen sequentiellen.

Diese Erklärung eignet sich besser für GA, denke ich.))
 
Maxim Dmitrievsky:

durch Backpropagation des invarianten Definitionsfehlers und Suche nach einem lokalen oder globalen Extremwert der Neuronenfunktion durch Newtonsche oder quasi-newtonsche Optimierungsmethoden, wobei verschiedene Gradientenstufen eingestellt werden

Dies wird für Piotr deutlicher sein

Die Arbeit von NS ist also auf die eine oder andere Weise mit Optimierung verbunden?