Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 428

 
Maxim Dmitrievsky:

Verstehe, ich glaube nicht, dass hier jemand in der Praxis verglichen hat :) Ich werde nach Informationen suchen, um mich nicht zu täuschen, wenn sich herausstellt, dass Diplerning keinen Vorteil gegenüber dem Gerüstbau bietet. Und da es sich bei dem Bauteil dort um eine MLP handelt, kann es durchaus sein, dass sie nicht...

Übrigens, alles, was mehr als 2 Schichten hat, nennt man diplerning, MLP mit 2 versteckten Schichten ist auch diplerning. Ich bezog mich auf tiefe Netze, die Vladimir in dem Artikel im obigen Link beschreibt.

VÖLLIG FALSCH. Woher haben Sie diese Informationen?

Man sagt zwar, dass Prädiktoren am wichtigsten sind, weil Modelle gleich funktionieren... aber das ist nur Theorie, in der Praxis stellt sich heraus, dass die Modellauswahl auch sehr wichtig ist, z. B. ein Kompromiss zwischen Geschwindigkeit und Qualität, weil NS tendenziell lang ist...

DNN Es ist sehr schnell, getestet.

Ich möchte eine direkte Verbindung zum P-Server vomMT5 oder eine direkte Verbindung zum P-Server vom MT5, aber eine direkte Verbindung ist besser. Sie brauchen 1 Mal, um mit C++ neuronales Netz, das Sie auf mql benötigen, umzuschreiben, und das ist alles.

Wie überprüfen Sie das? Das funktioniert bei mir.

Ah, ich vergaß, IMHO hinzuzufügen

IMHO aus der Praxis heraus

Viel Glück!

 
Vladimir Perervenko:

Deep Learning (auch Deep Structured Learning oder hierarchisches Lernen genannt) ist die Anwendung von künstlichen neuronalen Netzen (ANNs), die mehr als eine versteckte Schicht enthalten, auf Lernaufgaben. Deep Learning gehört zu einer breiteren Familie von Methoden des maschinellen Lernens, die auf dem Erlernen von Datendarstellungen basieren, im Gegensatz zu aufgabenspezifischen Algorithmen. Das Lernen kann überwacht, teilweise überwacht oder unbeaufsichtigt sein.


Was das Dipling mit Autoencodern angeht, ja, das geht schnell, aber ich bin noch nicht dazu gekommen, also gab es eine logische Frage - gibt es einen Vorteil gegenüber RF

p.s. Funktioniert es auch im Optimizer oder in einer Cloud?

https://en.wikipedia.org/wiki/Deep_learning

 
Maxim Dmitrievsky:

Deep Learning (auch Deep Structured Learning oder hierarchisches Lernen genannt) ist die Anwendung von künstlichen neuronalen Netzen (ANNs), die mehr als eine versteckte Schicht enthalten, auf Lernaufgaben. Deep Learning gehört zu einer breiteren Familie von Methoden des maschinellen Lernens, die auf dem Erlernen von Datendarstellungen basieren, im Gegensatz zu aufgabenspezifischen Algorithmen. Das Lernen kann überwacht, teilweise überwacht oder unbeaufsichtigt sein.


Über das Diplinking mit Autoencodern ja, schnell, aber ich bin noch nicht dazu gekommen, also war es eine logische Frage - gibt es irgendwelche Vorteile gegenüber RF

p.s. Fliegt es im Optimierer? Wie sieht es in der Cloud aus?

https://en.wikipedia.org/wiki/Deep_learning

1. Wo haben Sie diese Definition gefunden? Ist das Ihr Ernst? Ich werde Links zu seriösen Quellen finden, wenn ich Zeit habe.

2. Der Hauptvorteil von DNN mit Pre-Learning ist das Transfer-Lernen. Erheblich schneller, genauer und ... Verwenden Sie das Paket darch.

3. jede Optimierung muss in R durchgeführt werden. Schneller, transparenter und flexibler.

Viel Glück!

 
Vladimir Perervenko:

1. Wo haben Sie diese Definition gefunden? Ist das Ihr Ernst? Ich werde Links zu seriösen Quellen finden, wenn ich Zeit habe.

2. Der Hauptvorteil von DNN mit Pre-Learning ist das Transfer-Lernen. Erheblich schneller, genauer und ... Verwenden Sie das Paket darch.

3. jede Optimierung muss in R durchgeführt werden. Schneller, transparenter und flexibler.

Viel Glück!

Am Ende dieser Lektion werden Sie verstehen, wie ein einfaches Deep-Learning-Modell namens MLP (Multi-Layer Perceptron) funktioniert, und Sie werden lernen, wie Sie es in Keras erstellen können, um bei MNIST ein angemessenes Maß an Genauigkeit zu erzielen. In der nächsten Lektion werden wir die Methoden für komplexere Bildklassifizierungsprobleme (wie CIFAR-10) aufschlüsseln.
(Künstliche) Neuronen

Obwohl der Begriff "Deep Learning" in einem breiteren Sinne verstanden werden kann, wird er in den meisten Fällen auf dem Gebiet der(künstlichen) neuronalen Netze verwendet.


https://habrahabr.ru/company/wunderfund/blog/314242/

und hier


Vielleicht lügen sie alle, ich bin mir dessen nicht bewusst)

IMHO, natürlich.

Глубокое обучение для новичков: распознаем рукописные цифры
Глубокое обучение для новичков: распознаем рукописные цифры
  • habrahabr.ru
Представляем первую статью в серии, задуманной, чтобы помочь быстро разобраться в технологии глубокого обучения; мы будем двигаться от базовых принципов к нетривиальным особенностям с целью получить достойную производительность на двух наборах данных: MNIST (классификация рукописных цифр) и CIFAR-10 (классификация небольших изображений по...
 
Wozu sind Prädiktoren gut? Eine Zeitreihe ist ein Prädiktor͵ Nur der NS muss ein wenig tiefer gehen͵
(Vom Mobiltelefon)
 
Yuriy Asaulenko:
Wozu sind Prädiktoren gut? Eine Zeitreihe ist ein Prädiktor.
(Von einem Mobiltelefon)

Sie haben vergessen, das (c) zu schreiben :))
 
Maxim Dmitrievsky:

Ich habe vergessen, das (c) zu schreiben :))
Und wer wurde zitiert?)
 
Yuriy Asaulenko:
Wen haben Sie zitiert?)
Nun, er selbst. Eine Art Abzeichen der Autorenschaft )
 
Maxim Dmitrievsky:
Am Ende dieser Lektion werden Sie die Funktionsweise eines einfachen Deep-Learning-Modells, des mehrschichtigen Perzeptrons (MLP), verstehen und lernen, wie man es in Keras aufbaut, um eine angemessene Genauigkeit bei MNIST zu erreichen. In der nächsten Lektion werden wir die Methoden für komplexere Bildklassifizierungsaufgaben (wie CIFAR-10) aufschlüsseln.
(Künstliche) Neuronen

Obwohl der Begriff "Deep Learning" in einem breiteren Sinne verstanden werden kann, wird er meist im Bereich der (künstlichen) neuronalen Netze verwendet.


https://habrahabr.ru/company/wunderfund/blog/314242/

Und siehe da.


Vielleicht lügen sie alle, ich bin mir dessen nicht bewusst)

IMHO, natürlich.

Nein, das tun sie nicht. Nachfolgend eine Erklärung (aus einem Artikel, den ich nie zu Ende lesen werde :(

Einführung

Hauptbereiche der Forschung und Anwendungen

Gegenwärtig haben sich in der Forschung und Anwendung tiefer neuronaler Netze (wir sprechen nur von mehrschichtigen vollverknüpften neuronalen Netzen - MLP) zwei Hauptströmungen herausgebildet, die sich im Ansatz der anfänglichen Initialisierung der Neuronengewichte in den verborgenen Schichten unterscheiden.

Erstens: Es ist bekannt, dass neuronale Netze äußerst empfindlich auf die Art der anfänglichen Initialisierung der Neuronen in den versteckten Schichten reagieren, insbesondere wenn die Anzahl der versteckten Schichten größer als 3 ist. Der ursprüngliche Anstoß zu diesem Problem wurde von Professor G. Hynton gegeben. Die Idee war, dass die Gewichte der Neuronen in den verborgenen Schichten des neuronalen Netzes durch Gewichte initialisiert werden könnten, die aus dem unüberwachten Lernen automatischer assoziativer Netze, bestehend aus RBM (Constrained Boltzmann Machine) oder AE (Automatic Encoder), gewonnen wurden. Diese Stacked RBM (SRBM) und Stacked AE (SAE) Netze werden auf eine bestimmte Art und Weise auf einem großen unbeschrifteten Datensatz trainiert. Das Ziel dieses Trainings ist es, verborgene Strukturen (Repräsentationen, Bilder) und Abhängigkeiten in den Daten aufzudecken. Die Initialisierung der MLP-Neuronen mit den Gewichten, die beim Vortraining ermittelt wurden, bringt den MLP in den Lösungsraum, der dem optimalen am nächsten kommt. Dadurch ist es möglich, bei der anschließenden Feinabstimmung (Training) der MLPs eine geringere Menge an markierten Daten mit weniger Trainingsepochen zu verwenden. Für viele praktische Anwendungen (insbesondere bei der Verarbeitung von "Big Data") sind dies entscheidende Vorteile.

Zweitens: Eine Gruppe von Wissenschaftlern (Benjio et al.) hat ihre Hauptanstrengungen auf die Entwicklung und Erforschung spezifischer Methoden für die anfängliche Initialisierung versteckter Neuronen, spezieller Aktivierungsfunktionen, Stabilisierungs- und Lernmethoden gerichtet. Der Erfolg in dieser Richtung ist vor allem auf die rasche Entwicklung von tiefen Faltungsnetzen und rekurrenten neuronalen Netzen (DCNN, RNN) zurückzuführen, die erstaunliche Ergebnisse bei der Bilderkennung, der Textanalyse und -klassifizierung und der Übersetzung von Live-Sprache von einer Sprache in eine andere erzielt haben. Die für diese neuronalen Netze entwickelten Ideen und Methoden wurden mit gleichem Erfolg auf MLP angewendet.

Heute werden beide Richtungen in der Praxis aktiv genutzt. Vergleichende Experimente [ ] zwischen den beiden Ansätzen haben keine signifikanten Vorteile des einen gegenüber dem anderen ergeben, aber einen gibt es dennoch. Neuronale Netze mit Pre-Training benötigen viel weniger Beispiele für das Training und Rechenressourcen, liefern aber fast die gleichen Ergebnisse. Für einige Bereiche ist dies ein sehr wichtiger Vorteil.

Viel Glück!

 
Vladimir Perervenko:

Heute werden beide Ansätze in der Praxis aktiv genutzt. Vergleichende Experimente [ ] zwischen den beiden Ansätzen lassen keine signifikanten Vorteile des einen gegenüber dem anderen erkennen, aber es gibt einen Vorteil. Neuronale Netze mit Pre-Training benötigen bei fast gleichen Ergebnissen viel weniger Trainingsbeispiele und Rechenressourcen. Für einige Bereiche ist dies ein sehr wichtiger Vorteil.

Viel Glück!

In letzter Zeit habe ich mich wieder mit GARCH beschäftigt, mit dem ich schon vorher vertraut war. Was mich nach mehreren Jahren der Faszination für maschinelles Lernen sehr überrascht hat, ist die große Anzahl von Veröffentlichungen über die Anwendung von GARCH auf finanzielle Zeitreihen, einschließlich Währungen.


Haben Sie etwas Ähnliches für tiefe Netzwerke?