Dmitriy Gizlyk
Dmitriy Gizlyk
4.4 (49)
  • Information
10+ Jahre
Erfahrung
0
Produkte
0
Demoversionen
134
Jobs
0
Signale
0
Abonnenten
Professional writing programs of any complexity for MT4, MT5, C#.
Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 25): Praxis des Transfer-Learnings veröffentlicht
Neuronale Netze leicht gemacht (Teil 25): Praxis des Transfer-Learnings

In den letzten beiden Artikeln haben wir ein Tool zur Erstellung und Bearbeitung von Modellen neuronaler Netze entwickelt. Nun ist es an der Zeit, die Einsatzmöglichkeiten der Technologie des Transfer-Learnings anhand praktischer Beispiele zu bewerten.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 24): Verbesserung des Instruments für Transfer Learning veröffentlicht
Neuronale Netze leicht gemacht (Teil 24): Verbesserung des Instruments für Transfer Learning

Im vorigen Artikel haben wir ein Tool zum Erstellen und Bearbeiten der Architektur neuronaler Netze entwickelt. Heute werden wir die Arbeit an diesem Instrument fortsetzen. Wir werden versuchen, sie nutzerfreundlicher zu gestalten. Dies mag ein Schritt weg von unserem Thema sein. Aber ist es nicht so, dass ein gut organisierter Arbeitsplatz eine wichtige Rolle bei der Erreichung dieses Ziels spielt?

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 23): Aufbau eines Tools für Transfer Learning veröffentlicht
Neuronale Netze leicht gemacht (Teil 23): Aufbau eines Tools für Transfer Learning

In dieser Artikelserie haben wir bereits mehr als einmal über Transfer Learning berichtet. In diesem Artikel schlage ich vor, diese Lücke zu schließen und einen genaueren Blick auf Transfer Learning zu werfen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 22): Unüberwachtes Lernen von rekurrenten Modellen veröffentlicht
Neuronale Netze leicht gemacht (Teil 22): Unüberwachtes Lernen von rekurrenten Modellen

Wir untersuchen weiterhin Modelle und Algorithmen für unüberwachtes Lernen. Diesmal schlage ich vor, dass wir die Eigenschaften von AutoAutoencodern bei der Anwendung auf das Training rekurrenter Modelle diskutieren.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 21): Variierter Autoencoder (VAE) veröffentlicht
Neuronale Netze leicht gemacht (Teil 21): Variierter Autoencoder (VAE)

Im letzten Artikel haben wir uns mit dem Algorithmus des Autoencoders vertraut gemacht. Wie jeder andere Algorithmus hat auch dieser seine Vor- und Nachteile. In seiner ursprünglichen Implementierung wird der Autoencoder verwendet, um die Objekte so weit wie möglich von der Trainingsstichprobe zu trennen. Dieses Mal werden wir darüber sprechen, wie man mit einigen ihrer Nachteile umgehen kann.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 20): Autoencoder veröffentlicht
Neuronale Netze leicht gemacht (Teil 20): Autoencoder

Wir untersuchen weiterhin Modelle und Algorithmen für unüberwachtes Lernen. Einige Leser haben vielleicht Fragen zur Relevanz der jüngsten Veröffentlichungen zum Thema neuronale Netze. In diesem neuen Artikel befassen wir uns wieder mit neuronalen Netzen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 19): Assoziationsregeln mit MQL5 veröffentlicht
Neuronale Netze leicht gemacht (Teil 19): Assoziationsregeln mit MQL5

Wir fahren mit der Besprechung von Assoziationsregeln fort. Im vorigen Artikel haben wir den theoretischen Aspekt dieser Art von Problemen erörtert. In diesem Artikel werde ich die Implementierung der FP Growth-Methode mit MQL5 zeigen. Außerdem werden wir die implementierte Lösung anhand realer Daten testen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 18): Assoziationsregeln veröffentlicht
Neuronale Netze leicht gemacht (Teil 18): Assoziationsregeln

Als Fortsetzung dieser Artikelserie betrachten wir eine andere Art von Problemen innerhalb der Methoden des unüberwachten Lernens: die Ermittlung von Assoziationsregeln. Dieser Problemtyp wurde zuerst im Einzelhandel, insbesondere in Supermärkten, zur Analyse von Warenkörben eingesetzt. In diesem Artikel werden wir über die Anwendbarkeit solcher Algorithmen im Handel sprechen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 17): Reduzierung der Dimensionalität veröffentlicht
Neuronale Netze leicht gemacht (Teil 17): Reduzierung der Dimensionalität

In diesem Teil setzen wir die Diskussion über die Modelle der Künstlichen Intelligenz fort. Wir untersuchen vor allem Algorithmen für unüberwachtes Lernen. Wir haben bereits einen der Clustering-Algorithmen besprochen. In diesem Artikel stelle ich eine Variante zur Lösung von Problemen im Zusammenhang mit der Dimensionsreduktion vor.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 16): Praktische Anwendung des Clustering veröffentlicht
Neuronale Netze leicht gemacht (Teil 16): Praktische Anwendung des Clustering

Im vorigen Artikel haben wir eine Klasse für das Clustering von Daten erstellt. In diesem Artikel möchte ich Varianten für die mögliche Anwendung der gewonnenen Ergebnisse bei der Lösung praktischer Handelsaufgaben vorstellen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 15): Datenclustering mit MQL5 veröffentlicht
Neuronale Netze leicht gemacht (Teil 15): Datenclustering mit MQL5

Wir fahren fort mit der Betrachtung der Clustermethode. In diesem Artikel werden wir eine neue CKmeans-Klasse erstellen, um eine der gängigsten k-means-Clustermethoden zu implementieren. Während der Tests gelang es dem Modell, etwa 500 Muster zu erkennen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 14): Datenclustering veröffentlicht
Neuronale Netze leicht gemacht (Teil 14): Datenclustering

Es ist mehr als ein Jahr her, dass ich meinen letzten Artikel veröffentlicht habe. Das ist eine ganze Menge Zeit, um Ideen zu überarbeiten und neue Ansätze zu entwickeln. In dem neuen Artikel möchte ich von der bisher verwendeten Methode des überwachten Lernens abweichen. Diesmal werden wir uns mit Algorithmen des unüberwachten Lernens beschäftigen. Wir werden insbesondere einen der Clustering-Algorithmen - K-Means - betrachten.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netzwerke leicht gemacht (Teil 13): Batch-Normalisierung veröffentlicht
Neuronale Netzwerke leicht gemacht (Teil 13): Batch-Normalisierung

Im vorigen Artikel haben wir begonnen, Methoden zur Verbesserung der Trainingsqualität neuronaler Netze zu besprechen. In diesem Artikel setzen wir dieses Thema fort und betrachten einen weiteren Ansatz — die Batch-Normalisierung.

Dmitriy Gizlyk
Hat eine Bewertung über den Kunden hinsichtlich des Auftrags Доработка робота МТ5 на основе индикатора с открытым кодом abgegeben
dma19
dma19 2021.06.11
hello dimitry. is it possible to submit a job request from you?
Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 12): Dropout veröffentlicht
Neuronale Netze leicht gemacht (Teil 12): Dropout

Als nächsten Schritt beim Studium von neuronalen Netzwerken schlage ich vor, die Methoden zur Erhöhung der Konvergenz beim Training von neuronalen Netzwerken zu besprechen. Es gibt mehrere solcher Methoden. In diesem Artikel werden wir uns einer von ihnen mit dem Namen Dropout zuwenden.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 11): Ein Blick auf GPT veröffentlicht
Neuronale Netze leicht gemacht (Teil 11): Ein Blick auf GPT

Eines der fortschrittlichsten Modelle unter den derzeit existierenden neuronalen Netzen für Sprachen ist vielleicht GPT-3, dessen maximale Variante 175 Milliarden Parameter enthält. Natürlich werden wir ein solches Ungetüm nicht auf unseren Heim-PCs erstellen. Wir können uns jedoch ansehen, welche architektonischen Lösungen bei unserer Arbeit verwendet werden können und wie wir von ihnen profitieren können.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 10): Multi-Head Attention veröffentlicht
Neuronale Netze leicht gemacht (Teil 10): Multi-Head Attention

Wir haben zuvor den Mechanismus der Self-Attention (Selbstaufmerksamkeit) in neuronalen Netzen besprochen. In der Praxis verwenden moderne neuronale Netzwerkarchitekturen mehrere parallele Self-Attention-Threads, um verschiedene Abhängigkeiten zwischen den Elementen einer Sequenz zu finden. Betrachten wir die Implementierung eines solchen Ansatzes und bewerten seine Auswirkungen auf die Gesamtleistung des Netzwerks.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 9): Dokumentation der Arbeit veröffentlicht
Neuronale Netze leicht gemacht (Teil 9): Dokumentation der Arbeit

Wir haben schon einen langen Weg hinter uns und der Code in unserer Bibliothek wird immer umfangreicher. Das macht es schwierig, den Überblick über alle Verbindungen und Abhängigkeiten zu behalten. Daher schlage ich vor, eine Dokumentation für den früher erstellten Code zu erstellen und diese mit jedem neuen Schritt zu aktualisieren. Eine gut vorbereitete Dokumentation wird uns helfen, die Integrität unserer Arbeit zu erkennen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 8): Attention-Mechanismen veröffentlicht
Neuronale Netze leicht gemacht (Teil 8): Attention-Mechanismen

In früheren Artikeln haben wir bereits verschiedene Möglichkeiten zur Organisation neuronaler Netze getestet. Wir haben auch Convolutional Networks (Faltungsnetze) besprochen, die aus Bildverarbeitungsalgorithmen entlehnt sind. In diesem Artikel schlage ich vor, sich den Attention-Mechanismen (Aufmerksamkeitsmechanismus) zuzuwenden, deren Erscheinen der Entwicklung von Sprachmodellen den Anstoß gab.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 7): Adaptive Optimierungsverfahren veröffentlicht
Neuronale Netze leicht gemacht (Teil 7): Adaptive Optimierungsverfahren

In früheren Artikeln haben wir den stochastischen Gradientenabstieg verwendet, um ein neuronales Netzwerk mit der gleichen Lernrate für alle Neuronen innerhalb des Netzwerks zu trainieren. In diesem Artikel schlage ich vor, sich mit adaptiven Lernmethoden zu beschäftigen, die eine Änderung der Lernrate für jedes Neuron ermöglichen. Wir werden auch die Vor- und Nachteile dieses Ansatzes betrachten.