Diskussion zum Artikel "Erstellung von Zeitreihenvorhersagen mit neuronalen LSTM-Netzen: Normalisierung des Preises und Tokenisierung der Zeit"

 

Neuer Artikel Erstellung von Zeitreihenvorhersagen mit neuronalen LSTM-Netzen: Normalisierung des Preises und Tokenisierung der Zeit :

In diesem Artikel wird eine einfache Strategie zur Normalisierung der Marktdaten anhand der täglichen Spanne und zum Training eines neuronalen Netzes zur Verbesserung der Marktprognosen beschrieben. Die entwickelten Modelle können in Verbindung mit einem bestehenden technischen Analysesystem oder auf eigenständiger Basis verwendet werden, um die allgemeine Marktrichtung vorherzusagen. Der in diesem Artikel skizzierte Rahmen kann von jedem technischen Analysten weiter verfeinert werden, um Modelle zu entwickeln, die sowohl für manuelle als auch für automatisierte Handelsstrategien geeignet sind.

Bei meiner Suche im Internet bin ich auf einige Artikel gestoßen, in denen die Verwendung von LSTMs für Zeitreihenvorhersagen beschrieben wird. Dabei stieß ich auf einen Blogbeitrag von Christopher Olah, colah's blog, mit dem Titel „Understanding LSTM Networks“. In seinem Blog erklärt Olah die Struktur und Funktion von LSTMs, vergleicht sie mit Standard-RNNs und diskutiert verschiedene LSTM-Varianten, z. B. solche mit Peephole-Verbindungen oder Gated Recurrent Units (GRUs). Abschließend unterstreicht Olah den bedeutenden Einfluss von LSTMs auf RNN-Anwendungen und weist auf künftige Fortschritte wie Aufmerksamkeitsmechanismen hin.

Im Wesentlichen haben herkömmliche neuronale Netze aufgrund ihres fehlenden Gedächtnisses Schwierigkeiten mit Aufgaben, die einen Kontext aus früheren Eingaben erfordern. RNNs lösen dieses Problem durch Schleifen, die es ermöglichen, dass Informationen bestehen bleiben, aber sie haben immer noch Schwierigkeiten mit langfristigen Abhängigkeiten. Zum Beispiel kann die Vorhersage des nächsten Wortes in einem Satz, dessen relevanter Kontext viele Wörter zurückliegt, für Standard-RNNs eine Herausforderung darstellen.  Long Short Term Memory (LSTM)-Netzwerke sind eine Art rekurrentes neuronales Netzwerk (RNN), mit dem sich langfristige Abhängigkeiten, die in RNNs fehlen, besser bewältigen lassen. 

LSTMs lösen dieses Problem, indem sie eine komplexere Architektur verwenden, die einen Zellzustand und drei Arten von Gattern (Eingabe, Vergessen und Ausgabe) umfasst, die den Informationsfluss regulieren. Dank dieser Konstruktion können sich LSTMs Informationen über lange Zeiträume hinweg merken, was sie für Aufgaben wie Sprachmodellierung, Spracherkennung und Bildunterschriftenerstellung sehr effektiv macht. Ich wollte herausfinden, ob LSTMs aufgrund ihrer natürlichen Fähigkeit, sich Informationen über längere Zeiträume zu merken, dazu beitragen können, das heutige Kursgeschehen auf der Grundlage früherer Kurse an Tagen mit ähnlichem Kursgeschehen vorherzusagen. Ich stieß auf einen weiteren hilfreichen Artikel von Adrian Tam mit dem klugen Titel „LSTM for Time Series Prediction in PyTorch“, der die Mathematik und die Programmieraspekte für mich anhand eines praktischen Beispiels entmystifizierte. Ich fühlte mich zuversichtlich genug, um die Herausforderung anzunehmen, sie bei dem Versuch anzuwenden, die künftige Kursentwicklung für ein bestimmtes Währungspaar vorherzusagen.

Autor: Shashank Rai