Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2278
![MQL5 - Sprache von Handelsstrategien, eingebaut ins Kundenterminal MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Soweit ich mich erinnere, hat TC eine Zeit lang gearbeitet und ist gestorben...
Filtration im üblichen Sinne (Assistenten, Filter usw.) ist immer eine Verzögerung, eine Verzögerung auf dem Markt ist ein Abfluss....
Sie sollten ein anderes Paradigma aufbauen (ohne Verzögerungen), Ebenen zum Beispiel...
Was hat eine Verzögerung damit zu tun? Es ist die gleiche Überarbeitung, was macht das für einen Unterschied?
Sie müssen zuerst nach einem Muster suchen
Worauf warten Sie noch?
#22497Ich habe diese Ideen, einen Wagen und einen Waggon, in der Warteschlange.
Die Datei enthält ein Beispiel für 2 Mikrofone, und es gibt eine weitere Idee, mehrere Währungen für den gleichen Zweck zu verwenden.
Ich muss mich auch mit der blinden Anpassung befassen.
Visualisierung der Verlustfunktion
Was hat eine Verzögerung damit zu tun? Es ist die gleiche Überarbeitung, was macht es für einen Unterschied, wie man sie unterrichtet?
Sie müssen nach einem Muster von furst suchen.
Was ist Überfütterung in einem Kardanring? Lesen Sie überhaupt, was ich sage?
Gibt es in dem Algorithmus etwas zum Komprimieren und Dekomprimieren der Graphen?
Was die Interpolation betrifft, so sehe ich mehrere. Welches ist für uns am besten geeignet? Und wer ist schneller?
Wir haben die Idee aufgegeben...
Wir haben etwas gefunden, um die Graphen zu komprimieren und zu dekomprimieren. Was kommt als Nächstes? Wie verwenden wir sie?
1) Erkennen Sie ein Dutzend komprimierte und unkomprimierte aktuelle Situationen? Was dann? Zu durchschnittlich? Schließlich sind vielleicht 50 % für den Kauf und 50 % für den Verkauf.
2) Gibt es eine Möglichkeit, dies in der Ausbildung zu nutzen? Die Größe des Arrays für das Training verringern?
Die Idee wurde aufgegeben...
es hat bei mir nicht funktioniert...
erweitert und x10 Mal eingegrenzt.
Müll
Es gibt einen anderen Weg... nicht gegen die Invarianz ankämpfen, sondern die Dimensionalität verkleinern
oder ignorieren Sie es einfach)
Lesen Sie überhaupt, was ich schreibe?
benutze dein Gehirn )
der Ansatz Ihres neuronalen Netzes, Zeiträume zu durchlaufen, ist eine einfache ÜberanpassungBei mir hat es nicht funktioniert...
erweitert - verengt auf das 10-fache
Müll
Es gibt einen anderen Weg... nicht gegen die Invarianz ankämpfen, sondern die Dimensionalität verkleinern
oder überspringen Sie es)
10 Mal ist zu viel.
Ich denke, Sie brauchen nicht mehr als 50 %. Versuchen Sie es zum Beispiel mit 1,1, 1,3, 1,5 mal.
Wenn Sie einen fertigen Code haben und nur den Multiplikator ändern müssen, überprüfen Sie diese Optionen
Bei mir hat es nicht funktioniert...
erweitert - verengt auf das 10-fache
Müll
Es gibt einen anderen Weg... nicht gegen die Invarianz ankämpfen, sondern die Dimensionalität verkleinern
oder ignorieren Sie es einfach)
schalten Sie Ihr Gehirn ein.)
der Ansatz Ihres neuronalen Netzes, MA-Perioden zu überschreiben, ist ein einfacher OverfitIch habe es nicht ausgeschaltet...
Das Netz steuert die Dauer des Winkens, die Zeitspanne reicht von 2 bis 500, glaube ich...
ein Zeitraum von2 bis 500 entspricht einer Verzögerungvon 2 bis 500
Ob das Netz überangepasst ist oder nicht, ist nicht der Punkt... Der Punkt ist, dass sie den Zeitraum und den Zeitraum == Verzögerung kontrolliert.
Haben Sie Schritt 1 versucht? Haben Sie z.B. bei der Vorhersage mehrere skalierte Varianten der aktuellen Situation in das Modell eingespeist?
ja
Ich interessiere mich sehr für diesen SPADE-Algorithmus, aber ich weiß noch nicht, wie ich ihn angehen soll, er schwirrt mir schon seit einem halben Jahr im Kopf herum...
Es ist nicht sehr offensichtlich, wie man Daten dafür vorverarbeitet, dasselbe gilt für das Ziel + es ist extrem ressourcenhungrig, es ist definitiv kein "Big-Data"-Algorithmus...
Aber es scheint mir, dass dies der beste Algorithmus für den Data-Mining-Markt ist.