Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1764
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
1) Ja, es handelt sich um ein normales ZZ. Vom Standpunkt der AMO aus macht es keinen Unterschied, welche Art von ZZ verwendet wird.
2) Ja, genau, AMO versucht, einen DF-Filter zu bauen, der wie alle Filter eine Zeitverzögerung hat, so dass die Mitte immer eine bessere Vorhersage hat als die Ränder
1. Möglicherweise gibt es Prädiktoren, die mit ZZ in Verbindung stehen. Wie definieren Sie die ZZ-Zeit? Ändert sich das Ergebnis, wenn Sie die Periode von ZZ ändern?
2. es ist also verständlich - der Trend wird eher anhalten als enden... Haben die Prädiktoren ein Gedächtnis für vergangene Werte?
3. Wie kann dies gehandelt werden, wenn der Pivotpunkt nicht bestimmt werden kann?
4. Sollten wir nur nach Punkten suchen, die Einkommen generieren können? Mein Ziel ist z.B. "der Zeichnungsbeginn des aktuellen Segments ZZ überschneidet sich mit dem Zeichnungsbeginn des nächsten Segments ZZ", d.h. die Entscheidung , in den Markt einzusteigen und die Klassifizierung wird auf dem nächsten Balken getroffen, nachdem der Vektor ZZ geändert wurde, wenn das Segment lang ist, dann überschneidet es sich normalerweise mit dem Einstiegspunkt - verwenden Sie Schleppnetz.
5. Sie benötigen ein Anleger-Passwort, von dem Sie die Angebote erhalten, um sie auch zu bekommen.Haben Sie etwas herausbekommen? Und die Frage ist, ob Sie es zurückbekommen und die Zeilen vergleichen, in denen die Kompression stattgefunden hat, gibt es eine große Veränderung?
Es stellt sich heraus, dass die Komprimierung von der Verteilung abhängt. Die Normalwerte wurden um den Faktor 5 und die Bereichsbalken um den Faktor 15 komprimiert. Wenn Preis und Zufall gleich verteilt sind, ist der Grad der Kompression fast gleich.
Es stellte sich heraus, dass die Kompression von der Verteilung abhing. Der Normalwert wird um den Faktor 5 und der Bereich Balken um den Faktor 15 komprimiert. Wenn Preis und Zufall die gleiche Verteilung haben, dann ist der Komprimierungsgrad fast der gleiche.
Ich verstehe es nicht, natürlich ist die Kompression größer,sie sind durch den Eröffnungspreis der Schließung normalisiert. Im Allgemeinen Flex und einfache Bild-und Ton-Kompression hat strenge Grenzen für den Arbeitsbereich, Farben sind bekannt, Ton von 20 bis 20 kHz. Und wir kodieren eine Wiederholung von Veränderungen. Was Sie in den Eingang des Archivierungsgeräts einspeisen und was es kodiert, wird komprimiert. Haben Sie es mit Zecken versucht?
Gut, Sie sollten entpacken und vergleichen, wo es Änderungen gab, wenn es zumindest ähnliche Teile sind, macht es Sinn.
Wenn man sich nicht an ForEx aufhängt... Die russischen Börsen (MOEX, FORTS) zum Beispiel geben mehr Informationen über die Kurse. Hierbei handelt es sich um eine Kennzahl für das Volumen der offenen Positionen, eine Tabelle mit allen Geschäften. Vor einem Jahr begann ich mich für "alle Geschäfte" zu interessieren. Es wurde ein Indikator erstellt, der alle Geschäfte als kumulativen Saldo anzeigt. So konnte ich interessante Dinge beobachten:
Häufig sind erhebliche Abweichungen zwischen Preis- und Saldoinkrementen bei allen Geschäften zu beobachten (was nicht logisch sein sollte). Man kann beobachten, wann es erhebliche Mengenbelastungen mit einem abflachenden Preis gibt. Als nächstes kommt die Rache der Gier! Da das Schließen von Kaufpositionen durch Verkaufsgeschäfte erfolgt, wird die Visualisierung nicht beeinträchtigt. Wichtig ist hier das Vorherrschen des offenen Interesses. Ich meine, dass solche zusätzlichen Informationen über NS-Einträge nicht stören würden... :)
Valeriy Yastremskiy:
Es ist eine gute Idee, die Dateien zu entpacken und zu vergleichen, wo die Änderungen stattgefunden haben; wenn es sich zumindest um ähnliche Abschnitte handelt, dann hat die Arbeit einen Sinn.
Keine Änderungen, 7z-Komprimierung, verlustfrei.
Keine Änderung, 7z-Komprimierung, verlustfrei.
Seltsam, wie groß sind die Daten, Kilobytes oder MB? Eindeutig komprimierbare Daten, aber seltsam. Bei Briefdateien natürlich zu 100 Prozent, aber Ton und Bild gehen meist verloren. Irgendwo gibt es ein Missverständnis. In der Eingabe übrigens einen der Balkenpreise oder alle 4 und die Uhrzeit? Dokumentation auf dem Archivierungsgerät, dort beginnt das Ende des komprimierten Abschnitts zu suchen.
Seltsam, wie groß sind die Daten, Kilobytes oder MB? Eindeutig komprimierbare Daten, aber seltsam. Bei Briefdateien natürlich zu 100 Prozent, aber Ton und Bild gehen meist verloren. Irgendwo gibt es ein Missverständnis. In der Eingabe übrigens einen der Balkenpreise oder alle 4 und die Uhrzeit? Dokumentation auf dem Archivierungsgerät, dort beginnt das Ende des komprimierten Abschnitts zu suchen.
Ich nehme Ticks, teile sie in Schritte von _Point, differenziere, erhalte die Sequenz +/-1, speichere sie als Short in Binärform und komprimiere sie in 7z. Für die Speicherung reicht 1 Bit aus, und ich verwende 2 Byte (kurz), daher die Komprimierung.
Für Renderings nehme ich Ticks, zerlege sie in Renderings mit _Point step, differenziere, erhalte die Sequenz +/-1, speichere sie als Short in Binärform und komprimiere sie in 7z. Für die Speicherung reicht 1 Bit, ich verwende 2 Byte (kurz), daher die Komprimierung.
Und wie bekommt man Serienmuster hier raus? Es werden die falschen Muster ausgepresst. Zu klein. Auch durch eine Dichotomie getrennt. Deshalb ist alles wieder verlustfrei. Und ohne Differenzierung erhalten Sie ein Archiv und ein komplettes Rückspiel? Das ist eigentlich eine Krücke. Wir müssen die Anfangs- und Endzeichen des Archivs herausfinden und die ausquetschbaren Abschnitte herausziehen. Der Vergleich zwischen der Originaldatei und der entpackten Datei ist nicht ganz korrekt.
Kein schlechter Artikel über Merkmalsextraktion
https://towardsdatascience.com/optimize-data-science-models-with-feature-engineering-cluster-analysis-metrics-development-and-4be15489667a