Vergleich von zwei Kurstabellen mit nichtlinearen Verzerrungen auf der X-Achse - Seite 6
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Wie wird dieses Problem über DTW gelöst (Beispiel):
Insgesamt haben wir 50.000.000 Vergleiche mit dem DTW-Algorithmus durchgeführt, der eine Komplexität von O(N^2) hat. Das bedeutet, dass sehr grob geschätzt 5 * 10^11 (500 Milliarden) elementare Rechenoperationen durchgeführt wurden.
Jetzt ist ein neuer Balken da - wir haben wieder 500 Milliarden Berechnungen gemacht.
Wir haben uns entschlossen, es auf der Grundlage der Historie laufen zu lassen, beginnend mit dem letzten Element 200 000. Für einen Durchlauf werden 200.000 mal 500 Milliarden Berechnungen benötigt. Das sind insgesamt 10^17 Berechnungen.
Selbst wenn es eine knifflige Optimierung gibt, wird sie nicht mehr als zwei Größenordnungen einbringen. D.h. es müssen höchstens 10^15 Berechnungen durchgeführt werden.
Wie diese Aufgabe mittels DTW gelöst wird (Beispiel):
Wenn es Ihnen nichts ausmacht, zeigen Sie bitte die Lösung dieses Problems im Code, es ist nicht so sehr von praktischem Interesse, sondern eher von sportlichem Interesse.
Niemand, der bei klarem Verstand ist, würde einen Algorithmus implementieren, dessen Ergebnis einfach nicht warten kann.
Das gleiche Pearson QC wäre ebenfalls ungeeignet, ebenso wie DTW, da dessen Rechenaufwand ebenfalls O(N^2) ist. Es gibt jedoch eine bedeutende algorithmische Optimierung der Pearson QC-Berechnung mit der Komplexität O(N * log(N)), die es ermöglichen könnte, dieses Problem in einer angemessenen Zeit zu lösen. Die Implementierung dieses Algorithmus ist in Codebase veröffentlicht worden. Um das aufgeworfene Problem zu lösen, muss derselbe Algorithmus auf die Menge der ZigZag-transformierten ZVRs angewendet werden.
Niemand, der bei klarem Verstand ist, würde einen Algorithmus implementieren, dessen Ergebnis einfach nicht warten kann.
Das gleiche Pearson QC wäre ebenfalls ungeeignet, ebenso wie DTW, da dessen Rechenaufwand ebenfalls O(N^2) ist. Es gibt jedoch eine bedeutende algorithmische Optimierung der Pearson QC-Berechnung mit der Komplexität O(N * log(N)), die es ermöglichen könnte, dieses Problem in einer angemessenen Zeit zu lösen. Die Implementierung dieses Algorithmus ist in Codebase veröffentlicht worden. Um das aufgeworfene Problem zu lösen, muss derselbe Algorithmus auf die Menge der ZigZag-transformierten ZVRs angewendet werden.
Sie sollten zunächst das Problem, mit dem der Autor konfrontiert ist, und seine Antworten lesen.
Ich habe es versucht. Ich weiß auch nicht, wie man es benutzt. Die Ausgabe sollte entweder ein Transformationspfad oder transformierte Daten sein.
Die Ausgabe des Algorithmus ist eine "akkumulierte Kostenmatrix" (und nicht nur die in der Abbildung gezeigte lokale Abstandsmatrix), wobei die Methode den Wert der rechten unteren Zelle zurückgibt (konstruktionsbedingt ist dies das Maximum in der gesamten Matrix). Um den Weg zu finden, müssen wir uns nur von Zelle (n,m) zu Zelle (1,1) bewegen, wobei wir jedes Mal die Option mit dem niedrigsten Wert wählen:
OK, danke, das war ziemlich klar. Eine Frage noch: Müssen die Daten normalisiert oder neu geordnet werden, hat das Auswirkungen auf das Ergebnis?