Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Vielleicht kann Renat sehen, was man daraus lernen kann. Es ist durchaus möglich, dass die neue Spezifikation auch in MQL5 eine bessere Leistung bringt, nicht wahr?
Was C#/C++ betrifft, so können wir es notfalls auch wegwerfen. Die Hauptsache ist, dass man die größtmögliche Leistung erzielt. ;)
Ich habe einige der Skripte in diesem Thread auf einem solchen Rechner getestet:
CPU-Z
CUDA-Z
Für jedes Skript gebe ich einen Link zu dem Beitrag an, in dem es veröffentlicht wurde, damit andere es schnell finden, die Tests durchführen und die Ergebnisse bei Bedarf vergleichen können.
Prüfung 1
Prüfung 2
Prüfung 3
Maßstab = 1000
CPU
GPU
Prüfung 4
Prüfung 5
Prüfung 6
Prüfung7
Prüfung 8
Ich habe auch versucht, den Indikatorqpu_EMA-Rainbow von MetaDriver zu testen.
Bei der CPU ist das Ergebnis manchmal bis zu 2x besser. Hier ist das Ergebnis:
//---
Volodya(MetaDriver), zeigen Sie mir Ihre Ergebnisse?
P.S. Ich habe meinen Typ im Kernel-Code in den Parametern der gpuEMA-Funktion von__global auf__local geändert. Ein wenig schneller, aber immer noch langsamer als bei der CPU.
Ich habe auch versucht, den Indikatorqpu_EMA-Rainbow von MetaDriver zu testen.
Bei der CPU ist das Ergebnis manchmal bis zu 2x besser. Hier ist das Ergebnis:
Volodya(MetaDriver), zeigen Sie mir Ihre Ergebnisse?
P.S. Ich habe im Kernel-Code die Parameter der gpuEMA-Funktion von__global auf__local geändert. Ein wenig schneller, aber immer noch langsamer als bei der CPU.
Ich habe ähnliche Ergebnisse. Das ist schon lange diskutiert worden, und es macht Sinn - die Aufgabe ist zu einfach, die Übertragung von Speicher zur und von der Grafikkarte lohnt sich nicht. Der Vorteil der GPU zeigt sich bei komplexeren Aufgaben.
Ein Beispiel für die Nutzung der GPU-Beschleunigung für den Handel (Derivate).
Mark Joshi - bekannt für seine Bücher über Finanzmathematik, insbesondere über Derivate und Optionshandel - hat hier über seine Arbeit berichtet:
http://ssrn.com/abstract=2388415
Er übertrug seine Arbeit im OOP-Stil auf die CUDA GPU. Er begann 2010 damit, machte dann eine Pause und schaffte es von 2011 bis Sommer 2014 bis zur Arbeitsversion 0.3. Es gelang ihm, eine Beschleunigung von 100X zu erreichen... 137-mal - und das bei einem CONNECTED-Algorithmus, der schwierig ist.
Für die Arbeit wurde die QuantLib-Bibliothek in C++ verwendet, die er nach eigenem Bekunden nach dem Motto "OOP ->-> prozeduraler Ansatz" überarbeiten musste, damit das Ganze auf der CUDA GPU funktioniert.
Er schreibt:
"Ich habe die Monte-Carlo-Bewertung von IRD mit dem LMM auf der GPU mit Least-Squares für frühe Übungsfunktionen implementiert.
Sie können den Code von kooderive.sourceforge.net sowohl in C++ als auch in CUDA erhalten. Das Papier ist unter ...... zu finden.
Ich habe für CUDA einen völlig anderen Code verwendet als zuvor für C++. Im Wesentlichen behandle ich Daten als zentrales Konzept und verwende den Code, um auf die Daten einzuwirken. Der Stil ist sehr funktionell. Es hat mich sehr viel Arbeit gekostet, weil meine früheren C++-Implementierungen objektorientiert waren.
Sein Projekt selbst ist quelloffen:
http://sourceforge.net/projects/kooderive/