Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 31
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Yuri, der erste Versuch mit deinen Daten:
Zwei verschiedene Sätze von Parameterwerten für das Training. Es ist bemerkenswert, dass die AUC bei der Kreuzvalidierung unter dem Sockel liegt.
Insgesamt ist eine Genauigkeit von 51,5 % bei dem Test das Beste, was bisher erreicht wurde.
Ich weiß nicht einmal, wie Sie auf 60 % kommen.
Wir sollten diesen Satz von Prädiktoren verwerfen.
Wenn wir dummerweise alle Schrittweiten und ein paar Oszillatoren mit mehr als 100 Prädiktoren mit mehr als 5000 Beobachtungen, d.h. H1, nehmen, können wir aus dieser Menge 10-15 Prädiktoren auswählen, die nicht nur weniger als 40% Vorhersagefehler ergeben, sondern vor allem kein REFERRED-Modell ergeben.
Wir sollten diesen Satz von Prädiktoren verwerfen.
Wenn wir dummerweise Inkremente von allem mit ein paar Oszillatoren über 100 Prädiktoren mit mehr als 5000 Beobachtungen, d. h. H1, nehmen, können wir aus einer solchen Menge 10-15 Prädiktoren auswählen, die nicht nur einen Vorhersagefehler von weniger als 40 % ergeben, sondern vor allem KEIN VERBESSERTES Modell liefern werden.
Im Allgemeinen habe ich nie eine bessere Klassifizierungsgenauigkeit als 51,5 % erreicht. Dementsprechend wird auch der Rest der Metriken dem Zufallsprinzip nahe kommen.
Das Verhältnis der Antworten im Test ist fast perfekt 50/50.
Juri, ich freue mich auf Ihre Enthüllungen.
Im Allgemeinen habe ich nie eine bessere Klassifizierungsgenauigkeit als 51,5 % erreicht. Dementsprechend wird auch der Rest der Metriken dem Zufallsprinzip nahe kommen.
Die Ausgewogenheit der Antworten im Test ist fast perfekt 50/50.
Yuri, ich warte auf deine Enthüllungen.
Ich habe nichts zu verbergen. Für die alte Version, deren Ergebnisse ich bereits oben angegeben habe, sind alle Informationen frei zugänglich:
Beschreibung der Methode zur Erstellung des binären Klassifikators: https://sites.google.com/site/libvmr/
Java-Quellcode mit Kommentaren: https://sourceforge.net/p/libvmr/code/HEAD/tree/trunk/
Baut: https://sourceforge.net/projects/libvmr/files/
Juri, danke.
Wenn die Menge linear trennbar ist, dann ist die Anzahl der potentiellen Trennebenen unendlich. In einem solchen Fall muss ein Kriterium für die Identifizierung einer geeigneten Hyperebene gefunden werden. Ein solches Kriterium wurde für die Methode der Referenzvektoren in dem Buch: Vapnik V. N., Chervonenkis A. Y. The theory of pattern recognition formuliert. Moskau: Nauka, 1974. Genauer gesagt, werden in diesem Buch viele verschiedene Kriterien berücksichtigt.
Sowohl SVM als auch VMR sind Referenzvektorverfahren.
Welche Methode besser oder schlechter ist, darüber kann man lange streiten. Aber man kann die Verallgemeinerbarkeit nehmen und prüfen, und dann wird sich alles fügen.
Wenn die Menge linear trennbar ist, dann ist die Anzahl der potentiellen Trennebenen unendlich. In einem solchen Fall ist es notwendig, ein Kriterium für die Identifizierung einer geeigneten Hyperebene zu finden. Ein solches Kriterium wurde für die Methode der Referenzvektoren in dem Buch: Vapnik V. N., Chervonenkis A. Y. The theory of pattern recognition formuliert. Moskau: Nauka, 1974. Genauer gesagt, werden in diesem Buch viele verschiedene Kriterien berücksichtigt.
Sowohl SVM als auch VMR sind Referenzvektorverfahren.
Welche Methode besser oder schlechter ist, darüber kann man lange streiten. Es ist jedoch möglich, die Verallgemeinerungsfähigkeit zu nehmen und zu überprüfen, und dann wird alles auf den Plätzen stehen.
Probleme sollten gelöst werden, wenn sie auftauchen, und das Pferd von hinten aufzuzäumen (Modell) ist eine absolut sinnlose Übung. Dies gilt umso mehr für den Vergleich von Wagen, von denen man nicht weiß, was an ihnen angeschnallt ist und ob sie überhaupt angeschnallt sind.
Vor der Anwendung von Modellen jeglicher Art muss die Liste der Prädiktoren von Rauschen befreit werden, so dass nur Prädiktoren übrig bleiben, die für die Zielvariable "relevant" sind. Andernfalls kann man leicht dazu verleiten, Modelle auf der Grundlage der Saturnringe, des Kaffeesatzes und anderer Vorhersagefaktoren zu erstellen, die in der Praxis seit mehreren hundert Jahren weit verbreitet sind.
Dr. Trader hat oben versucht, das Rauschen aus seinem Satz von Prädiktoren zu entfernen.
Das Ergebnis ist negativ.
Ich denke, der Grund für das negative Ergebnis ist die geringe Anzahl von Beobachtungen mit einer sehr großen Anzahl von Prädiktoren. Aber das ist die Richtung, die man einschlagen muss, bevor man IRGENDEINE Modelle anwendet.
Wenn die Menge linear trennbar ist, dann ist die Anzahl der potentiellen Trennebenen unendlich. In einem solchen Fall ist es notwendig, ein Kriterium für die Identifizierung einer geeigneten Hyperebene zu finden. Ein solches Kriterium ist für die Methode der Referenzvektoren in dem Buch: Vapnik V. N., Chervonenkis A. Y. The theory of pattern recognition formuliert worden. Moskau: Nauka, 1974. Genauer gesagt, werden in diesem Buch viele verschiedene Kriterien berücksichtigt.
Sowohl SVM als auch VMR sind Referenzvektorverfahren.
Welche Methode besser oder schlechter ist, darüber kann man lange streiten. Es ist jedoch möglich, die Verallgemeinerungsfähigkeit zu nehmen und zu überprüfen, und dann wird alles auf den Plätzen stehen.
R hat alles, was Sie brauchen. Siehe fTrading::sharpeRatio.
Oh, und ein Blick auf PerformanceAnalitics kann auch nicht schaden.
Viel Glück!