Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1002

 
Alexander_K2:

Es besteht also die Meinung, dass die Folge der Renditen (SCHLIESSEN[i]-ÖFFNEN[i])-(SCHLIESSEN[i-1]-ÖFFNEN[i-1]) eine stationäre Reihe ist.

Ein retournee von einer Kerze ist (close-open)/open, es ist klar, die fuck es ist nicht ein sauberer Preis in NS zu setzen, die nächste retournee ist von der vorherigen (mit einem anderen Fenster) sehr schlecht vorhergesagt, nicht genug für einen Spread, aber anscheinend ist dies alles, was wir bekommen können

 
Alexander_K2:

Im Wesentlichen ist der Wert CLOSE[i]-OPEN[i] nichts anderes als die Summe der Inkremente.

Eine Folge solcher Werte sollte im Grenzfall zu einer Normalverteilung tendieren.

Nun, es gibt die Meinung, dass die Folge der Rückkehrer (CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1]) eine stationäre Reihe ist.

Hat jemand so etwas schon einmal am NS-Eingang ausprobiert und was waren die Ergebnisse???

Close[i] kann durch Open[i+1] ersetzt werden, in Forex ist dies in mehr als 90 % der Fälle der Fall. Es kann aber auch nur ein oder zwei Punkte Unterschied sein. Dann gibt es nur eine Zeitreihe in der Formel, das ist bequemer.

Eine solche Transformation wird im ARIMA-Modell verwendet. Und es dient wirklich dazu, die Stationarität zu erreichen, aber es gibt noch viel mehr Transformationen, es ist nicht die einzige Formel dort.

https://people.duke.edu/~rnau/411arim.htm

If d=2:  yt  =  (Yt - Yt-1) - (Yt-1 - Yt-2)  =  Yt - 2 Yt-1 + Yt-2
ARIMA ist inzwischen überholt, auf den Finanzmärkten ist es, wenn es etwas gibt, nicht mehr als die Bankzinsen für eine Einlage. GARCH ist den Artikeln zufolge viel besser, außerdem ist es ARIMA plus verschiedene Zusätze.
 
Alexander_K2:

Eine Folge solcher Werte sollte im Grenzfall zu einer Normalverteilung tendieren.

Ich habe keine Preise gesehen, die zu einer Normalverteilung tendieren. Ich hatte schon immer Gewinne, die wie Laplace aussahen, mit Koshi-Schwänzen.

 

Das war meine theoretische Überlegung.

In der Praxis haben die ersten Rückkehrer natürlich keinen Gauß, und niemand hat es je geschafft, ihn zu bekommen, und wird es auch nie schaffen, leider...

Ich sprach jedoch von der Abfolge (CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1]), d. h. eigentlich vonden zweiten Rückgaben.

Nun, ich habe diesen zweiten Rückgaben immer noch nicht viel Aufmerksamkeit geschenkt, und das hätte ich tun sollen.

 

Und Kolmogorow hat, wie ich sehe, im Allgemeinen besonders auf B(k)=M[x(t)*x(t-to)]=M[(SCHLIESSEN[i]-ÖFFNEN[i])*(SCHLIESSEN[i-to]-ÖFFNEN[i-to])] geachtet und sich geweigert, etwas vorherzusagen, wenn diese Funktion nicht ganz eindeutig war.

Vielleicht ist es sinnvoll, bestimmte Bedingungen an die Arbeit der NS zu stellen?

Sagen wir, wir überspringen unbeständige Teile von BP und erforschen z. B. zweite Renditen oder B(k)?

 

Hallo!

Liebe Gurus, haben Sie schon einen Superbot erstellt?

Ich würde es gerne in der Praxis ausprobieren.

 
Alexander_K2:

Und Kolmogorow hat im Allgemeinen, wie ich sehe, besonders auf B(k)=M[x(t)*x(t-to)]=M[(SCHLIESSEN[i]-ÖFFNEN[i])*(SCHLIESSEN[i-to]-ÖFFNEN[i-to])] geachtet und sich geweigert, irgendetwas vorherzusagen, wenn diese Funktion nicht ganz eindeutig war.

Vielleicht ist es sinnvoll, bestimmte Bedingungen an die Arbeit der NS zu stellen?

Zum Beispiel das Überspringen unbeständiger Teile von BP durch Erkundung von Second Returns oder B(k)?

Es gibt also eine Grenze: (Sigmas zum Quadrat).

Die Bestimmung dieser Grenze ist das erste der Probleme, die in dieser

Problem, das in diesem Papier gelöst werden soll.

Was das Interpolationsproblem betrifft, so betrachten wir nur die

der Fall der Auswertung von x(/) durch die Größen

-x{t + i)Jx{t + 2)1 ...,x(t + n),

x(t - l), x(t~2), ... , x(t - ha).

Für diesen Fall bezeichnen wir mit oj (ha) den minimalen Wert der mathematischen Erwartung

Erwartung

a2 = MI0-<?)%

wobei Q eine lineare Form ist:

Q = axx {t + i) + atx {t + 2)+ ... +apx {t + n) +

+ a-ix(t - l)-\-a-2%(t - 2)+ ... -\-a-nx(t - ha)

mit konstanten reellen Koeffizienten als.

Wenn ha zunimmt, nimmt der Wert von a2 (i) nicht zu. Daher gibt es

Grenze

l im a} (ha) = o? (5)

P~>o

Unser zweites Problem besteht darin, a] zu bestimmen. Die folgenden Vorschläge

Die Lösung der beiden oben formulierten Probleme wurde berichtet, ohne

Nachweis in meinem Vermerk (*) *. Sie stützt sich auf Begriffe, die sich auf

zur Spektraltheorie der stationären Zufallsprozesse.

Die Spektraltheorie der stationären Zufallsprozesse wurde

konstruiert von A. Я. Hinchin für den Fall der kontinuierlichen Änderung des Zeitarguments t (2 ) .

Argument t (2 ) .

Ich verstehe nicht, wollen Sie die Zuverlässigkeit der bereits getroffenen Vorhersage analytisch abschätzen oder überhaupt eine Vorhersage treffen? Auf den ersten beiden Seiten heißt es, dass es in dem Artikel um die Einschätzung der Zuverlässigkeit einer Prognose geht. Die Prognosen selbst sind inA.J. Hinchin zu finden.

Und Sie haben die grundlegende Aussage des Artikels nicht sorgfältig kopiert.

Nicht: B(k)=M[x(t)*x(t-bis)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-bis]-OPEN[i-bis])

A: B(j)=M[x(t)*x(t-to)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-to]-OPEN[i])

Außerdem halte ich es für korrekter:

Forum über Handel, automatisierte Handelssysteme und Teststrategien

Maschinelles Lernen im Handel: Theorie und Praxis (Trading and Beyond)

Dr. Trader, 2018.07.06 02:37

Close[i] kann durch Open[i+1] ersetzt werden, in Forex ist dies in mehr als 90 % der Fälle der Fall. Oder ein Unterschied von nur ein paar Pips. Dann gibt es nur eine Zeitreihe in der Formel, das ist bequemer.

Eine solche Transformation wird im ARIMA-Modell verwendet. Und sie dient dazu, Stationarität zu erreichen, aber es gibt noch viele weitere Transformationen, es ist nicht die einzige Formel.

https://people.duke.edu/~rnau/411arim.htm

If d=2:  yt  =  (Yt - Yt-1) - (Yt-1 - Yt-2)  =  Yt - 2 Yt-1 + Yt-2
ARIMA ist bereits überholt, auf den Finanzmärkten gibt es, wenn überhaupt, nicht mehr als Bankzinsen auf eine Einlage. GARCH ist den Artikeln zufolge viel besser, außerdem ist es ARIMA plus verschiedene Zusätze.

PS.

Ja, und danke für die Antwort auf meine Frage in meinem Beitrag: https://dxdy.ru/post1244134.html#p1244134

Рекуррентная формула для синуса : Дискуссионные темы (М) - Страница 7
  • dxdy.ru
В принципе, используется и рекуррентное вычисление через возвратное уравнение второго порядка, и через комплексную экспоненту. Первое менее расходно по ресурсам (умножение и два сложения и две ячейки памяти) по сравнению со вторым (два умножения, четыре сложения, две ячейки памяти при постоянной частоте), но накапливается погрешность быстрее...
 
Hallo, hier spricht Mischa, und wie ihr euch denken könnt, mache ich das von meinem Handy aus :-)
Ich weiß, ich denke, die Vorverarbeitung von Daten steht heute im Vordergrund. Natürlich ist der Optimierungsalgorithmus an sich wichtig, aber ein gutes Trainingsmuster ist nicht das Wichtigste. Sie haben den Optimierer von Reshetov gelobt und kritisiert, aber nebenbei bemerkt: Er liefert gute Modelle, wenn die Daten gut vorverarbeitet sind. Mit 10 Optimierungen wird in jedem Fall mindestens die Hälfte der Modelle funktionieren. Schließlich ist es in seinem Fall nicht so einfach umzusetzen. Und ich denke, JPrediction wird immer relevant sein. Dabei kommt es vor allem auf die richtige Vorverarbeitung der Daten an, und genau in diesem Bereich findet jetzt der Wettbewerb statt.
 
Wie ich bereits in einem anderen Thread sagte .... Ich arbeite gerade daran und habe bereits mindestens zwei Vorverarbeitungsschritte durchgeführt. Bei der ersten werden die unbrauchbaren Prädiktoren entfernt. Der zweite Punkt macht die Probe für die Ausbildung vorzeigbarer und ich möchte mich auf den zweiten Punkt konzentrieren.
Nach der Repräsentativitätsprüfung stieg die Qualität des Lernens für denselben Datensatz um 15 %. Das Hauptziel besteht darin, die Lernzeit zu verlängern, ohne die Lernqualität zu beeinträchtigen. Beispiel: Mit 25 Beispielen konnte ich von 80 Prozent Verallgemeinerbarkeit auf Ihre kommen. Durch die Bearbeitung der Repräsentativität an 40 Beispielen konnte ich 90 % der Modellqualität erhalten. Ich glaube, dass das beste Modell dasjenige ist, das mit einer längeren Stichprobe trainiert werden kann, ohne dass die Qualität des Trainings leidet.
 
Gramazeka1:
Hallo, hier spricht Misha, und wie ihr euch denken könnt, mache ich das von meinem Handy aus :-)
Ich weiß, ich denke, die Vorverarbeitung von Daten steht heute im Vordergrund. Natürlich ist der Optimierungsalgorithmus an sich wichtig, aber ein gutes Trainingsmuster ist nicht das Wichtigste. Sie haben den Optimierer von Reshetov gelobt und kritisiert, aber nebenbei bemerkt: Er liefert gute Modelle, wenn die Daten gut vorverarbeitet sind. Mit 10 Optimierungen wird in jedem Fall mindestens die Hälfte der Modelle funktionieren. Schließlich ist es in seinem Fall nicht so einfach umzusetzen. Und ich denke, JPrediction wird immer relevant sein. Hier geht es vor allem um die richtige Vorverarbeitung der Daten, und genau in diesem Bereich findet jetzt der Wettbewerb statt.

Hallo Misha!

Ja, es ist an der Zeit, alle Bemühungen um neuronale Netze und die geringen Hoffnungen, die sie in das Instrument selbst setzen, zu überdenken. Nichts hilft - weder Wälder noch Steppen - wenn die Eingangsdaten nicht aufbereitet sind.

Und ja - es gibt keinen Wettbewerb, es gibt ein Problem und es gibt eine allgemeine Verdummung.

Wenn Sie wissen, wie Sie die Daten aufbereiten können, machen Sie weiter. Die Menschheit wird es Ihnen danken.