Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1045

 
Maxim Dmitrievsky:

Solange mich niemand antreibt, ist es sehr schwierig, sich in diese Richtung zu bewegen, ich handle im Moment nicht, ich beende das System, wenn ich in der Stimmung bin... weil ich da denken muss, und ich denke nicht gerne.

Ich stimme zu, ich habe das gleiche Problem. Ich habe mir überlegt, dass es etwas gibt, das man sehen (ich meine den Kontomonitor) oder hören kann, womit ich konfrontiert wurde.
 
mytarmailS:

Ja, es ist besser, sich ein Jahr lang mit der Theorie und der Implementierung verschiedener Transformationen zu beschäftigen, als 5 Minuten in Python oder R zu verbringen, um zu verstehen, dass dieser Mist nicht funktioniert, dass Logik das Stärkste ist, hör zu, warum entwickelst du nicht deine eigene Programmiersprache? warum brauchst du mql, c++ oder was auch immer du da sitzt...

Das Problem liegt hier nicht in der Theorie, sondern in der Art und Weise, wie man sie versteht, und in der richtigen Herangehensweise, um alles, was man während der Analyse gelernt hat, zu präsentieren.

Es kommt vor, dass jemand eine Herkulesarbeit beim Sammeln und Systematisieren von Daten leistet, diese aber nicht richtig anwendet.

 
Farkhat Guzairov:

Es kommt vor, dass jemand eine Herkulesarbeit beim Sammeln und Systematisieren von Daten leistet, sie aber nicht richtig anwendet.

Ich stimme zu, das kommt vor.

 
Eidechse_:

Du hast mir versprochen, dass du mir im Herbst Equi am Himmel zeigst und ein Trainingsvideo drehst)))

Wer hätte gedacht, dass mich der transatlantische, interkontinentale Riese !!!! in ein Netzwerk einbinden würde? Ich musste die gesamte Probezeit damit verbringen, mich einzuarbeiten und zu Fortbildungen zu fahren. Ich war sogar während der Meisterschaften in Kasan. Aber ich habe den Handel nicht aufgegeben, obwohl ich ihn meist samstags betrieben habe, und erst kürzlich habe ich aus Versehen einen Fehler gemacht und eine weitere Datenverbesserung erhalten. Eine Verbesserung bedeutet noch mehr Trennbarkeit. Abbildung 2 oben. Dies hat dazu geführt, dass der Optimierer Reshetov umtrainiert wurde, was für ihn prinzipiell nicht gut ist, da er grundsätzlich auf Unvollständigkeit gepolt ist, und hier eben umtrainiert wird. Die Analyse der Daten ergab doppelte Punkte in den Clusterregionen, was darauf hindeutet, dass die Vektoren identisch sind, d. h. Kopien voneinander sind, mit einem leichten Unterschied in den Zahlenschwänzen. Solche Datensätze führen zu Übertraining, wenn einer dieser Vektoren in die Trainings- und der andere in die Teststichprobe gelangt. In diesem Fall sollte einer der beiden Vektoren entfernt werden! Aber wenn man sich die Bedeutung der Eingabe ansieht, beginnt man sich über den hohen Grad an Unlogik von MO zu wundern. Denn ich sehe den Sinn einer solchen Eingabe nicht, aber es funktioniert SCUKO!


Ich habe irgendwie für mich selbst entschieden: Wenn Sie zufällig auf eine funktionierende Eingabe stoßen, brauchen Sie sie nicht zu verstehen, sondern nur zu benutzen und das war's..... Wenn Sie mich fragen: "Warum funktioniert es?", antworte ich: "Ich weiß es nicht" und nehme weiter Geld, egal was passiert :-)

 
Alexander_K:

Die Arbeit mag Narren :)))

Das bringt Sie zunächst einmal in eine Routine und Ordnung. Dann wird sich der Handel beruhigen.

 
Maxim Dmitrievsky:

Ausprobieren verschiedener Modelle (Prädiktoren), z. B. Erstellung mehrerer Modelle und Auswahl des besten Modells anhand verschiedener transformierter Eingangsdaten. Wie zum Beispiel Kontopasswörter. Wenn es kein a priori Wissen über das Thema und die Muster gibt.

Handgefertigt von Hand.

In dem englischsprachigen Wapnick-Video ging es um Folgendes

. Aber halten wir es einfach: Nehmen wir an, wir haben 10 Modelle für denselben Datensatz erstellt, ABER mit zufälliger Aufteilung in Trend und Test. Frage: Wie wählt man das Modell aus, das den ursprünglichen Datensatz am besten repräsentieren KÖNNTE? Dies ist eine grundlegende Frage, und ich bin gerade dabei, eine Theorie dazu zu entwickeln. Bis jetzt scheint alles in meiner Theorie logisch zu sein, aber sie ist nicht vollständig.

Um diese Frage zu lösen, muss ich die Metrik der Verallgemeinerbarkeit der resultierenden Modelle bestimmen. Ich habe hier einige Quellen gelesen, und es stellt sich heraus, dass es solche Metriken bereits gibt, aber sie alle überschätzen die Werte. Soweit ich weiß, gibt es keine einheitliche, wirksame Methode, um den Grad der Verallgemeinerung zu bestimmen. Dies ist ein grundlegendes Problem im Bereich der MO. Die Art und Weise, wie Reshetov das Problem löst, ist ebenfalls eine Metrik und im Moment die beste Lösung, wenn die Spezifität und Sensitivität des Modells berechnet werden, aber sie ist völlig falsch. Aber was ist das..... ist RIESIG!!!!! :-)

 

Ich hätte nicht gedacht, dass ich das vorschlagen würde, aber trotzdem...

Ich habe ein System (Indikator) auf der Grundlage eines neuronalen Netzes, das einige Ebenen baut erstellt, es funktioniert recht gut.

Die Philosophie des Indikators besteht darin, nach echten Überkauften/Überverkauften oder Zentimetern zu suchen.

Es gibt etwa 1-2 Signale pro Woche, wenn das Signal richtig identifiziert wird, funktioniert es mit einer Wahrscheinlichkeit von fast 100%.


Das Problem ist, dass ich kein MQL-Experte bin und der Indikator in R geschrieben ist (mit verschiedenen Bibliotheken), ich bin nicht in der Lage, MQL zu lernen.

Wenn es hier einen Entwickler gibt, der bereit ist, den Code in mql zu integrieren und ihn in mt4 zu visualisieren, bin ich bereit, zu diskutieren und in Zukunft zu helfen.

 
Mihail Marchukajtes:

. Aber halten wir es einfach: Nehmen wir an, wir haben 10 Modelle für denselben Datensatz erstellt, ABER mit zufälliger Aufteilung in Trend und Test. Frage: Wie wählt man das Modell aus, das den ursprünglichen Datensatz am besten repräsentieren KÖNNTE? Dies ist eine grundlegende Frage, und ich bin gerade dabei, eine Theorie dazu zu entwickeln. Bis jetzt scheint alles in meiner Theorie logisch zu sein, aber sie ist nicht vollständig.

Um diese Frage zu lösen, muss ich die Metrik der Verallgemeinerbarkeit der resultierenden Modelle bestimmen. Ich habe hier einige Quellen gelesen, und es stellt sich heraus, dass es solche Metriken bereits gibt, aber sie alle überschätzen die Werte. Soweit ich weiß, gibt es keine einheitliche, wirksame Methode, um den Grad der Verallgemeinerung zu bestimmen. Dies ist ein grundlegendes Problem im Bereich der MO. Die Art und Weise, wie Reshetov das Problem löst, ist ebenfalls eine Metrik und im Moment die beste Lösung, wenn die Spezifität und Sensitivität des Modells berechnet werden, aber sie ist völlig falsch. Aber was ist das..... ist RIESIG!!!!! :-)

10 ist ungefähr nichts, von 2000 Modellen. Die zufällige Partitionierung ist schon vorhanden, aber die Datensätze ändern sich auch. Ein Ultrabook mit 1 Kern ist in 15-20 Minuten fertig.

Übrigens, was jpedictor angeht - ich habe in der Version, die Sie mir gegeben haben, herumgestöbert und in UPOR keine Nuklearmaschine gesehen... ich wollte sie herausziehen, um zu sehen, wie sie funktioniert

wie kommt es, Genossen

Ich weiß nicht, was ich verwenden soll, außer Klassifizierungsfehler oder Logloss

 
mytarmailS:

Ich hätte nicht gedacht, dass ich das vorschlagen würde, aber trotzdem...

Ich habe ein System (Indikator) auf der Grundlage eines neuronalen Netzes, das einige Ebenen baut erstellt, es funktioniert recht gut.

Die Philosophie des Indikators besteht darin, einige echte überkaufte/überverkaufte oder zentimetergenaue Werte zu finden.

Es gibt etwa 1-2 Signale pro Woche, wenn das Signal richtig identifiziert wird, funktioniert es mit einer Wahrscheinlichkeit von fast 100%.


Das Problem ist, dass ich kein MQL-Experte bin und der Indikator in R geschrieben ist (mit verschiedenen Bibliotheken), ich bin nicht in der Lage, MQL zu lernen.

Wenn es einen Entwickler gibt, der bereit ist, den Code in mql zu integrieren und in mt4 zu visualisieren, bin ich bereit zu diskutieren und in Zukunft zu helfen.

Nein... ich habe hier keine :-(

 
Maxim Dmitrievsky:

10 ist nichts im Vergleich zu 2000 Modellen. Die zufällige Partitionierung ist schon vorhanden, aber die Datensätze ändern sich auch. Ein Ultrabook mit 1 Kern ist in 15-20 Minuten fertig.

Übrigens, was jpedictor angeht - ich habe in der Version, die Sie mir gegeben haben, herumgestöbert und in UPOR keine Nuklearmaschine gesehen... ich wollte sie herausziehen, um zu sehen, wie sie funktioniert

wie kommt es, Genossen

Ich weiß nicht, was ich verwenden soll, außer Klassifizierungsfehler oder Logloss

es ist zu 100 % da. Ich habe schon langsam damit begonnen, es für mich umzugestalten. Jetzt ist die Installation eines Modells in MKUL eine 5-Sekunden-Angelegenheit...