Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2813

 
mytarmailS #:
Wenn ich einen Agenten für unrentable Geschäfte bestrafen will.
Das Ziel lautet: "Handeln Sie, was Sie wollen, aber keine Verlustgeschäfte, und seien Sie auf dem Markt".

Wie würden Sie das mit Tags beschreiben?
Eine Reihe von verlustfreien Markierungen in der Historie, oder? ) Markieren Sie sie
Bei Rl geht es darum, den optimalen Weg zu finden, wenn Sie so wollen, oder um Optimierung. Sie können das selbst oder durch ihn tun. Es geht nicht darum, irgendwelche super-duper Muster da draußen zu finden.

Lesen Sie Sutton, Barto, "Reinforcement Learning", es ist auf Russisch. Es geht von Primitiven zu allem anderen. Dann kommst du zum DQN

Dort finden Sie Analogien zur genetischen Optimierung und Programmierung, soweit ich mich erinnere.
 
Maxim Dmitrievsky #:
Agenten-Zustände oder Aktionen. Ich schlage vor, dass Sie ein paar Monate lang Bücher lesen, um zu verstehen, worüber Sie geschrieben haben, und zu denselben Schlussfolgerungen kommen) Ohne die Reaktion der Umwelt auf die Aktionen des Agenten gibt es nichts zu optimieren, das geschieht in einem Durchgang.

Es gibt Zustände der Umwelt, Zustände des Agenten, Matrizen von Übergängen (Politiken) des Agenten von Zustand zu Zustand unter Berücksichtigung von Veränderungen in der Umwelt. Ihre Umgebung ist statisch, sie ändert sich nicht durch die Aktionen des Agenten. Das heißt, Sie müssen nur die Matrix der Aktionen des Agenten in einer statischen Umgebung, d.h. die Ziele, definieren. Die Markierung der Ziele wird in einem Durchgang vorgenommen.
Es ist mir immer noch ein Rätsel, wie man den Zustand der Zeile manuell beschreiben kann. ))))))
 
Valeriy Yastremskiy #:
Ich bin immer noch nicht in der Lage, den Zustand der Zeile manuell zu beschreiben. ))))))
Vergeblich
 
Maxim Dmitrievsky #:
Vergeblich.
Das ist kein Argument, aber faszinierend)))))
 
Valeriy Yastremskiy #:
Das ist kein Argument, aber faszinierend)))))
Es gibt dort 2 Zustände - Verschiebung der Mittelwertinkremente nach oben oder unten
 
Keiner hat meinen Termin gesehen?
 
Valeriy Yastremskiy #:
Ich bin immer noch ratlos, wenn es darum geht, den Zustand einer Serie manuell zu beschreiben. ))))))

Vor kurzem bin ich auf ein Video gestoßen, in dem der Markov'sche Ansatz für Zustandsübergänge erklärt wird.
Ich sage nicht, dass diese Zustände verwendet werden sollten.
Es schien nur, dass man dieses Konzept auf alle Zustände anwenden kann, die man für notwendig hält.
Vielleicht bringt es dich auf andere Ideen.



Maxim, mach dich nicht wieder über mich lustig, weil ich ein Hindu bin ))
Ich habe noch keine anderen kennengelernt )

 
Roman #:

Kürzlich bin ich auf ein Video gestoßen, in dem der Markov'sche Ansatz für Zustandsübergänge erklärt wird.
Ich sage nicht, dass diese bestimmten Zustände verwendet werden sollten.
Es schien nur, dass man dieses Konzept auf alle Zustände anwenden kann, die man für geeignet hält.
Vielleicht bringt es Sie auf andere Ideen.



Maxim, mach dich nicht schon wieder darüber lustig, dass du ein Hindu bist ))
Ich bin auf keine anderen gekommen )

Sie können auch Artikel zur Segmentierung von Zeitreihen finden. Du kannst Clustering durch Clustering ersetzen. Es ist wahrscheinlich sinnvoll, verschiedene Modelle für jeden Zustand zu trainieren, da es unterschiedliche Merkmale gibt. Im Grunde handelt es sich um die Verschiebung von Mittelwertinkrementen, bei deren Änderung die Modelle zusammenbrechen.
 
Maxim Dmitrievsky #:
Sie kann zur Segmentierung verwendet werden. Sie können das Clustering ersetzen.
Das kann man nicht, es ist etwas anderes.

Hmm sagt voraus, in welchem Cluster Sie sich jetzt befinden, Clustering zeigt, in welchem Cluster Sie sich postfaktisch befanden.
Einfach ausgedrückt.
 
mytarmailS #:
Das kann man nicht, das ist anders.

Hmm sagt voraus, in welchem Cluster Sie sich jetzt befinden, Clustering zeigt, in welchem Cluster Sie waren, post factum.
Einfach ausgedrückt.
Und wenn Sie darüber nachdenken.