Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1271

 
Dabei kam mir der Gedanke, dass eine Normalverteilung nur bei abgeschlossenen Prozessen zu erwarten ist (nur ein Gedanke - ich habe es nicht überprüft), und dass der Markt dies nicht ist, so dass alle Annahmen über seine ungleichmäßige Verteilung und Nicht-Stationarität nur Vermutungen sind, die nicht getestet werden können, solange der Markt existiert.
 
Maxim Dmitrievsky:

Für den Markt wird es auf genau dieselbe Weise geschult, denn die Technologie ist dieselbe. Vergessen Sie den "Einfluss", er wird nicht ausdrücklich so gelehrt, wie Sie es sich vorstellen. Es gibt Strategiesätze, optimale Strategien usw. (im RL werden sie Policen genannt).

Wenn wir einen Bot-Schöpfer hätten, könnten wir ihm eine Reihe von Fragen stellen und wären von den Antworten sehr überrascht. Alle diese RLs sind gut darin, stationäre Umwelteinflüsse zu lernen, aber wenn man gegen einen anderen Spieler spielt, dann funktioniert das nackte RL hier nicht. Ich habe diesen Bereich nicht eingehend studiert, vielleicht irre ich mich. Aber es gibt eine klare Interaktion mit sich verändernden Umwelt, können Sie nicht von Bots Verhalten gibt es keine Erwartung von etwas, können Sie überhaupt nicht sehen, gibt es eine Kontrolle der Wahrscheinlichkeit der Beschädigung sowohl Sie als auch Ihr Gegner, und es gibt Fehleinschätzungen einfach und handeln in Richtung weniger Möglichkeit der negativen Ergebnis, aber es ist nicht die Wahrscheinlichkeit, die von der Politik zu Beginn des Spiels angegeben wird - es ist ein Einfluss auf sich verändernde Umwelt.

 
Ich habe euch Jungs gelesen. Nach ein paar Beiträgen habe ich festgestellt, dass die Theorie immer weiter geht. Aber Sie werden überrascht sein, wenn Sie anfangen zu üben. Die Entwicklung von Modellen und die Suche nach neuen Lösungen ist nichts im Vergleich zum realen Handel, bei dem man alles einrichtet, in Betrieb nimmt und auf...... Dann erscheint das erste Signal und der Roboter eröffnet einen Handel. Aber das Schlimmste ist, wenn Sie das Ergebnis dieses Handels und seine (Roboter-) Entscheidung analysieren. Es wird weiterhin Geld verdienen, oder es ist an der Zeit, es zu ändern. Meiner Erfahrung nach macht er nach der Optimierung in der Regel ein oder drei Verlustgeschäfte und beginnt dann zu steigen. Und in solchen Momenten fangen auch Sie an, sich aufzuregen und zu kontrollieren. Sie wird steigen oder nicht. Das bedeutet, dass Sie im realen Handel mit Problemen konfrontiert werden, an die Sie bei der Suche und Optimierung nicht gedacht haben. Je früher Sie also mit dem Üben beginnen, desto schneller werden Sie mit den Problemen eines praktizierenden Händlers konfrontiert. Natürlich, I.M.O.
 
 
Ich habe mir das Video und den Kommentar auf Russisch angesehen und war sogar überrascht, dass ich eine sehr korrekte Vorstellung vom Verhalten hatte - es gibt eine Vermögensbewertung, eine Ergebniswahrscheinlichkeit, eine Mikrokontrolle und falsche Anfangsstrategien für die Entwicklung. Es wird sehr viel Wert darauf gelegt, genau die Einheiten auszuwählen, die mit der Effizienz der Mikrokontrolle kämpfen und aus wirtschaftlicher Sicht am effektivsten sind, und außerdem werden andere nicht benötigt, da die Schlachten schnell gewonnen werden. Im Allgemeinen gibt es offensichtlich eine Reihe von Komponenten und höchstwahrscheinlich nicht nur ein Neuron, und verschiedene Modelle sind für verschiedene Komponenten verantwortlich. Außerdem haben die Entwickler selbst erklärt, dass sie verschiedene Modelle von Grundstrategien verwenden, so dass es eine Art von Zufälligkeit geben würde.
 

Hallo zusammen. Da wir festgestellt haben, dass ALLE hier ziemlich intelligent sind, ist dies kein Sarkasmus, sondern eine Feststellung der Tatsachen. Dem Bereich ME mangelt es nicht an Intelligenz, daher habe ich eine Frage an die Gemeinschaft. Hat jemand schon einmal UBUNTU verwaltet? Ich spreche von der Verwaltung. Das Problem ist folgendes. Während der Optimierung wird dieser Prozess so oft durchlaufen, wie es Kerne im System gibt, um sie zu parallelisieren.

Frage: Ist es möglich, 2 oder 4 Kerne zu zwingen, einen laufenden nicht teilbaren Prozess zu bedienen? Nun, das ist nur meine Meinung... vielleicht weiß jemand davon...

 

Google arbeitet heute

https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/

OK, ich bin gestern wieder in einen sinnlosen Streit geraten

 
Maxim Dmitrievsky:

Google arbeitet heute

https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/

OK, ich bin gestern wieder in einen sinnlosen Streit geraten

Man beachte, dass auf dem Diagramm der Erwartung des Ausgangs des Kampfes genau die Wahrscheinlichkeit zu sehen ist, von der ich gesprochen habe - situationsbedingt, was die Rückkopplung der Neuronen aktiviert. Man kann deutlich sehen, wie sich diese Wahrscheinlichkeit ändert, wenn beide Seiten auskundschaften und Einheiten verlieren - d.h. es findet eine ständige Neuberechnung des Kräfteverhältnisses und der eigenen Erwartungen statt. Es handelt sich eindeutig nicht um eine klassische RL-Variante.


 
Aleksey Vyazmikin:

Auf dem Diagramm der Kampferwartung ist genau die Wahrscheinlichkeit zu sehen, von der ich gesprochen habe - die situative Wahrscheinlichkeit, die das Neuronen-Feedback aktiviert. Man kann deutlich sehen, wie sich diese Wahrscheinlichkeit ändert, wenn beide Seiten auskundschaften und Einheiten verlieren - d.h. es findet eine ständige Neuberechnung des Kräfteverhältnisses und der eigenen Erwartungen statt. Es handelt sich eindeutig nicht um eine klassische RL-Variante.


Du bist also so schwer von Begriff, ich dachte, das wollte ich dir sagen :D

Lesen Sie auch über das Nash-Gleichgewicht in dem Link, ich habe den Algorithmus gestern 1 zu 1 beschrieben, ohne ihn überhaupt zu lesen

der Punkt ist, dass das Spiel keine Wahrscheinlichkeitsschätzung hat und nur die AUSWIRKUNG auf den Gegner :)) - gehen Sie zurück und lesen Sie Ihre Beiträge

Das Offensichtliche ist klassisches tiefes RL LOL, hören Sie auf, Unsinn zu reden, wenn Sie nicht beim Thema sind

 
Maxim Dmitrievsky:

Du bist also so ungeschickt, dass ich dachte, das sei es, was ich dir zu erklären versuchte :D

lesen Sie auch über das Nash-Gleichgewicht in dem Link, ich habe den Algorithmus gestern 1 zu 1 beschrieben, ohne ihn überhaupt zu lesen

der Punkt ist, dass das Spiel keine Wahrscheinlichkeitsschätzung hat und das Spiel eine EFFIZIENZ hat :)) gehen Sie zurück und lesen Sie Ihren Beitrag

Das einzige, was Sie sehen, ist ein klassisches tiefes RL-LOL, hören Sie auf, Unsinn zu reden, wenn Sie nicht beim Thema sind.

Dies ist ein Forum für Handel, automatisierte Handelssysteme und das Testen von Handelsstrategien

Ich habe mich schon immer für den Handel auf dem Devisenmarkt interessiert und bin überzeugt, dass dies der beste Weg ist, maschinelles Lernen zu lehren.

Aleksey Vyazmikin, 2019.01.25 17:15

Ich sehe das etwas anders: In dem Spielzeug gibt es üblicherweise eine mathematische Bewertung jeder Seite, die sich aus vielen Faktoren zusammensetzt - die Anzahl der Bots und ihr Potenzial, Vermögenswerte, Geld, und das Ziel des Gegners, diese Bewertungszahl zu verringern, um seine Bewertungszahl höher zu halten als die des Gegners, d. h. weniger Energie für das Ergebnis aufzuwenden. Daraus ergibt sich ein sich gegenseitig beeinflussendes System, bei dem es klar ist, dass man durch das Opfern einer Einheit den geschätzten Vermögenswert des Gegners um mehr als den geschätzten Wert der Einheit verringert, dann ist dies die richtige Entscheidung, und wenn nicht, dann ist es nicht die richtige. Und beim Handel haben wir keine Garantien, nur Wahrscheinlichkeiten, aber bei einem Spielzeug gibt es mathematische Garantien, die berechnet werden können.

Wir können die Situation nicht beeinflussen, aber im Spiel können wir es, auch indem wir selbst vorteilhafte Situationen schaffen.

Forum zum Thema Handel, automatische Handelssysteme und Testen von Handelsstrategien

Maschinelles Lernen im Handel: Theorie und Praxis (Handel und nicht nur)

Aleksey Vyazmikin, 2019.01.26 00:06

Wenn wir einen Bot-Schöpfer hätten, könnten wir ihm eine Reihe von Fragen stellen und wären von den Antworten sehr überrascht. Alle diese RLs sind gut darin, stationäre Einflussfaktoren auf die Umgebung zu erlernen, aber wenn man gegen einen anderen Spieler spielt, dann wird nacktes RL hier nicht funktionieren. Ich habe diesen Bereich nicht eingehend studiert, vielleicht irre ich mich. Aber es gibt eine klare Interaktion mit der sich verändernden Umgebung, man kann aus dem Verhalten der Bots nicht erkennen, dass es eine Erwartung von irgendetwas gibt, man kann es überhaupt nicht erkennen, es gibt eine Kontrolle der Wahrscheinlichkeit, Schaden zu verursachen, sowohl für dich als auch für deinen Gegner, und es gibt einfach Fehlkalkulationen und Handeln in Richtung einer geringeren Wahrscheinlichkeit eines negativen Ergebnisses, aber das ist nicht die Wahrscheinlichkeit, die durch die Politik zu Beginn des Spiels gegeben ist - es ist die Wirkung auf die sich verändernde Umgebung.


Ich weiß nicht, vielleicht ist Ihr Gehirn daran gewöhnt, mit Konzepten aus Büchern zu denken, aber ich finde es einfacher, mit weniger hochtrabenden Dingen zu arbeiten, also habe ich es mit meinen eigenen Worten beschrieben.