Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1271
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Für den Markt wird es auf genau dieselbe Weise geschult, denn die Technologie ist dieselbe. Vergessen Sie den "Einfluss", er wird nicht ausdrücklich so gelehrt, wie Sie es sich vorstellen. Es gibt Strategiesätze, optimale Strategien usw. (im RL werden sie Policen genannt).
Wenn wir einen Bot-Schöpfer hätten, könnten wir ihm eine Reihe von Fragen stellen und wären von den Antworten sehr überrascht. Alle diese RLs sind gut darin, stationäre Umwelteinflüsse zu lernen, aber wenn man gegen einen anderen Spieler spielt, dann funktioniert das nackte RL hier nicht. Ich habe diesen Bereich nicht eingehend studiert, vielleicht irre ich mich. Aber es gibt eine klare Interaktion mit sich verändernden Umwelt, können Sie nicht von Bots Verhalten gibt es keine Erwartung von etwas, können Sie überhaupt nicht sehen, gibt es eine Kontrolle der Wahrscheinlichkeit der Beschädigung sowohl Sie als auch Ihr Gegner, und es gibt Fehleinschätzungen einfach und handeln in Richtung weniger Möglichkeit der negativen Ergebnis, aber es ist nicht die Wahrscheinlichkeit, die von der Politik zu Beginn des Spiels angegeben wird - es ist ein Einfluss auf sich verändernde Umwelt.
Hallo zusammen. Da wir festgestellt haben, dass ALLE hier ziemlich intelligent sind, ist dies kein Sarkasmus, sondern eine Feststellung der Tatsachen. Dem Bereich ME mangelt es nicht an Intelligenz, daher habe ich eine Frage an die Gemeinschaft. Hat jemand schon einmal UBUNTU verwaltet? Ich spreche von der Verwaltung. Das Problem ist folgendes. Während der Optimierung wird dieser Prozess so oft durchlaufen, wie es Kerne im System gibt, um sie zu parallelisieren.
Frage: Ist es möglich, 2 oder 4 Kerne zu zwingen, einen laufenden nicht teilbaren Prozess zu bedienen? Nun, das ist nur meine Meinung... vielleicht weiß jemand davon...
Google arbeitet heute
https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/
OK, ich bin gestern wieder in einen sinnlosen Streit geraten
Google arbeitet heute
https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/
OK, ich bin gestern wieder in einen sinnlosen Streit geraten
Man beachte, dass auf dem Diagramm der Erwartung des Ausgangs des Kampfes genau die Wahrscheinlichkeit zu sehen ist, von der ich gesprochen habe - situationsbedingt, was die Rückkopplung der Neuronen aktiviert. Man kann deutlich sehen, wie sich diese Wahrscheinlichkeit ändert, wenn beide Seiten auskundschaften und Einheiten verlieren - d.h. es findet eine ständige Neuberechnung des Kräfteverhältnisses und der eigenen Erwartungen statt. Es handelt sich eindeutig nicht um eine klassische RL-Variante.
Auf dem Diagramm der Kampferwartung ist genau die Wahrscheinlichkeit zu sehen, von der ich gesprochen habe - die situative Wahrscheinlichkeit, die das Neuronen-Feedback aktiviert. Man kann deutlich sehen, wie sich diese Wahrscheinlichkeit ändert, wenn beide Seiten auskundschaften und Einheiten verlieren - d.h. es findet eine ständige Neuberechnung des Kräfteverhältnisses und der eigenen Erwartungen statt. Es handelt sich eindeutig nicht um eine klassische RL-Variante.
Du bist also so schwer von Begriff, ich dachte, das wollte ich dir sagen :D
Lesen Sie auch über das Nash-Gleichgewicht in dem Link, ich habe den Algorithmus gestern 1 zu 1 beschrieben, ohne ihn überhaupt zu lesen
der Punkt ist, dass das Spiel keine Wahrscheinlichkeitsschätzung hat und nur die AUSWIRKUNG auf den Gegner :)) - gehen Sie zurück und lesen Sie Ihre Beiträge
Das Offensichtliche ist klassisches tiefes RL LOL, hören Sie auf, Unsinn zu reden, wenn Sie nicht beim Thema sind
Du bist also so ungeschickt, dass ich dachte, das sei es, was ich dir zu erklären versuchte :D
lesen Sie auch über das Nash-Gleichgewicht in dem Link, ich habe den Algorithmus gestern 1 zu 1 beschrieben, ohne ihn überhaupt zu lesen
der Punkt ist, dass das Spiel keine Wahrscheinlichkeitsschätzung hat und das Spiel eine EFFIZIENZ hat :)) gehen Sie zurück und lesen Sie Ihren Beitrag
Das einzige, was Sie sehen, ist ein klassisches tiefes RL-LOL, hören Sie auf, Unsinn zu reden, wenn Sie nicht beim Thema sind.
Dies ist ein Forum für Handel, automatisierte Handelssysteme und das Testen von Handelsstrategien
Ich habe mich schon immer für den Handel auf dem Devisenmarkt interessiert und bin überzeugt, dass dies der beste Weg ist, maschinelles Lernen zu lehren.
Aleksey Vyazmikin, 2019.01.25 17:15
Ich sehe das etwas anders: In dem Spielzeug gibt es üblicherweise eine mathematische Bewertung jeder Seite, die sich aus vielen Faktoren zusammensetzt - die Anzahl der Bots und ihr Potenzial, Vermögenswerte, Geld, und das Ziel des Gegners, diese Bewertungszahl zu verringern, um seine Bewertungszahl höher zu halten als die des Gegners, d. h. weniger Energie für das Ergebnis aufzuwenden. Daraus ergibt sich ein sich gegenseitig beeinflussendes System, bei dem es klar ist, dass man durch das Opfern einer Einheit den geschätzten Vermögenswert des Gegners um mehr als den geschätzten Wert der Einheit verringert, dann ist dies die richtige Entscheidung, und wenn nicht, dann ist es nicht die richtige. Und beim Handel haben wir keine Garantien, nur Wahrscheinlichkeiten, aber bei einem Spielzeug gibt es mathematische Garantien, die berechnet werden können.
Wir können die Situation nicht beeinflussen, aber im Spiel können wir es, auch indem wir selbst vorteilhafte Situationen schaffen.Forum zum Thema Handel, automatische Handelssysteme und Testen von Handelsstrategien
Maschinelles Lernen im Handel: Theorie und Praxis (Handel und nicht nur)
Aleksey Vyazmikin, 2019.01.26 00:06
Wenn wir einen Bot-Schöpfer hätten, könnten wir ihm eine Reihe von Fragen stellen und wären von den Antworten sehr überrascht. Alle diese RLs sind gut darin, stationäre Einflussfaktoren auf die Umgebung zu erlernen, aber wenn man gegen einen anderen Spieler spielt, dann wird nacktes RL hier nicht funktionieren. Ich habe diesen Bereich nicht eingehend studiert, vielleicht irre ich mich. Aber es gibt eine klare Interaktion mit der sich verändernden Umgebung, man kann aus dem Verhalten der Bots nicht erkennen, dass es eine Erwartung von irgendetwas gibt, man kann es überhaupt nicht erkennen, es gibt eine Kontrolle der Wahrscheinlichkeit, Schaden zu verursachen, sowohl für dich als auch für deinen Gegner, und es gibt einfach Fehlkalkulationen und Handeln in Richtung einer geringeren Wahrscheinlichkeit eines negativen Ergebnisses, aber das ist nicht die Wahrscheinlichkeit, die durch die Politik zu Beginn des Spiels gegeben ist - es ist die Wirkung auf die sich verändernde Umgebung.