Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1269

 

Von den Schöpfern von AlphaGo Zero fresh, viel Spaß beim Anschauen :)


 
Maxim Dmitrievsky:

Frisch von den Machern von AlphaGo Zero, viel Spaß beim Anschauen :)


Gibt es eine detaillierte Anleitung, wie man Modelle für Star Kraft erstellt/ausbildet/verbindet?

 
Maxim Dmitrievsky:

Ich spiele nicht, ich schaue mir die Spiele nur an.

Nach den Wiederholungen zu urteilen, wird der Alpha Trader, wenn er hergestellt wird, besser handeln als jeder Würfelsack

Ich habe den Eindruck, dass man mit einem solchen Roboter neue Fähigkeiten in MO erwerben kann, und es ist einfach interessant. Ich selbst habe StarCraft 2 ein paar Mal gespielt, seit die neuen Kapitel erschienen sind (dort ist die Geschichte in mehrere Teile unterteilt). Wenn er gegen die KI spielt, gewinnt er oft nicht durch logisches Handeln, sondern durch die Kontrolle von Einheiten - ein Mensch kann physisch nicht die gesamte Karte und alle Einheiten gleichzeitig kontrollieren.

 
Vladimir Perervenko:

Ich überwache weder meine eigenen noch die der anderen. Der oben zitierte Artikel enthält nicht genügend Informationen, um reproduzierbar zu sein, und der Code ist zu kompliziert. Ich denke, dass alles mit Standardschichten aus Paketen implementiert werden kann, ohne R6 zu verwenden.

Viel Glück!

Ich verstehe nicht, welches Glück Sie mir wünschen.

Bitte machen Sie mindestens eine Demo

Wenn das Ergebnis der Arbeit des Sachverständigen mit Elementen von MO akzeptabel ist, werde ich den gesamten Zweig noch einmal von Anfang bis Ende durchlesen.

 
Maxim Dmitrievsky:

Dies ist hier nicht der Fall, es ist genau das, was ein Mensch sieht und tut - begrenztes Sichtfeld, durchschnittliche Geschwindigkeit ist niedriger als die des Profispielers. d.h. es ist ein Kampf der Intelligenzen, d.h. der Strategien, nicht der Geschwindigkeiten (bei dem die Maschine natürlich immer gewinnen wird)

Und die eingebaute KI in SC ist einfach nur ein Haufen uninteressanter Gegner. Dieser hier hingegen spielt wie ein Mensch. Ich würde einen Profispieler nicht von dieser KI unterscheiden, d.h. Turing-Test bestanden )))

Sogar die Wolke der aktiven Neuronen des elektronischen Gehirns wurde visualisiert


Aus dem Bildschirm können Sie keine eindeutigen Schlüsse ziehen. Ja, vielleicht um nur das zu steuern, was auf den Bildschirm passt - kein Problem, für diese Zwecke verwenden Sie die Hotkeys auf eine Einheit / Struktur oder Gruppe von Einheiten, dann ist es nicht notwendig, sie an dieser Stelle visuell zu beobachten, und Sie können auf der Karte koordinieren, die auch immer auf dem Bildschirm sichtbar ist. Chisha alle in mikrokontrol, ich persönlich sah ein paar Videos und nicht sehen, etwas schlau dort in Bezug auf die Strategie, aber die Nutzung des Potenzials der einzelnen Einheiten gibt es auf die volle offenbart. Das heißt, der Schwerpunkt liegt dort auf der Bewertung der potenziellen Bedrohung und Optionen, um es zu begegnen - je nach Zweig der feindlichen Entwicklung ein Zweig entwickelt wird, plus ein separates Modul auf die Wirtschaft - verschiedene Methoden gesehen haben, und die Kontrolle, und ich denke, dass die ersten beiden Module (Zweig der Entwicklung und Wirtschaft) programmiert sind oder angewendet Fuzzy-Logik, etwas relativ plump für die Stabilität, aber die Kontrolle ist auf der Grundlage der Situation und hier nur funktionieren AI in vollem Umfang. Es ist übrigens nicht klar, wie die Informationen über die Objekte übermittelt werden, wie sie zusammengefasst werden, um eine Entscheidung zu treffen und ihre Bewegung zu berücksichtigen, die Chips und Ziele sind nicht klar.

 
Übrigens spiele ich manchmal Warcraft III im Blizard-Netz, und dort wird mir oft KI vorgeworfen; ich frage mich, ob das auch hier gilt. Und wenn sie eingesetzt wird, frage ich mich, wie oft ich mit einer solchen KI gespielt habe.
 
Maxim Dmitrievsky:

Dort wurde übrigens ursprünglich die gesamte Karte für den Bot auf dem Bildschirm platziert, und dann haben sie ihn wie einen Spieler gemacht, und dann fing der Bot an zu stottern und der Mann hat gewonnen (am Ende des Videos). Gut gefilmte schlechte mb für diese Situation. Andererseits, wie kann man die Wirksamkeit bewerten - wenn bestimmte Schichten zum Erfolg führen, dann wählt der Bot sie aus

Ich denke, dass die Bots den Durchschnittsnutzer schlagen werden, wenn man die Kontrollzwänge einem Menschen anpasst, denn das Verhalten der Menge ist ähnlich und wird am häufigsten sein. Übrigens, als ich versucht habe, mit meinem Sohn im Netzwerk für einen Clan gegen Bots Spielzeug Warcraft 3 zu spielen, dann war es zunächst genauso schwierig (und davor hatte ich eine Fülle von Erfahrungen in Clan-Spielen in battlet gegen Menschen), aber dann gewöhnen Sie sich an das Verhalten des Bots und allmählich überspielte ihn mit Nicht-Standard-Lösungen (zum Beispiel durch die Bäume schneiden, um die Mine, damit der Schutz von Einheiten vor Angriffen aus dem Boden). Deshalb frage ich mich, welches Gewicht den Nicht-Standard-Strategien beigemessen werden sollte, damit sie bei der MoD berücksichtigt werden können, d. h. ich muss Standard- und Nicht-Standard-Verhaltensweisen voneinander trennen und sie unterschiedlich angehen, ohne dass sie sich gegenseitig behindern. Es ist wie ein Trend und eine Wohnung - ein Modell ist sehr schwierig, beide gleichzeitig zu trainieren, zumindest weiß ich nicht wie.

 
Maxim Dmitrievsky:

Ich glaube nicht, dass dies von Bedeutung ist. In seltenen Fällen wird der Bot solche Optionen einfach ignorieren. Wenn sich eine Person an die Strategien des Bots anpasst, muss der Bot ständig trainieren, um sich der Schicht einer Person anzupassen, sonst ist die Situation nicht gleichwertig).

Ich weiß nicht, dann stellt sich heraus, dass viel von der Probe abhängt, wenn die Probe unterschiedlich ist, dann werden die Bots unterschiedlich in einem Kampf mit einander verhalten, dh hier ist nicht nur Training, sondern auch der Glücksfaktor (wer auf was trainiert).

Es ist also nicht immer möglich, das Ergebnis der Ausbildung zu sehen (richtig einzuschätzen), da es keine gültige Stichprobe zum Vergleich der Ergebnisse gibt.

 
Maxim Dmitrievsky:

Ja, das ist die Art und Weise, wie das Lernen dort abläuft - durch gegnerische Netzwerke, so in etwa. Die KI spielt Tausende von Malen gegen die KI und reproduziert dabei viele verschiedene Strategien. Mit der Zeit findet das Netzwerk die besten Strategien heraus. Wenn die Anzahl der Spiele die Anzahl der Spiele eines professionellen Spielers übersteigt (was 200 Jahren Spielzeit entspricht, wie man sagt), wird der statistische Vorteil höchstwahrscheinlich auf der Seite des Bots liegen, da er mehr Kombinationen berücksichtigt hat. Aber die Wahrscheinlichkeit, eine einzigartige Gewinnschicht zu finden, bleibt natürlich immer noch der Mann

Das Thema ist interessant, aber geheimnisumwittert :) Der Handel ist insofern anders, als dass wir den Markt mit unserem Verhalten nicht beeinflussen können und wir keine Möglichkeit haben, Fehler zu korrigieren, vielleicht mit Positionsmittelung...

 
Maxim Dmitrievsky:

Wenn man den Graphen in Tausende und Millionen von Teilen zerlegt und den Bot so oft gegen ihn spielen lässt, lernt er vielleicht, ihn immer wieder zu schlagen, aber auch das hängt von der Geschichte ab.

Ich sehe das ein wenig anders: Das Spiel hat üblicherweise eine mathematische Punktzahl für jede Seite, die sich aus vielen Faktoren zusammensetzt - die Anzahl der Bots und ihr Potenzial, Vermögenswerte, Geld, und das Ziel des Gegners, diese Punktzahl zu verringern, um seine Punktzahl höher zu halten als die des Gegners, d. h. weniger Energie für das Ergebnis aufzuwenden. Daraus ergibt sich ein sich gegenseitig beeinflussendes System, bei dem es klar ist, dass man durch das Opfern einer Einheit den geschätzten Vermögenswert des Gegners um mehr als den geschätzten Wert der Einheit verringert, dann ist dies die richtige Entscheidung, und wenn nicht, dann ist es nicht die richtige. Beim Handel gibt es keine Garantien, sondern nur Wahrscheinlichkeiten, während es bei Spielzeug mathematische Garantien gibt, die berechnet werden können.

Wir können die Situation nicht beeinflussen, während wir in einem Spiel die Möglichkeit haben, auch selbst profitable Situationen zu schaffen.