Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2809
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Berücksichtigt die Lib den Datentyp nicht? Datentyp ist wie Daten für die billigsten Berechnungen. Die gleiche Matrix sollte für Berechnungen entworfen werden.
Ich habe kein Analogon von Numpy für R gefunden, und die Matrizen dort sind nicht so schnell und R selbst verbraucht aufgrund seines Paradigmas eine Menge Speicher.
Natürlich kann eine Drittanbieter-Lib langsam sein, wer würde sie überprüfen?
Ich weiß nicht, womit ich vergleichen soll, also möchte ich nicht einen Gigabyte großen Datensatz laden, um die Geschwindigkeit zu vergleichen.Niemals.
Und Verstärkungslernen?
Der Topkstarter hat einen Artikel über DQN auf hubr in R geschrieben.
Man sollte sich darüber im Klaren sein, dass Reinforcement Learning nur eine trickreiche Optimierung ist.
Es kann in einigen Fällen funktionieren, in anderen nicht.
Ich kann kein Numpy-Analogon für R. finden.
..
Ich wollte Alexey's Leiden lindern ) Es ist sicherlich einfacher von Anfang an... aber trotzdem.
Der Topikstarter hat einen Artikel über DQN auf dem Hub auf R geschrieben
Es sollte klar sein, dass das Verstärkungslernen nur eine ausgeklügelte Optimierung ist.
Es kann in einigen Fällen funktionieren, in anderen nicht.
Nun, im Zusammenhang mit der Speicherfrage.
Es kann die Zustände an neue Daten anpassen, aber es ist alles auf der Ebene oder wie Mashka, d.h. mit einer Verzögerung.
Es ist wichtiger, eine Belohnung, ein Ziel, im Grunde zu wählen. Und es wird die Trades in verschiedene Richtungen lenken, und bei jeder Iteration wird es besser und besser werden.
Ich wollte Alexey's Leiden lindern ) Es ist sicherlich einfacher von Anfang an... aber trotzdem
es kann Zustände an neue Daten anpassen, aber alles ist nivelliert oder Mashka-ähnlich, d.h. verzögert
Es ist wichtiger, die Belohnung, d.h. das Ziel, im Wesentlichen auszuwählen. Und die Angebote werden von selbst in verschiedene Richtungen geworfen, und bei jeder Iteration wird es besser und besser
Das Gedächtnis ist ein NS mit trainierten Gewichten, man trainiert es bei jedem Schritt, man bewegt die Gewichte ein wenig... nicht viel, deshalb gibt es eine Verzögerung.
und das kann man nicht wirklich auf das Terminal übertragen.
Speicher ist ein NS mit Gewichten trainiert, Sie neu trainieren es bei jedem Schritt, bewegen Sie die Gewichte um ein bisschen ... nicht viel, so dass die Verzögerung .