Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2809

 
Valeriy Yastremskiy #:

Berücksichtigt die Lib den Datentyp nicht? Datentyp ist wie Daten für die billigsten Berechnungen. Die gleiche Matrix sollte für Berechnungen entworfen werden.

Ich habe kein Analogon von Numpy für R gefunden, und die Matrizen dort sind nicht so schnell und R selbst verbraucht aufgrund seines Paradigmas eine Menge Speicher.

Natürlich kann eine Drittanbieter-Lib langsam sein, wer würde sie überprüfen?

Ich weiß nicht, womit ich vergleichen soll, also möchte ich nicht einen Gigabyte großen Datensatz laden, um die Geschwindigkeit zu vergleichen.
 
Алексей Тарабанов #:

Niemals.

Und Training mit Verstärkung?
 
mytarmailS #:
Und Verstärkungslernen?

Der Topkstarter hat einen Artikel über DQN auf hubr in R geschrieben.

Man sollte sich darüber im Klaren sein, dass Reinforcement Learning nur eine trickreiche Optimierung ist.

Es kann in einigen Fällen funktionieren, in anderen nicht.

 
Maxim Dmitrievsky #:

Ich kann kein Numpy-Analogon für R. finden.

..
Was genau brauchen Sie? Wenn Geschwindigkeit erforderlich ist, dann Datentabelle, wenn schnelles Analogon von Dataframes dann Tibble, wenn große Datenmenge dann große Matrix.

 
mytarmailS #:
..
Wenn es um Geschwindigkeit geht, dann eine Datentabelle, wenn es ein schnelles Analogon zu Dataframes ist, dann ein Tibble, wenn es um eine große Datenmenge geht, dann eine große Matrix.

Ich wollte Alexey's Leiden lindern ) Es ist sicherlich einfacher von Anfang an... aber trotzdem.

 
Maxim Dmitrievsky #:

Der Topikstarter hat einen Artikel über DQN auf dem Hub auf R geschrieben

Es sollte klar sein, dass das Verstärkungslernen nur eine ausgeklügelte Optimierung ist.

Es kann in einigen Fällen funktionieren, in anderen nicht.

Nun, im Zusammenhang mit der Speicherfrage...
Im RL kann man die Aktionsmatrix und die Zustands- oder Aktionsbewertungsmatrix ständig aktualisieren, es ist wie ein Speicher mit ständiger Aktualisierung. Aber ich weiß nicht, ob ich recht habe.
 
mytarmailS #:
Nun, im Zusammenhang mit der Speicherfrage.
Im RL kann man die Matrix der Aktionsmatrix und die Matrix der Bewertung von Zuständen oder der Bewertung von Aktionen ewig aktualisieren, das ist wie ein Speicher mit konstanter Aktualisierung.... Aber ich weiß nicht, ob ich richtig liege.

Es kann die Zustände an neue Daten anpassen, aber es ist alles auf der Ebene oder wie Mashka, d.h. mit einer Verzögerung.

Es ist wichtiger, eine Belohnung, ein Ziel, im Grunde zu wählen. Und es wird die Trades in verschiedene Richtungen lenken, und bei jeder Iteration wird es besser und besser werden.

 
Maxim Dmitrievsky #:

Ich wollte Alexey's Leiden lindern ) Es ist sicherlich einfacher von Anfang an... aber trotzdem

Wenn Alexey nachdenken und zuhören wollte, würde es mit meinem Skript.... 2 Minuten dauern.
 
Maxim Dmitrievsky #:

es kann Zustände an neue Daten anpassen, aber alles ist nivelliert oder Mashka-ähnlich, d.h. verzögert

Es ist wichtiger, die Belohnung, d.h. das Ziel, im Wesentlichen auszuwählen. Und die Angebote werden von selbst in verschiedene Richtungen geworfen, und bei jeder Iteration wird es besser und besser

Das Gedächtnis ist ein NS mit trainierten Gewichten, man trainiert es bei jedem Schritt, man bewegt die Gewichte ein wenig... nicht viel, deshalb gibt es eine Verzögerung.

und das kann man nicht wirklich auf das Terminal übertragen.

 
Maxim Dmitrievsky #:

Speicher ist ein NS mit Gewichten trainiert, Sie neu trainieren es bei jedem Schritt, bewegen Sie die Gewichte um ein bisschen ... nicht viel, so dass die Verzögerung .

.
Ein trainiertes Netzwerk oder ein trainiertes AMO oder sogar Mashka ist ein Gedächtnis. Ja, das kann man analog akzeptieren....

Aber wenn man ein trainiertes neuronales Netz "umlernt", ändert man die Gewichte, man vergisst die Vergangenheit zugunsten der Gegenwart....

Es ist kein Umlernen, es ist ein Umlernen bei jedem Schritt, wie Mashka im Schiebefenster, sie erinnert sich nicht daran, was außerhalb des Schiebefensters ist, obwohl sie dort war....