Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1966

 
Maxim Dmitrievsky:

Wechseln Sie zu Python, ich gebe Ihnen Beispiele und Sie können sie verwenden.

Ich sehe keinen Sinn darin, darüber im Forum zu diskutieren, denn RL ist kein Anfängerthema.

Sobald ich das Buch beendet habe, werde ich fragen)))) Wenn Sie den Marktpreis nicht kennen, dann haben Sie vielleicht Recht, ich weiß nicht, was ich erwarten soll. Wenn Sie die Zeit nicht kennen, kann es eine andere Strategie sein.

 
Maxim Dmitrievsky:

Wechseln Sie zu Python, ich gebe Ihnen Beispiele und Sie können sie verwenden.

Ich sehe keinen Sinn darin, dies im Forum zu diskutieren, da RL kein Einstiegsthema ist.


Können Sie mir eine E-Mail schicken?

eugen420@gmail.com

 
Evgeni Gavrilovi:


Können Sie sie mir per E-Mail zusenden?

Nur für ihn, der Rest ist kostenpflichtig.

 
Maxim Dmitrievsky:

Wechseln Sie zu Python, ich gebe Ihnen Beispiele und Sie können sie verwenden.

Ich sehe keinen Sinn darin, darüber im Forum zu diskutieren, denn RL ist alles andere als ein Einsteigerthema

Ich werde es ausprobieren.

 
mytarmailS:

Ich werde es ausprobieren.

Schauen Sie sich die Intro-Videos auf youtube an. Es ist dasselbe wie R, nur mit seinen eigenen Besonderheiten. Der Übergang sollte kein Problem sein. Aber Sie können kotier von mt5 und offene Trades nehmen.
 
Maxim Dmitrievsky:
Sehen Sie sich die Einführungsvideos auf YouTube an.

Ja, das ist es, was ich tue))

 
mytarmailS:

Ja, ich weiß))

Das Verständnis würde schneller erfolgen, wenn das Handbuch fehlerfrei geschrieben wäre:

Die Clusterebene ist ein neuronales Netz mit Kohonen-Vektorquantisierung (LVQ). Die Clusterebene gruppiert die Ergebnisse der Dendriten nach dem LVQ-Standardalgorithmus. Erinnern Sie sich, dass LQV lehrerloses Online-Lernen implementiert .

Erstens sind die Buchstaben in den Akronymen vertauscht (richtig LVQ), zweitens handelt es sich um eine Lehrmethode MIT TUTOR

Wenn die lehrerlose Methode VQ (Vektorquantizatinon) genannt wird, handelt es sich höchstwahrscheinlich um ein Neuron und nicht um LVQ.


Es ist wichtig zu beachten, dass das LQV-Teilnetz die Erinnerung an die vorherigen Eingangssignale als Erinnerung an die letzten Ausgänge der LQV-Neuronen beibehält. Daher standen dem neuronalen Netz mehr Informationen zur Verfügung, als direkt in seine Eingänge eingespeist wurden.

Ich verstehe das noch nicht. Gemeint sind wahrscheinlich die Verbindungen der Teilnetzausgänge, die zu den Neuronen zurückführen. Sie speichern lediglich Informationen über vergangene Handlungen.

Das heißt, der Speicher speichert das LQV-Teilnetz.


 
Maxim Dmitrievsky:

Das Verständnis würde schneller erfolgen, wenn das Handbuch fehlerfrei geschrieben wäre:

Die Clusterebene ist ein neuronales Netz mit Kohonen-Vektorquantisierung (LVQ). Die Clusterebene gruppiert die Ergebnisse der Dendriten nach dem LVQ-Standardalgorithmus. Es sei daran erinnert, dass das LQV lehrerloses Online-Lernen implementiert .

Erstens sind die Buchstaben in den Akronymen vertauscht (richtig LVQ), zweitens handelt es sich um eine Lehrmethode MIT TUTOR

und die Methode ohne Lehrer heißt VQ (Vektorquantizatinon), dann liegt es höchstwahrscheinlich am Neuron, nicht am LVQ.

Ich weiß nicht... Ich habe es 4 Mal gelesen und verstehe es immer noch nicht, vielleicht ist der Lehrer eine Verstärkung?

+ Es gibt auch Abstimmungen, die von verschiedenen Ebenen ausgehen.

Maxim Dmitrievsky:

Es ist wichtig zu beachten, dass das LQV-Teilnetz einen Speicher für die vorherigen Eingaben als Speicher für die letzten Ausgaben der LQV-Neuronen behält. Daher standen dem neuronalen Netz mehr Informationen zur Verfügung, als direkt in seine Eingänge eingespeist wurden.

Ich verstehe das noch nicht. Gemeint sind wahrscheinlich die Verbindungen der Teilnetzausgänge, die zu den Neuronen zurückführen. Sie speichern lediglich Informationen über vergangene Handlungen.

Das heißt, der Speicher speichert das LQV-Teilnetz.

Nun, ja, das Gedächtnis im LQV ist in Form der letzten Ausgaben der LQV-Neuronen, aber es ist, wie ich es verstehe, ein Gedächtnis einen Schritt zurück...

Was ist mit dieser fantastischen Analogie mit dem Wasserkocher und dem Kaffee? Das ist der ganze Gral.


Er hat Ihnen nichts gesagt?

Ich frage mich, wo sie dieses Zeug unterrichten. Das ist wie Kybernetik, Robotik und...

DataSynthians sind nur Physiker am technischen Institut).


==============================================================

es gibt auch einen dynamischen LVQ - dlvq

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

Einzelheiten

dlvq : Die Eingabedaten müssen für die Verwendung von DLVQ normalisiert werden.

DLVQ-Lernen: Für jede Klasse wird ein Durchschnittsvektor (Prototyp) berechnet und in einem (neu erstellten) versteckten Modul gespeichert. Das Netz wird dann verwendet, um jedes Muster anhand des nächstgelegenen Prototyps zu klassifizieren. Wird ein Muster fälschlicherweise als Klasse y statt als Klasse x klassifiziert, wird der Prototyp Klasse y vom Muster weg und der Prototyp Klasse x zum Muster hin verschoben.Dieses Verfahren wird iterativ wiederholt, bis sich die Klassifizierung nicht mehr ändert. Dann werden neue Prototypen für jede Klasse als neue versteckte Einheiten in das Netz eingeführt und mit dem durchschnittlichen Vektor der falsch klassifizierten Vorlagen in dieser Klasse initialisiert.

Netzarchitektur: Das Netz hat nur eine verborgene Schicht, die für jeden Prototyp eine Einheit enthält. Die Prototypen/versteckten Einheiten werden auch Codebuchvektoren genannt. Da SNNS die Einheiten automatisch erzeugt und keine vorherige Festlegung der Anzahl der Einheiten erfordert, wird das Verfahren in SNNS als dynamische LVQ bezeichnet.

Die Standardinitialisierungs-, Lern- und Aktualisierungsfunktionen sind die einzigen, die für diese Art von Netz geeignet sind. Die drei Parameter der Lernfunktion definieren zwei Lernraten (für richtig / falsch klassifizierte Fälle) und die Anzahl der Zyklen, für die das Netz trainiert wird, bevor die Durchschnittsvektoren berechnet werden.

Referenzen

Kohonen, T. (1988), Self-organization and associative memory, Vol. 8, Springer-Verlag.



=========================================================


Mann, ich habe diese LVQ gelesen , sie ist genau wie Kohonen (SOM), aber mit einem Lehrer.

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=Der%20Lernende%20Vektor%20Quantisierungs%20algorithmus,diese%20Instanzen%20sollten%20wie%20aussehen.

 

Wer hat das Problem der Quantifizierung eines numerischen Bereichs mit Bezug auf das Ziel gelöst? In meinem Fall handelt es sich um eine uneinheitliche "Quantisierung" - ein Prozess der automatischen Anpassung an das Ziel mit einem Grenzwert für die minimalen Ziffern im Bereich oder das Fenster selbst im numerischen Ausdruck - noch nicht entschieden.

Experimente mit CatBoost zeigen, dass die Quantisierung das Ergebnis stark beeinflusst (in einigen Fällen bis zu 15% acurasi).

 
Aleksey Vyazmikin:

Wer hat das Problem der Quantifizierung eines numerischen Bereichs mit Bezug auf das Ziel gelöst? In meinem Fall handelt es sich um eine uneinheitliche "Quantisierung" - ein Prozess der automatischen Anpassung an das Ziel mit einem Grenzwert für die minimalen Ziffern im Bereich oder das Fenster selbst im numerischen Ausdruck - noch nicht entschieden.

Experimente mit CatBoost zeigen, dass die Quantisierung das Ergebnis stark beeinflusst (bis zu 15% acurasi in einigen Fällen).

https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html

Paket zur Diskretisierung (Quantisierung) in Bezug auf das Ziel