Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1966
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Wechseln Sie zu Python, ich gebe Ihnen Beispiele und Sie können sie verwenden.
Ich sehe keinen Sinn darin, darüber im Forum zu diskutieren, denn RL ist kein Anfängerthema.
Sobald ich das Buch beendet habe, werde ich fragen)))) Wenn Sie den Marktpreis nicht kennen, dann haben Sie vielleicht Recht, ich weiß nicht, was ich erwarten soll. Wenn Sie die Zeit nicht kennen, kann es eine andere Strategie sein.
Wechseln Sie zu Python, ich gebe Ihnen Beispiele und Sie können sie verwenden.
Ich sehe keinen Sinn darin, dies im Forum zu diskutieren, da RL kein Einstiegsthema ist.
Können Sie mir eine E-Mail schicken?
eugen420@gmail.com
Können Sie sie mir per E-Mail zusenden?
Nur für ihn, der Rest ist kostenpflichtig.
Wechseln Sie zu Python, ich gebe Ihnen Beispiele und Sie können sie verwenden.
Ich sehe keinen Sinn darin, darüber im Forum zu diskutieren, denn RL ist alles andere als ein Einsteigerthema
Ich werde es ausprobieren.
Ich werde es ausprobieren.
Sehen Sie sich die Einführungsvideos auf YouTube an.
Ja, das ist es, was ich tue))
Ja, ich weiß))
Das Verständnis würde schneller erfolgen, wenn das Handbuch fehlerfrei geschrieben wäre:
Die Clusterebene ist ein neuronales Netz mit Kohonen-Vektorquantisierung (LVQ). Die Clusterebene gruppiert die Ergebnisse der Dendriten nach dem LVQ-Standardalgorithmus. Erinnern Sie sich, dass LQV lehrerloses Online-Lernen implementiert .
Erstens sind die Buchstaben in den Akronymen vertauscht (richtig LVQ), zweitens handelt es sich um eine Lehrmethode MIT TUTOR
Wenn die lehrerlose Methode VQ (Vektorquantizatinon) genannt wird, handelt es sich höchstwahrscheinlich um ein Neuron und nicht um LVQ.
Es ist wichtig zu beachten, dass das LQV-Teilnetz die Erinnerung an die vorherigen Eingangssignale als Erinnerung an die letzten Ausgänge der LQV-Neuronen beibehält. Daher standen dem neuronalen Netz mehr Informationen zur Verfügung, als direkt in seine Eingänge eingespeist wurden.
Ich verstehe das noch nicht. Gemeint sind wahrscheinlich die Verbindungen der Teilnetzausgänge, die zu den Neuronen zurückführen. Sie speichern lediglich Informationen über vergangene Handlungen.
Das heißt, der Speicher speichert das LQV-Teilnetz.
Das Verständnis würde schneller erfolgen, wenn das Handbuch fehlerfrei geschrieben wäre:
Die Clusterebene ist ein neuronales Netz mit Kohonen-Vektorquantisierung (LVQ). Die Clusterebene gruppiert die Ergebnisse der Dendriten nach dem LVQ-Standardalgorithmus. Es sei daran erinnert, dass das LQV lehrerloses Online-Lernen implementiert .
Erstens sind die Buchstaben in den Akronymen vertauscht (richtig LVQ), zweitens handelt es sich um eine Lehrmethode MIT TUTOR
und die Methode ohne Lehrer heißt VQ (Vektorquantizatinon), dann liegt es höchstwahrscheinlich am Neuron, nicht am LVQ.
Ich weiß nicht... Ich habe es 4 Mal gelesen und verstehe es immer noch nicht, vielleicht ist der Lehrer eine Verstärkung?
+ Es gibt auch Abstimmungen, die von verschiedenen Ebenen ausgehen.
Es ist wichtig zu beachten, dass das LQV-Teilnetz einen Speicher für die vorherigen Eingaben als Speicher für die letzten Ausgaben der LQV-Neuronen behält. Daher standen dem neuronalen Netz mehr Informationen zur Verfügung, als direkt in seine Eingänge eingespeist wurden.
Ich verstehe das noch nicht. Gemeint sind wahrscheinlich die Verbindungen der Teilnetzausgänge, die zu den Neuronen zurückführen. Sie speichern lediglich Informationen über vergangene Handlungen.
Das heißt, der Speicher speichert das LQV-Teilnetz.
Nun, ja, das Gedächtnis im LQV ist in Form der letzten Ausgaben der LQV-Neuronen, aber es ist, wie ich es verstehe, ein Gedächtnis einen Schritt zurück...
Was ist mit dieser fantastischen Analogie mit dem Wasserkocher und dem Kaffee? Das ist der ganze Gral.
Er hat Ihnen nichts gesagt?
Ich frage mich, wo sie dieses Zeug unterrichten. Das ist wie Kybernetik, Robotik und...
DataSynthians sind nur Physiker am technischen Institut).
==============================================================
es gibt auch einen dynamischen LVQ - dlvq
https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq
Einzelheiten
dlvq : Die Eingabedaten müssen für die Verwendung von DLVQ normalisiert werden.
DLVQ-Lernen: Für jede Klasse wird ein Durchschnittsvektor (Prototyp) berechnet und in einem (neu erstellten) versteckten Modul gespeichert. Das Netz wird dann verwendet, um jedes Muster anhand des nächstgelegenen Prototyps zu klassifizieren. Wird ein Muster fälschlicherweise als Klasse y statt als Klasse x klassifiziert, wird der Prototyp Klasse y vom Muster weg und der Prototyp Klasse x zum Muster hin verschoben.Dieses Verfahren wird iterativ wiederholt, bis sich die Klassifizierung nicht mehr ändert. Dann werden neue Prototypen für jede Klasse als neue versteckte Einheiten in das Netz eingeführt und mit dem durchschnittlichen Vektor der falsch klassifizierten Vorlagen in dieser Klasse initialisiert.
Netzarchitektur: Das Netz hat nur eine verborgene Schicht, die für jeden Prototyp eine Einheit enthält. Die Prototypen/versteckten Einheiten werden auch Codebuchvektoren genannt. Da SNNS die Einheiten automatisch erzeugt und keine vorherige Festlegung der Anzahl der Einheiten erfordert, wird das Verfahren in SNNS als dynamische LVQ bezeichnet.
Die Standardinitialisierungs-, Lern- und Aktualisierungsfunktionen sind die einzigen, die für diese Art von Netz geeignet sind. Die drei Parameter der Lernfunktion definieren zwei Lernraten (für richtig / falsch klassifizierte Fälle) und die Anzahl der Zyklen, für die das Netz trainiert wird, bevor die Durchschnittsvektoren berechnet werden.
Referenzen
Kohonen, T. (1988), Self-organization and associative memory, Vol. 8, Springer-Verlag.
=========================================================
Mann, ich habe diese LVQ gelesen , sie ist genau wie Kohonen (SOM), aber mit einem Lehrer.
https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=Der%20Lernende%20Vektor%20Quantisierungs%20algorithmus,diese%20Instanzen%20sollten%20wie%20aussehen.
Wer hat das Problem der Quantifizierung eines numerischen Bereichs mit Bezug auf das Ziel gelöst? In meinem Fall handelt es sich um eine uneinheitliche "Quantisierung" - ein Prozess der automatischen Anpassung an das Ziel mit einem Grenzwert für die minimalen Ziffern im Bereich oder das Fenster selbst im numerischen Ausdruck - noch nicht entschieden.
Experimente mit CatBoost zeigen, dass die Quantisierung das Ergebnis stark beeinflusst (in einigen Fällen bis zu 15% acurasi).
Wer hat das Problem der Quantifizierung eines numerischen Bereichs mit Bezug auf das Ziel gelöst? In meinem Fall handelt es sich um eine uneinheitliche "Quantisierung" - ein Prozess der automatischen Anpassung an das Ziel mit einem Grenzwert für die minimalen Ziffern im Bereich oder das Fenster selbst im numerischen Ausdruck - noch nicht entschieden.
Experimente mit CatBoost zeigen, dass die Quantisierung das Ergebnis stark beeinflusst (bis zu 15% acurasi in einigen Fällen).
https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html
Paket zur Diskretisierung (Quantisierung) in Bezug auf das Ziel