Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1967

 
mytarmailS:

Ich weiß es nicht... Ich habe es viermal gelesen und verstehe es immer noch nicht, vielleicht ist der Lehrer ein Ersatz?

+ es gibt weitere Abstimmungen auf den Ebenen.

Nun ja, das Gedächtnis im LQV in Form der letzten Ausgaben der LQV-Neuronen, aber so wie ich das verstehe, ist das Gedächtnis nur ein Schritt zurück...

Was ist mit dieser fantastischen Analogie mit dem Wasserkocher und dem Kaffee? Das ist der ganze Gral...


Er hat Ihnen nichts gesagt?

Ich frage mich, wo sie dieses Zeug unterrichten. Das ist wie Kybernetik, Robotik und...

DataSynthians sind nur Physiker am technischen Institut).


==============================================================

es gibt auch einen dynamischen LVQ - dlvq

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

Einzelheiten

dlvq : Die Eingabedaten müssen für die Verwendung von DLVQ normalisiert werden.

DLVQ-Lernen: Für jede Klasse wird ein Mittelwertvektor (Prototyp) berechnet und in einem (neu erstellten) versteckten Modul gespeichert. Das Netz wird dann verwendet, um jedes Muster anhand des nächstgelegenen Prototyps zu klassifizieren. Wird ein Muster fälschlicherweise als Klasse y statt als Klasse x klassifiziert, wird der Prototyp Klasse y vom Muster weg und der Prototyp Klasse x zum Muster hin verschoben.Dieses Verfahren wird iterativ wiederholt, bis sich die Klassifizierung nicht mehr ändert. Dann werden neue Prototypen für jede Klasse als neue versteckte Einheiten in das Netz eingeführt und mit dem durchschnittlichen Vektor der falsch klassifizierten Vorlagen in dieser Klasse initialisiert.

Netzarchitektur: Das Netz hat nur eine verborgene Schicht, die für jeden Prototyp eine Einheit enthält. Die Prototypen/versteckten Einheiten werden auch Codebuchvektoren genannt. Da SNNS die Einheiten automatisch erzeugt und keine vorherige Festlegung der Anzahl der Einheiten erfordert, wird das Verfahren in SNNS als dynamische LVQ bezeichnet.

Die Standardinitialisierungs-, Lern- und Aktualisierungsfunktionen sind die einzigen, die für diese Art von Netz geeignet sind. Die drei Parameter der Lernfunktion definieren zwei Lernraten (für richtig / falsch klassifizierte Fälle) und die Anzahl der Zyklen, für die das Netz trainiert wird, bevor die Durchschnittsvektoren berechnet werden.

Referenzen

Kohonen, T. (1988), Self-organization and associative memory, Vol. 8, Springer-Verlag.



=========================================================


Mann, ich habe diese LVQ gelesen , sie ist genau wie Kohonen (SOM), aber mit einem Lehrer.

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=Der%20Lernende%20Vektor%20Quantisierungs%20algorithmus,diese%20Instanzen%20sollten%20wie%20aussehen.

Es ist nicht LVQ, es ist VQ.

antwortet nicht

Wahrscheinlich sind aufgrund der spärlichen Verbindungen nicht immer alle Neuronen aktiv, so dass es länger dauert, bis die Erinnerung gespeichert wird... Darüber hinaus gibt es ein assoziatives Gedächtnis (welche Merkmalsgruppen gehören zu welchem Cluster). Das Codebuch wird so genannt.

Das kommt alles aus der Kontrolltheorie und wird wahrscheinlich an der Uni gelehrt. Der Originalartikel stammt aus dem Jahr 2015 von einigen Chinesen. Ich habe keinen Zugang zu ihr. Dies ist wahrscheinlich schon ein Aufguss.

 
Maxim Dmitrievsky:

Es ist nicht LVQ, es ist VQ.

antwortet nicht.

Wahrscheinlich sind aufgrund der spärlichen Verbindungen nicht immer alle Neuronen aktiv, so dass es länger dauert, bis die Erinnerung gespeichert wird... Darüber hinaus gibt es ein assoziatives Gedächtnis (welche Merkmalsgruppen gehören zu welchem Cluster). Das Codebuch wird so genannt.

Das kommt alles aus der Kontrolltheorie und wird wahrscheinlich an der Uni gelehrt. Der Originalartikel stammt aus dem Jahr 2015 von einigen Chinesen. Ich habe keinen Zugang zu ihr. Höchstwahrscheinlich handelt es sich dabei bereits um eine Überarbeitung.

Es stellt sich heraus, dass die Vektorquantisierung zuerst auf den nackten Daten und dann unter Berücksichtigung der Ergebnisse durchgeführt wird, und das Ergebnis ist genauer. Zumindest erscheint ein Filter für ein negatives Ergebnis. Sätze von Merkmalen für verschiedene Cluster, das ist wie die Unterteilung einer Reihe in verschiedene stabile Segmente.

 
Valeriy Yastremskiy:

Es hat sich herausgestellt, dass die Quantisierung von Vektoren zuerst auf den Rohdaten und dann auf dem Ergebnis durchgeführt wird, wodurch das Ergebnis genauer wird. Zumindest erscheint der Filter für das negative Ergebnis. Die Zuordnung von Merkmalen zu verschiedenen Clustern ist wie die Unterteilung einer Reihe in verschiedene stabile Abschnitte.

Es ist schwer vorstellbar, woher das lange Gedächtnis kommt. Wenn z. B. das letzte Neuron in der vorherigen Iteration eine Null erzeugt hat, fügen Sie diese in der nächsten Iteration zum Eingangsvektor des ersten Neurons hinzu. Iteration. Es ist + 1 Dimension, d.h. wir setzen Merkmale in einen neuen Raum und erhalten einen komplexeren bedingten Zustand, der von der vorherigen Aktion abhängt. Das erste Neuron arbeitete und sandte einen Einheitsvektor an das letzte Neuron. Letztere gab 0 oder 1 an die erste zurück. Angenommen, es gibt nur 2 Cluster. Wo geht die Erinnerung tiefer als einen Schritt zurück?

Nehmen wir an, es gibt ein drittes Neuron, das einen anderen +1-Wert annimmt. Noch komplexerer bedingter Zustand. Und so wird die Erinnerung in aufsteigender Reihenfolge gespeichert... schwer vorstellbar :)

 
Maxim Dmitrievsky:

......... speichert... schwer vorstellbar :)

noch schwieriger für mich )

====


assoziatives Netzwerk

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


Das ist dasselbe wie Clustering, nicht wahr? Und das assoziative Bild ist der Prototyp eines Clusters.

 
mytarmailS:

noch schwieriger für mich )

In Schicht 2 können Sie auch Speicher in Form von Wiederholungsverknüpfungen hinzufügen, aber es funktioniert auch ohne sie. Der Speicher befindet sich also doch in Schicht 1.

 
mytarmailS:

für mich ist es noch schwieriger)

====


assoziatives Netzwerk

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


Und das assoziative Bild ist ein Prototyp eines Clusters.

Nun, ja, aber es hat keine Erinnerung an die vorherigen Handlungen des Agenten, das ist etwas anderes.

Ich werde die Mappe noch einmal durchlesen, dann werde ich mich mit dem Code beschäftigen.

 
Maxim Dmitrievsky:

Nun, ja, aber es gibt keine Erinnerung an die vorherigen Handlungen des Agenten, das ist etwas anderes.

Ich werde die Mappe noch einmal lesen und dann im Code herumstöbern.

Mal sehen, mal nachdenken )

eine Agentenaktion ist ein Bild, ein Muster (Cluster)

die Abfolge von Aktionen (Clustern) ist der Speicher


eine Agentenaktion oder etwas anderes kann als eine Folge von Clustern dargestellt werden

aber ein Muster wie "Kaffee einschenken" aber "der Kaffee muss schon gebrüht sein"


kann als ein Muster von Übergängen dargestellt werden


 
mytarmailS:

Mal sehen, mal nachdenken.)

eine Agentenaktion ist ein Bild, ein Muster (Cluster)

eine Abfolge von Aktionen (Clustern) wird gespeichert

eine Agentenaktion oder was auch immer kann als eine Folge von Clustern dargestellt werden

Das stimmt nicht ganz. Die vorangegangene Handlung eines Agenten + der Zustand der Umgebung (eine Reihe von Merkmalen) ist ein Muster (bedingter Zustand). Sowohl frühere Aktionen als auch Merkmale werden in 1 Vektor zusammengefasst.

Aber in Neuronen gibt es keine expliziten Informationen über die Abfolge der durchlaufenen Muster, sondern nur über die Speicherung von Ausgangssignalen. Und dort wurde nur 1 (aktuelles) Muster verarbeitet. D.h. komplexere bedingte Zustände werden irgendwie von einer Gruppe von Neuronen kodiert.

 

Maxim Dmitrievsky:

Sowohl die vorherige Aktion als auch die Fiches werden in einen Vektor geschoben.

Bei Neuronen gibt es jedoch keine expliziten Informationen über die Reihenfolge, sondern nur über die Speicherung von Ausgangssignalen. Und dort wurde nur 1 Muster verarbeitet.

Nun, dies kann auch auf einen einzigen Vektor reduziert werden, durch die gleiche umap. Ich habe 2k Chips auf diese Weise komprimiert)

 
mytarmailS:

Nun, es kann in einem einzigen Vektor konsolidiert werden, durch die gleiche umap. So habe ich 2k Chips komprimiert)

Das ist die Aufgabe dieser Ebene.