Diskussion zum Artikel "Neuronale Netze leicht gemacht (Teil 54): Einsatz von Random Encoder für eine effiziente Forschung (RE3)"

 

Neuer Artikel Neuronale Netze leicht gemacht (Teil 54): Einsatz von Random Encoder für eine effiziente Forschung (RE3) :

Wann immer wir Methoden des Verstärkungslernens in Betracht ziehen, stehen wir vor dem Problem der effizienten Erkundung der Umgebung. Die Lösung dieses Problems führt häufig dazu, dass der Algorithmus komplizierter wird und zusätzliche Modelle trainiert werden müssen. In diesem Artikel werden wir einen alternativen Ansatz zur Lösung dieses Problems betrachten.

Das Hauptziel der Methode Random Encoders for Efficient Exploration (RE3) ist es, die Anzahl der trainierten Modelle zu minimieren. Die Autoren der RE3-Methode weisen in ihrer Arbeit darauf hin, dass im Bereich der Bildverarbeitung nur Faltungsnetze in der Lage sind, einzelne Objektmerkmale und -charakteristika zu erkennen. Faltungsnetzwerke helfen dabei, die Dimension des mehrdimensionalen Raums zu reduzieren, charakteristische Merkmale hervorzuheben und die Skalierung des Originalobjekts zu bewältigen.

Hier stellt sich die berechtigte Frage, von welcher Art von Minimierung der trainierten Modelle wir sprechen, wenn wir zusätzlich auf Faltungsnetze zurückgreifen.

In diesem Zusammenhang ist das Schlüsselwort „trainiert“. Die Autoren der Methode wiesen darauf hin, dass selbst ein Faltungscodierer, der mit zufälligen Parametern initialisiert wird, effektiv Informationen über die Nähe zweier Zustände erfasst. Unten finden Sie eine Visualisierung der k-nächsten Zustände, die durch Messung der Abstände im Repräsentationsraum des Zufallscodierers (Random Encoder) und im Raum des wahren Zustands (True State) aus der Arbeit des Autors gefunden wurden.

Visualisierung der k-nächsten Zustände

Autor: Dmitriy Gizlyk