Diskussion zum Artikel "Techniken des MQL5-Assistenten, die Sie kennen sollten (Teil 03): Shannonsche Entropie"

 

Neuer Artikel Techniken des MQL5-Assistenten, die Sie kennen sollten (Teil 03): Shannonsche Entropie :

Der Händler von heute ist ein Philomath, der fast immer (entweder bewusst oder unbewusst...) nach neuen Ideen sucht, sie ausprobiert, sich entscheidet, sie zu modifizieren oder zu verwerfen; ein explorativer Prozess, der einiges an Sorgfalt kosten sollte. Diese Artikelserie wird vorschlagen, dass der MQL5-Assistent eine Hauptstütze für Händler sein sollte.

Claude Shannon veröffentlichte 1948 seinen Aufsatz „A mathematical theory of communication“ (Eine mathematische Theorie der Kommunikation), das eine neuartige Idee der Informationsentropie enthielt. Entropie ist ein Begriff aus der Physik. Sie ist ein Maß dafür, inwieweit Teilchen innerhalb eines Objekts aktiv sind. Betrachtet man beispielsweise die drei Zustände von Wasser, nämlich Eis, Flüssigkeit und Dampf, so stellt man fest, dass die kinetische Energie der Teilchen im Dampf am höchsten und im Eis am niedrigsten ist. Das gleiche Konzept wird in der Mathematik über die Wahrscheinlichkeit angewandt. Betrachten Sie die folgenden drei Sätze.

Satz 1: 

Set 1


Satz 2: 

Set 2


Satz 3: 

Set 3


Wenn Sie raten müssten, welche dieser Mengen weist die höchste Entropie auf? 
Wenn Sie sich für die letzte Variante entschieden haben, haben Sie Recht, aber wie können wir diese Antwort überprüfen? Am einfachsten lässt sich diese Frage beantworten, indem man die Anzahl der Möglichkeiten, jede Menge neu zu organisieren, als Entropieschätzung verwendet und dabei ähnliche Farbabschnitte ignoriert. Für die erste Menge gibt es daher nur eine Möglichkeit, sie „neu zu ordnen“. Wenn wir uns jedoch die nachfolgenden Mengen ansehen, nimmt die Anzahl der Permutationen in Bezug auf die Farbe deutlich zu, so dass man argumentieren könnte, dass die letzte Menge die höchste Entropie aufweist. 

Autor: Stephen Njuki