Von der Theorie zur Praxis - Seite 295

 
Renat Akhtyamov:
Sie sagen also, dass sich die parallelen Linien (Unterstützung und Widerstand) überschneiden?

Der Preis! Nun, oder das Integral der Rückkehrer.

 
Alexander_K2:

Der Preis! Nun, oder das Integral der Rendite.

Hier ist eine Möglichkeit, Entropie zu nutzen

npdeneqtest Nichtparametrischer Test auf Gleichheit der Dichten

npdeptest Nichtparametrischer Entropie-Test für paarweise Abhängigkeit

npsdeptest Nichtparametrischer Entropietest für serielle nichtlineare Abhängigkeit

npsymtest Nichtparametrischer Entropie-Test auf Asymmetrie

npunitest Nichtparametrischer Entropie-Test für univariate Dichtegleichheit


Hier ist die Dokumentation. Hier sind die Formeln: Entropie-basierte Inferenz mit R und dem np-Paket: Eine Einführung

Dateien:
np.zip  2331 kb
 
Alexander_K2:

Ich habe die Berechnungsformel nur auf Wikipedia gesehen:

Sie vergleicht die aktuelle Wahrscheinlichkeitsverteilung mit einer Normalverteilung als Maß für das Chaos.

Ich verstehe die Idee nicht.

Was ich aus Ihrem Satz herausgelesen habe, ist, dass ein geordneter Prozess keine Normalverteilung haben kann.

Darf ich fragen, warum eine solche Aussage?

Wie hängen Chaotik und Normalität zusammen?

ZS Ich widerspreche dem nicht, ich frage mich nur.

 
Nikolay Demko:

ein geordneter Prozess kann keine Normalverteilung haben.


Es ist ein Rätsel! Schhhhhh...

Deshalb lese ich philosophische Abhandlungen über Nicht-Entropie.

Zum Beispiel.

 
Nikolay Demko:

Geben Sie mir wenigstens einen Hinweis, wie ich diese Agentropie berechnen kann.

Weil du so fluchst und verstanden werden willst.

ZZZ Ich habe in aller Ruhe gegoogelt und alles indexiert, aber ich konnte nichts anderes als allgemeine Phrasen finden. Die Nicht-Entropie ist das Gegenteil der Entropie, die ein Maß für die Ordnung ist. Das ist alles, was ich nach einem Abend des Googelns herausgefunden habe.

Ich habe es nicht gegoogelt, aber ich kann mir nicht vorstellen, dass sich Unterstützungslinien mit Widerstandslinien kreuzen; es sei denn, es geht um die Stifte...

 
Алексей Тарабанов:

Ich habe es nicht gegoogelt, aber ich kann mir nicht vorstellen, dass sich Unterstützungslinien mit Widerstandslinien kreuzen; es sei denn, es handelt sich um die Mash-ups, über die wir sprechen...

Sie haben eine Kopenhagener Auslegung. Es könnte alles Mögliche drin sein.

 
Yuriy Asaulenko:

Es handelt sich um eine Kopenhagener Interpretation. Es könnte alles Mögliche drin sein.

Sollen wir auf die Reaktion unserer geschätzten Kollegen warten?

 

Wikipedia schreibt - Der Begriff [Nicht-Entropie] wird manchmal in der Physik und Mathematik (Informationstheorie, mathematische Statistik) verwendet, um eine Größe zu bezeichnen, die dem Wert der Entropie mathematisch entgegengesetzt ist.
https://ru.wikipedia.org/wiki/Негэнтропия

Es ist also möglich, die Entropie zu berechnen und sie einfach mit einem negativen Vorzeichen zu nehmen, um die Nicht-Entropie zu erhalten.


Berechnung der Entropie in R, die einfachste Methode unter den Dutzenden, die es gibt (empirische Entropie):

1) Es gibt eine Zahlenreihe 2 7 4 3 7 9 4 4 4 4 4 1 3 10 3 8 4 9 10 7, an der wir interessiert sind.

2) Zähle die Anzahl der Wiederholungen jedes Wertes:
1: 1
2: 1
3: 3
4: 7
7: 3
8: 1
9: 2
10: 2
Erstelle eine neue Reihe von Zahlen 1 1 3 7 3 1 2
Zähle die Summe der Zahlen
Summe = 1 + 1 + 3 + 3 + 7 + 3 + 1 + 2 + 2 = 20
(logischerweise ist die Summe == die Länge der Zeile im ersten Element)
und nun dividieren:
1/20 1/20 3/20 7/20 3/20 1/20 2/20 2/20
Wir erhalten:
0.05 0,05 0,15 0,35 0,15 0,05 0,10 0,10
ist die Verteilungsdichte der Zahlen in der Reihe ab der ersten Position.

3) Entropie = - sum(freq*log(freq) (Formel für Vektoren in R-Syntax. log() natural)
H = - (0.05*log(0.05) + 0.05*log(0.05) + 0.15*log(0.15) + 0.35*log(0.35) + 0.15*log(0.15) + 0.05*log(0.05) + 0.10*log(0.10) + 0.10*log(0.10) )
H wäre die Entropie.

4) Es gibt auch eine Skala, wenn der Benutzer eine Operation auf das Ergebnis
H / log(2)
oder
H / log(10) durchführen möchte

5) Multipliziert man H mit -1, erhält man die Nicht-Entropie.

 
Dr. Trader:

5) Multipliziert man H mit -1, erhält man die Nicht-Entropie.

Wenn es so einfach wäre, hätte ich die angesehenen Mathematiker nicht gebeten, sich mit dieser Frage zu befassen.

Noch einmal:

Sie ist die Differenz zwischen der aktuellen Wahrscheinlichkeitsverteilung der Inkremente und der Gaußschen Verteilung mit gleichem Erwartungswert und gleicher Varianz für einen bestimmten Stichprobenumfang.

Das Problem ist, dass die Varianz der Inkremente nicht mit der üblichen Formel berechnet werden kann (das Einzige, was die Mathematik-Kinder, die dieses Forum auf der Suche und im Elend überschwemmt haben, wissen). Sie müssen nicht-parametrische Methoden anwenden :))

 

Außerdem hat diese Formel eine tiefe philosophische und physikalische Bedeutung. Wir haben ein Maß für die Strukturiertheit des Prozesses, seine Abweichung vom Chaos.

Meine Herren! Fröhliche alte Männer und junge Leute!

DieNicht-Entropie ist der Parameter, der den Zustand von Trend/Flat bestimmt!!!

Ich stelle sie Ihnen vor.