Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 637

 
Alexander_K2:

:)))) In diesem Fall sollte Sorcerer um Hilfe gebeten werden :))))

Das Einzige, was ich sagen kann, ist, dass es die Nicht-Entropie ist, die für den Trend/den flachen Zustand verantwortlich ist. Der Trend ist das "Gedächtnis" des Prozesses, sein "Schwanz" der Verteilung und die Nicht-Entropie ist riesig, während sie im flachen Zustand fast 0 ist. Ich habe nur selbst damit zu tun, aber ich verstehe die Bedeutung dieses wenig untersuchten Parameters.

Da kann nichts mehr helfen. Der Trend-/Flottenwechsel, wie ein Löffel zum Essen, sollte rechtzeitig gut sein.

Die rote Linie ist der tatsächliche Wert. Syn.-Modell. In diesem Beispiel ist es spät. Unteres Bild, das Modell ist spät dran.


 
Mihail Marchukajtes:
Brüder, es ist nur ein kleiner Schritt für uns, aber es wird ein großer Schritt für die ganze Menschheit sein.....

Misha, ich habe es geglaubt! Ich wusste es! Hübsch! Ihr seid die Besten!))

 
Eidechse_:

Misha, ich habe es geglaubt! Ich wusste es! Hübsch! Du bist der Beste!)))

Vielen Dank für Ihre Unterstützung mate!!!!! Ich brauche es wirklich. Schreib es einfach richtig, wenn du mich das nächste Mal ansprichst. HandsomeGGGG!!!! Das klingt viel solider als ....

 

Lassen Sie uns fortfahren...

Es gibt zwei Spalten mit Werten, ich habe die Wahrscheinlichkeit eines Ereignisses in Spalte A und die Wahrscheinlichkeit eines anderen Ereignisses in Spalte B berechnet. Die Bedingung ist ganz einfach >0. Ich habe die Anzahl der Ereignisse größer als Null in Spalte A gezählt und durch die Gesamtzahl der Zeilen geteilt, ebenso habe ich die Anzahl der Werte in Spalte B gezählt und durch die Gesamtzahl der Beobachtungen geteilt.

Wie berechne ich nun anhand meiner Werte die bedingte Wahrscheinlichkeit???? Da ich zwei Spalten habe und beide 40 Zeilen haben????

 
Mihail Marchukajtes:

Okay, ich werde die Sache von der anderen Seite angehen. Angenommen, ich habe einen Satz von 100 Eingängen. Ich berechne die Entropie für jede Eingabe und erhalte Ergebnisse von -10 bis 10. Frage: Welche Eingaben sind zu bevorzugen: ????

Angenommen, ich habe 10 Eingänge unter Null, der Rest darüber, ABER alle Werte liegen zwischen -10 und 10.....

Mihail Marchukajtes:

Und außerdem... kann ich die gegenseitigen Informationen nicht berechnen.... Oder vielmehr die bedingte Wahrscheinlichkeit für die anschließende Berechnung von Entropie und VI.

Kann jemand erklären, auf die Finger oder besser Beispiel.

erste Spalte 40 Zeilen Eingabevariable

zweite Spalte 40 Zeilen Ausgabe....

Ich habe über Nacht eine Menge Arbeit geleistet, um die Hypothese zu ermitteln. Ich bin über diese Dinge gestolpert, und das auf keinen Fall. Bitte helfen Sie mir und ich werde meine Gedanken zu meiner Hypothese darlegen...


Ich habe keine Informationstheorie studiert, aber ich habe einige Erfahrung mit Entropie in R.

Grundsätzlich gilt: Je größer die Entropie, desto mehr Chaos herrscht in den Daten. Ein Prädiktor mit hoher Entropie hat einen eher schlechten Bezug zum Ziel. Umgekehrt bedeutet eine niedrige Entropie, dass der Prädiktor leicht vom Prädiktor zu unterscheiden ist.

Nicht-Entropie ist das Gegenteil von Entropie, sie bringt keine neuen Erkenntnisse im Vergleich zur Entropie, sie wird nur aus Bequemlichkeit eingeführt. Wenn der Prädiktor eine große Entropie hat, ist die Nichtentropie klein. Wenn die Entropie klein ist, dann ist die Nicht-Entropie groß. Es ist wie Hitze und Kälte, Licht und Dunkelheit usw., eines geht nahtlos in das andere über.

Aber das ist noch nicht alles, es gibt auch eine Kreuzentropie. Dies zeigt, wie die beiden Prädiktoren zusammen mit dem Ziel in Beziehung stehen: eine hohe Kreuzentropie ist schlecht, eine niedrige ist gut. Beim maschinellen Lernen kommt es häufig vor, dass zwei Prädiktoren mit hoher Entropie bei gemeinsamer Verwendung eine niedrige Kreuzentropie ergeben, was wir alle brauchen. Auch wenn jeder der Prädiktoren für sich genommen schlecht mit dem Ziel assoziiert sein mag (hohe Entropie für beide), können sie zusammen doch ins Schwarze treffen (niedrige Kreuzentropie). Man kann also nicht einfach die Entropie jedes Prädiktors einzeln messen und entsprechend der Schätzung einen Satz auswählen. Sie müssen die gesamte Gruppe von Prädiktoren mit niedriger Kreuzentropie auswählen, ich zum Beispiel schaue mir nicht an, wie hoch ihre Entropie einzeln ist.

Hier sind einige Beispiele.

1) Prädiktor mit hoher Entropie. Es gibt überhaupt keine Möglichkeit, die Zielklasse vorherzusagen.

2) Prädiktor mit geringer Entropie. Wenn man genau hinsieht, ist der Klassenwert = 1, wenn der Wert des Prädiktors zwischen 0 und 0,25 oder weniger als 0,4 liegt. Andernfalls ist die Klasse = 2. Dies ist ein sehr praktischer Prädiktor für die Verwendung in MO.

3) Zwei Prädiktoren, von denen jeder eine hohe Entropie aufweist, und das Modell wird niemals in der Lage sein, das Ziel nur mit dem ersten oder nur mit dem zweiten Prädiktor vorherzusagen. Zeichnet man sie jedoch zusammen (X-Achse ist der Wert des ersten, Y-Achse der des zweiten), kann man sofort sehen, dass sie zusammen sehr gute Informationen über die Klasse des Ziels liefern (gleiches Vorzeichen für beide Prädiktoren = Klasse 1, anderes Vorzeichen = Klasse 2). Dies ist ein Beispiel für eine geringe Kreuzentropie.


 
Mihail Marchukajtes:

Vielen Dank für Ihre Unterstützung Fellow!!!!! Ich brauche es wirklich. Schreib es einfach richtig, wenn du mich das nächste Mal ansprichst. HandsomeGGGGG!!!! Das klingt so viel solider....

Deshalb lieben wir Sie, Herr Lehrer! Er ist immer da und korrigiert uns immer. Du bist unser lieber Mann!!!))

"Mishanins Zeugen". Februar 2018.


 
Ungeachtet der gegenseitigen Beschuldigungen werde ich weitermachen. Ich habe die bedingte Wahrscheinlichkeit wie folgt berechnet. Die Anzahl der Daten, die die Bedingung erfüllen, beträgt in der ersten Spalte 19, in der zweiten 20. Um die bedingte Wahrscheinlichkeit zu ermitteln. Ich addiere 19+20 und teile das Ganze durch die Gesamtzahl der Einträge, die 80 beträgt (40 in der ersten und 40 in der zweiten Spalte). Und man muss durch die Wahrscheinlichkeit dividieren.... Wenn ich eine Spalte A - Eintritt und eine Spalte B - Austritt habe, müssen Sie die Gesamtwahrscheinlichkeit durch die Wahrscheinlichkeit der Eintrittsspalte dividieren, um die bedingte Wahrscheinlichkeit des Eintritts in den Austritt zu ermitteln. Ist das richtig?
 
Mihail Marchukajtes:

Nochmals eine Frage. Es gibt acht Modelle von NS. Bei dem aktuellen Signal sind die Entropien der NS-Ausgänge wie folgt

5.875787568 -5.702601649 5.066989592 9.377441857 7.41065367 1.401022575 4.579082852 5.119647925

Welche wollen Sie? Die rote? weil sie eine negative Entropie hat, oder die blaue? weil sie näher an Null liegt. Ich werde sagen, dass diese beiden Modelle in unterschiedliche Richtungen schauen, aber wir wissen, dass die Zeit zeigen wird, wer Recht hatte.... Am Ende wird einer von ihnen gewinnen. Wer denkt darüber nach?

Ich fasse zusammen, was ich oben geschrieben habe: Sie müssen zunächst die Kreuzentropie der Prädikatorenkombinationen bestimmen und dann die Prädikatorenkombination wählen, bei der die Kreuzentropie niedriger ist. Seltsam, dass es negativ ist, in meinem Fall ist es einfach unendlich bis null, aber egal, dann nimm den negativsten Wert.

Die Entropie des NS-Outputs ist meiner Meinung nach ein schlechter Schätzwert für die Neuronen selbst. Man kann die Ausgaben des Netzes so anpassen, dass es in 100 % der Fälle eine richtige Antwort gibt, und es wird eine niedrige Entropie haben, aber es kann eine große Überanpassung haben. Überfütterung ist schlecht.

 

Der Punkt ist, dass ich ein Add-on für Excel gefunden habe, das die Entropie berechnet. Ich habe es so fertiggestellt, wie ich es möchte, ohne die Logik der Berechnung zu ändern, und deshalb habe ich diese Frage. Erklären Sie, was bei der Berechnung dieser Zyklopen vor sich geht. Was sie genau tun, verstehe ich, aber auf eine andere Weise.... HM....

For Each Value In ActiveSheet.Range(Data1)

X(I) = Wert

Nn = Nn + Wert

I = I + 1

Nächster Wert

In dieser Schleife wird das Array X geschrieben und es gibt auch eine kumulative Summe, als ob es keine Frage gäbe, aber weiter....

Für I = 1 bis N

X(I) = X(I) / Nn

Nächste I

Wir teilen jedes Element des Arrays durch die Gesamtsumme der Werte, ich vermute, das ist nur die Frequenzsuche. Rechts????

Ok... Ich glaube, ich habe es verstanden, wir müssen alle Frequenzen addieren, um die Wahrscheinlichkeit zu finden. Richtig?

 
Dr. Trader:

Um zusammenzufassen, was ich oben geschrieben habe, bestimmen Sie zunächst die Kreuzentropie der Prädiktorenkombinationen und nehmen die Prädiktorenkombination mit der geringeren Kreuzentropie. Es ist seltsam, dass er negativ ist, in meinem Fall ist er einfach unendlich bis null, aber egal, dann nehmen Sie den negativsten Wert.

Die Entropie des NS-Outputs ist meiner Meinung nach ein schlechter Schätzwert für die Neuronen selbst. Sie können die Ausgaben des Netzes so anpassen, dass es in 100 % der Fälle eine richtige Antwort gibt, und es wird eine niedrige Entropie haben, aber es kann eine große Überanpassung haben. Überfütterung ist schlecht.

Um die Kreuzentropie zu ermitteln, muss man zunächst die bedingte Entropie von zwei Ereignissen ermitteln, was ich jetzt tue....

Und die Schätzung der Modellentropie ist erforderlich, wenn das Modell in OOS ist. Nachdem wir ein Signal ausgegeben haben, können wir die Entropie dieses Signals berechnen und daraus Schlussfolgerungen ziehen. Die Entropie des Signals hat sich erhöht. Scheiß drauf, sie ist kaputt - es ist unsere Dampflokomotive....