Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 638

 
Mihail Marchukajtes:

Um die Kreuzentropie zu ermitteln, müssen Sie zunächst die bedingte Entropie der beiden Ereignisse ermitteln, was ich jetzt tue....

Und die Schätzung der Modellentropie ist erforderlich, wenn das Modell mit Rückkopplung läuft. Nachdem wir ein Signal ausgegeben haben, können wir die Entropie dieses Signals berechnen und daraus Schlussfolgerungen ziehen. Die Entropie des Signals hat sich erhöht. Scheiß drauf, es ist gefallen - das ist unsere Dampflokomotive ....

Für den Trendhandel - ja, genau. Michael, lassen Sie uns schneller gehen, denn mein Schwiegervater ist bereits drehen seine Fäuste in meinem Gesicht in einem Ansturm von Geld aus Forex, erlaubt mir nicht, auf die Entropie / Nicht-Entropie konzentrieren ...

 
Mihail Marchukajtes:

Um die Kreuzentropie zu ermitteln, müssen Sie zunächst die bedingte Entropie der beiden Ereignisse ermitteln, was ich jetzt tue....

Sie haben eine andere Kreuzentropie als ich, da kann ich nicht helfen. Obwohl ich auch ein Fahrrad habe, werde ich nicht darüber streiten, was besser ist :)

Schauen Sie sich die R-Pakete zu diesem Thema an. Es sieht so aus, als obhttps://cran.r-project.org/web/packages/EMVC/EMVC.pdf für Sie geeignet wäre, um sowohl Entropie als auch Kreuzentropie zu finden und die Prädiktoren herauszufiltern.

 
Dr. Trader:


Ich habe keine Informationstheorie studiert, aber ich habe einige Erfahrung mit Entropie in R.

Grundsätzlich gilt: Je höher die Entropie, desto mehr Chaos herrscht in den Daten. Ein Prädiktor mit hoher Entropie hat einen eher schlechten Bezug zum Ziel. Umgekehrt bedeutet eine niedrige Entropie, dass der Prädiktor leicht vom Prädiktor zu unterscheiden ist.

Die Nicht-Entropie ist das Gegenteil der Entropie, sie bringt keine neuen Erkenntnisse im Vergleich zur Entropie, sie wird nur aus Bequemlichkeit eingeführt. Wenn der Prädiktor eine große Entropie hat, dann ist die Nicht-Entropie klein. Wenn die Entropie klein ist, dann ist die Nicht-Entropie groß. Es ist wie Hitze und Kälte, Licht und Dunkelheit usw., eines geht nahtlos in das andere über.

Aber das ist noch nicht alles, es gibt auch eine Kreuzentropie. Dies zeigt, wie die beiden Prädiktoren zusammen mit dem Ziel in Beziehung stehen: eine hohe Kreuzentropie ist schlecht, eine niedrige ist gut. Beim maschinellen Lernen kommt es häufig vor, dass zwei Prädiktoren mit hoher Entropie bei gemeinsamer Verwendung eine niedrige Kreuzentropie ergeben, was wir alle brauchen. Auch wenn jeder der Prädiktoren für sich genommen schlecht mit dem Ziel assoziiert sein mag (hohe Entropie für beide), können sie zusammen doch ins Schwarze treffen (niedrige Kreuzentropie). Man kann also nicht einfach die Entropie jedes Prädiktors einzeln messen und eine Menge entsprechend der Schätzung auswählen. Sie müssen den gesamten Satz von Prädiktoren mit niedriger Kreuzentropie auswählen, ich zum Beispiel schaue nicht darauf, wie hoch ihre Entropie einzeln ist.

Hier sind einige Beispiele.

1) Prädiktor mit hoher Entropie. Es gibt überhaupt keine Möglichkeit, die Zielklasse vorherzusagen.

2) Prädiktor mit geringer Entropie. Wenn man genau hinsieht, ist der Klassenwert = 1, wenn der Wert des Prädiktors zwischen 0 und 0,25 oder weniger als 0,4 liegt. Andernfalls ist die Klasse = 2. Dies ist ein sehr praktischer Prädiktor für die Verwendung in MO.

3) Zwei Prädiktoren, von denen jeder eine hohe Entropie aufweist, und das Modell wird niemals in der Lage sein, das Ziel nur mit dem ersten oder nur mit dem zweiten Prädiktor vorherzusagen. Zeichnet man sie jedoch zusammen (X-Achse ist der Wert des ersten, Y-Achse der des zweiten), kann man sofort sehen, dass sie zusammen sehr gute Informationen über die Klasse des Ziels liefern (gleiches Vorzeichen für beide Prädiktoren = Klasse 1, anderes Vorzeichen = Klasse 2). Dies ist ein Beispiel für eine geringe Kreuzentropie.


Vielleicht nur die Hauptkomponenten?

 
Ich erinnere mich! Dennis Kirichenko war der erste, der vorschlug, die Entropie/Nicht-Entropie zu berücksichtigen. Ich bin buchstäblich in Tränen ausgebrochen angesichts des bevorstehenden Glücks des Geldes.
 

http://padabum.com/d.php?id=223567

nein danke

wieder lesen... wann wird es enden

Обучение с подкреплением
Обучение с подкреплением
  • Stimmen: 1
  • padabum.com
Обучение с подкреплением является одной из наиболее активно развивающихся областей, связанных с созданием искусственных интеллектуальных систем. Оно основано на том, что агент пытается максимизировать получаемый выигрыш, действуя в сложной среде с высоким уровнем неопределенности. Дается исчерпывающее и ясное изложение идей...
 
Maxim Dmitrievsky:

http://padabum.com/d.php?id=223567

nein danke

wieder lesen... wann wird es enden?

Vielen Dank für das Buch.

Nein, solche Links werden beim Installationsvorgang nicht heruntergeladen).

 
Yuriy Asaulenko:

Vielen Dank für das Buch.

Nein, solche Links werden beim Installationsvorgang nicht heruntergeladen).

Alles wird normal heruntergeladen, ohne jegliche Installation

pdf ist leer, ich kann in djvu konvertieren und senden
 
SanSanych Fomenko:

Vielleicht nur die Hauptkomponenten?

Die Hauptkomponenten werden ohne Targeting-Analyse berechnet. Es ist möglich, die Hauptkomponenten zu finden, aber ob sie für die Vorhersage des richtigen Ziels nützlich sind, ist nicht im Voraus bekannt.

Und die Kreuzentropie kann in Bezug auf ein bestimmtes Ziel berechnet werden, und das Ergebnis zeigt, welche Prädiktoren entfernt werden sollten, weil sie stören.
Ich wollte das EMCV-Paket ausprobieren, ich wünschte, ich hätte es vorher bemerkt. Wenn es funktioniert, werde ich später Beispiele für seine Verwendung hier posten.

 
Maxim Dmitrievsky:

Alles wird normal heruntergeladen, ohne irgendwelche Einstellungen.

Entschuldigung, ich habe den falschen "Download"-Knopf gedrückt und es gibt eine exe.

Alles ist gut.

 
Yuriy Asaulenko:

Entschuldigung, ich habe den falschen "Download"-Button gedrückt. Das ist in Ordnung.

Es ist nur eine Werbetaste, es ist Zeit, mehr Erfahrung auf Piratenseiten zu haben ))