Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 632

 
Maxim Dmitrievsky:

Ich habe mir Gedanken über das Erlernen von Re-Informationen gemacht und bin auf diesen interessanten Artikel gestoßen, den ich kaufen und vielleicht in den Bot einbauen möchte.

https://hackernoon.com/the-self-learning-quant-d3329fcc9915

Nur, dass er am Ende irgendeine Art von Dope hat, das er aus irgendeinem Grund nur zu kaufen lernt.

Ich habe die gleiche Situation - der NS-Klassifikator bleibt oft in einer Klasse stecken. Die Klassen müssen angeglichen werden. Aber ich habe 95% der einen Klasse und 5% der anderen. *20 Zeilen sind nicht erwünscht.
Das ist ungefähr dasselbe wie in dem Artikel, und ich verstehe das.

Ich denke, ich werde zu Regression/Prognose wechseln, um zu experimentieren und zu sehen, was passieren wird...

 
Maxim Dmitrievsky:

Ich habe mir Gedanken über das Erlernen von Re-Informationen gemacht und bin auf diesen interessanten Artikel gestoßen, den ich kaufen und vielleicht in den Bot einbauen möchte.

https://hackernoon.com/the-self-learning-quant-d3329fcc9915

Ich versuche, einen Bot zu kaufen, aber er ist ein bisschen doof, er lernt aus irgendeinem Grund erst am Ende zu kaufen.

Nun, er selbst hat dort erklärt, dass das in Ordnung ist, weil es dort einen klaren Aufwärtstrend gibt. Ein Kommentator sagt dort auch, dass sein Agent es vorzieht, eine Long-Position zu halten. Ja, und der Autor selbst spricht von der geringen Länge der Geschichte. Auch im Code hat er kein Gamma verwendet, um den Wert der Prämie im Laufe der Zeit zu regulieren.

Und im Allgemeinen ist der Artikel nützlich, weil er Hinweise auf zwei gute Bibliotheken im Code gibt.
Eine zum Laden verschiedener Marktdaten, die andere zur Anwendung verschiedener Indikatoren auf die Daten. Ich habe es für mich genommen.


https://www.quandl.com/tools/python
https://mrjbq7.github.io/ta-lib/

 
elibrarius:

Ich habe die gleiche Situation - der NS-Klassifikator geht oft in dieselbe Klasse. Die Klassen müssen aufeinander abgestimmt werden. Aber ich habe 95% der einen Klasse und 5% der anderen. *20 Zeilen sind nicht erwünscht.
Das ist in etwa das Gleiche wie in dem Artikel und ich verstehe.

Ich denke darüber nach, zu Regression/Prognose zu wechseln, um zu experimentieren und zu sehen, was passiert...

Auch ich bin mit dieser Situation konfrontiert.
Merkmalsauswahl, Regularisierung und viele Ausfälle machen das Modell stabiler. Alles ohne Ausrichtung, reiner Zeitreihenfluss.

Aus irgendeinem Grund habe ich viel mit Klassen herumgespielt. In meinem Fall (ml-assistant) ist die Signalbeständigkeit eine einzelne Zahl [-1,1]. Das heißt, theoretisch kann man sofort eine Regression erstellen (die auch recht gut ausfällt), aber die Vorhersage ist dort weniger "lesbar".
Um sie zu klassifizieren, müssen wir sie in Klassen einteilen, und die Softmax-Idee besteht darin, die Summe der Klassen mit 1,0 gleichzusetzen. Letztendlich stellte sich aber heraus, dass es am korrektesten ist, sie einfach relativ zu Null zu teilen, da das Modell selbst die Summe der Klassen auf 1 normalisiert, unabhängig von der Zielsetzung.

Aber wenn ich eine dritte Pass-Klasse hinzufüge, ist das aus irgendeinem Grund ein ständiges Übertraining. Vielleicht bereite ich es nicht richtig vor. =)

 
elibrarius:

Ich habe die gleiche Situation - der NS-Klassifikator geht oft in eine Klasse. Die Klassen müssen angeglichen werden. Aber ich habe 95% der einen Klasse und 5% der anderen. *20 Zeilen sind nicht erwünscht.
Das ist in etwa das Gleiche wie in dem Artikel und ich verstehe.

Ich denke darüber nach, zu Regression/Prognose zu wechseln - um zu experimentieren und zu sehen, was passiert...

Von 10-12k Stichproben: ~800 sind Klasse 1, der Rest ist Klasse 0. Das ist die Realität).

In einem klugen Buch habe ich gelesen, dass das quantitative Verhältnis der Klassen in einer Ausbildungssequenz der Realität nahe kommen sollte.

 
Yuriy Asaulenko:

Von einer Stichprobe von 10-12.000: ~800 sind Klasse 1, der Rest ist Klasse 0. Das ist die Realität).

In einem klugen Buch habe ich gelesen, dass das quantitative Verhältnis der Klassen in einer Ausbildungssequenz der Realität nahe kommen sollte.

und andere schlaue Bücher sagen, dass die Klassen ausgewogen/kombiniert sein müssen.

d. h. in Forex haben wir keine Ahnung von der Grundgesamtheit, und es liegt auf der Hand, dass die Anzahl der Elemente in den Klassen ungefähr gleich sein sollte.

 
Hallo zusammen!!! Kann jemand die Bedeutung der negativen Entropie klar erklären? In einfachen Worten......
 

Ein interessantes Video über Zufälligkeiten von einem klugen Mann


 
Mihail Marchukajtes:
Hallo zusammen!!! Kann jemand erklären, was negative Entropie bedeutet? In einfachen Worten......

Hier steht, was kluge Leute schreiben:

"Die Nicht-Entropie θ entspricht einem "strukturellen" Wert, der durch die charakteristische Menge der Erinnerung an die Vergangenheit bestimmt wird. Wenn θ groß ist, entstehen komplexe hierarchische Strukturen in einem weiten Bereich, wenn θ klein ist, entstehen Strukturen in einem kleinen Bereich, und wenn θ → 0 ist, d.h. keine Informationen über die Vergangenheit vorliegen, gibt es einen marginalen Übergang zu markovianischen Prozessen."

Dies ist der Wert, der die Nicht-Markovianität des Prozesses kennzeichnet. Da ich mich mit Wahrscheinlichkeitsverteilungen beschäftige, habe ich herausgefunden, dass diese Sache für die Art der "Schwänze" der Verteilungen verantwortlich ist.
 
Mihail Marchukajtes:
Hallo zusammen!!! Kann jemand erklären, was negative Entropie bedeutet? In einfachen Worten......

Entropie ist ein Maß für Unordnung oder Chaos, Nicht-Entropie (negative Entropie) ist ein Maß für Anstand und den Grad der Selbstorganisation. Ein ungelöster Zucker in einem Bechersystem hat eine minimale Entropie, sobald er vollständig aufgelöst ist, hat das System eine maximale Entropie. Um das System in seinen Ausgangszustand zurückzuversetzen, muss Entropie von außen zugeführt werden - um eine Kristallisationsbedingung zu schaffen. Im Falle von NS muss das System ständig neue Informationen von außen aufnehmen und überflüssige Informationen loswerden, sonst führt eine Zunahme der Entropie zu seinem Tod.

 
Yousufkhodja Sultonov:

Entropie ist ein Maß für Unordnung oder Chaos, Nicht-Entropie (negative Entropie) ist ein Maß für Ordnung und den Grad der Selbstorganisation. Ein ungelöster Zucker in einem Bechersystem hat eine minimale Entropie, nach vollständiger Auflösung hat das System eine maximale Entropie. Um das System in seinen Ausgangszustand zurückzuversetzen, muss Entropie von außen zugeführt werden - um eine Kristallisationsbedingung zu schaffen. Im Falle von NS muss das System ständig neue Informationen von außen aufnehmen und überflüssige Informationen loswerden, sonst führt eine Zunahme der Entropie zu seinem Tod.

Ausgezeichneter Kommentar. Genau so ist es.