Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3386

 


mytarmailS #:

Ich werde es von Chabarowsk aus versuchen...


Jedes Modell ist eine bestimmte Summe von Mustern, überspitzt gesagt, kann ein Muster als TS bezeichnet werden.


Stellen wir uns vor, dass ein Modell aus 100 TS besteht.


Es kann sein, dass in Modell Nr. 1 100 TK ein Geschäft abgeschlossen haben.

Es kann sein, dass in Modell #2 ein TS 100 Geschäfte gemacht hat und die anderen 99 keine Geschäfte gemacht haben.


Wie berechnet man die Statistiken für jeden TS?

Wenn das Modell aus den Regeln stammt, ist es einfach und klar zu machen.

Wenn das Modellneuronal ist?

Das Problem ist nicht die Häufigkeit der Verwendung des Modells.

Das Problem besteht darin, dass dasselbe Modell (Baum?) bei denselben Daten in einigen Fällen eine Bezeichnung und in anderen Fällen eine andere Bezeichnung vorhersagt. Dies wird als Klassifizierungsfehler bezeichnet. Zumindest bei uns gibt es keine Prädiktoren, deren Werte streng in Klassen eingeteilt werden können, und alle Probleme mit Blättern, Bäumen usw. ergeben sich aus den Werten der Prädiktoren.

 
Maxim Dmitrievsky #:
Wenn der Fehler bereits aufgehört hat, abzufallen oder gleich Null ist, können Sie die verbleibenden Beispiele nach einem gewissen Maß an Nähe in Muster unterteilen :) Clustering, zum Beispiel. Und zählen, wie viele übrig sind. Und sogar eine gemittelte Bedingung für jedes Muster/Cluster schreiben (Zentroide der Cluster nehmen), dann erhält man eine Regel in der Ausgabe.
Das kann man machen, aber wo ist die Garantie, dass die Partitionierung korrekt vorgenommen wurde, in Übereinstimmung mit der internen Partitionierung der Neuronen?

Wo ist die Garantie, dass das gewählte Proximity-Maß für die Clusterbildung richtig gewählt wurde?

Und so weiter...

Wäre es nicht einfacher, das Holzmodell zu partitionieren, ohne einen Franklinstein zu erstellen?

 
mytarmailS #:
Das ist möglich, aber wo ist die Garantie, dass die Partitionierung entsprechend der internen Partitionierung der Neuronen korrekt ist?
Wo ist die Garantie, dass das für die Clusterbildung gewählte Proximitätsmaß richtig gewählt ist?
Nun, das ist eine philosophische Frage.
 
Hier sollte die letzte Schicht von Neuronen, nicht die Beispiele, gebündelt werden, wenn nicht die Beispiele
 
mytarmailS #:
Wenn man clustert, sind es nicht die Beispiele, es ist die letzte Schicht der Neuronen.
Nein, es sind die Beispiele. Man kann keine Regeln auf den letzten Schichten der Neuronen aufbauen.
 
Maxim Dmitrievsky #:
Nein, nur Beispiele. Man kann keine Regeln aus den letzten Schichten der Neuronen erstellen.
Lassen Sie mich ein Datenbeispiel erstellen und jeder wendet seine eigene Methodik an, dann werden wir sehen.
 
mytarmailS #:
Lassen Sie mich ein Datenbeispiel erstellen, und jeder wendet seine Methodik an, dann werden wir sehen.
Ich habe diesen Ansatz noch nicht ausprobiert, sondern nur laut darüber nachgedacht, wie man aus jedem Modell Regeln herausholen kann. Wir können später damit herumspielen.
 
Maxim Dmitrievsky #:
Ich habe diesen Ansatz nicht ausprobiert, sondern nur laut darüber nachgedacht, wie man aus jedem Modell Regeln herausholen kann. Du kannst später damit herumspielen.
Ich habe es auch noch nicht ausprobiert, es ist meine Theorie gegen deine.
 

Es scheint, dass die Artikel nicht mehr übersetzt werden oder sie haben keine Zeit. Die englische Sektion ist bereits voll von Python-Artikeln und onnx :)) Und ein Artikel über R ist erschienen.

Im Allgemeinen sind die Artikel in Bezug auf TC nutzlos. Ungefähr dasselbe wie auf Medium, sie schreiben, um zu schreiben.

 
mytarmailS #:

Identifizieren Sie nun alle linear verwandten Regeln und entfernen Sie sie als redundante Regeln

Wie ist diese lineare Kopplung definiert? Können Sie das näher erläutern?

Ich entferne nur Regeln, die sich sehr ähnlich sind. Die Ähnlichkeit wird durch Aktivierungspunkte bestimmt.