Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2559

 
mytarmailS #:

auf der Suche nach dem Weg zur Klapsmühle? :)

Das Problem ist, dass ich nicht derjenige bin, der all diese Definitionen ausarbeitet, also kann ich nur auf Google verweisen, um genauere Informationen zu erhalten. Ich kann später einen Link zu diesem Artikel finden. Aber es geht um die Entropieanalyse von stationären und nicht stationären Reihen
 
Maxim Dmitrievsky #:
Das Problem ist, dass ich nicht mit all diesen Definitionen aufwarten kann, also kann ich nur googeln, um genauere Informationen zu erhalten. Ich kann später einen Link zu diesem Artikel finden.

Nun, das ist ja das Komische...

Sie sagten "Regelmäßigkeit". Ich weiß nicht, was das ist, also habe ich dich nicht gefragt, sondern habe es gegoogelt, und es hat sich herausgestellt, dass du das nicht gemeint hast. Wenn ich das nicht verstanden hätte, würden wir jetzt denselben Begriff (Regelmäßigkeit) verwenden und damit unterschiedliche Dinge meinen, so dass wir nie auf den Grund kommen würden...

Und das alles nur wegen eines pseudowissenschaftlichen Idioten...

 
mytarmailS #:

Ich möchte SMM trainieren, aber auf eine ungewöhnliche Art und Weise, durch eine Fitnessfunktion, genetische oder andere...

Ich möchte Zustandsübergangsmatrizen selbst erstellen... Es gibt ein Paket, es gibt diese Matrizen, aber was und wo ich ändern muss, verstehe ich nicht wirklich, können Sie dabei helfen?

Die Fitnessfunktion im HMM ist der Logarithmus der Likelihood. Wenn Sie eine benutzerdefinierte f. f., ist es bereits eine andere Methode.

 
Aleksey Nikolayev #:

Beim HMM ist die Fitnessfunktion der Logarithmus der Likelihood. Wenn Sie eine benutzerdefinierte f.f. entwickeln, ist es bereits eine andere Methode.

Was muss also optimiert werden?

fit <- HMMFit(x , nStates = 3)
> fit

Call:
----
HMMFit(obs = x, nStates = 3)

Model:
------
3 states HMM with 5-d gaussian distribution

Baum-Welch algorithm status:
----------------------------
Number of iterations : 60
Last relative variation of LLH function: 0.000001

Estimation:
-----------

Initial probabilities:
           Pi 1         Pi 2 Pi 3
  2.636352 e-255 2.770966 e-50    1

Transition matrix:
          State 1    State 2    State 3
State 1 0.1864987 0.76046799 0.05303333
State 2 0.2539474 0.60377350 0.14227910
State 3 0.6191488 0.07157308 0.30927815

Conditionnal distribution parameters:

Distribution parameters:
  State 1
           mean  cov matrix                                               
      0.4752939  0.97587370  0.02993559 -0.21805741  0.25639651  0.1567241
     -0.5686039  0.02993559  0.85342747  0.43374921  0.18220534 -0.2149688
      0.3739333 -0.21805741  0.43374921  0.58127533 -0.01600787 -0.2097350
     -0.3833589  0.25639651  0.18220534 -0.01600787  1.13979299 -0.3723484
     -0.5871168  0.15672407 -0.21496881 -0.20973503 -0.37234835  1.0462750

  State 2
            mean  cov matrix                                               
      0.07949112  1.14644170  0.21413163 -0.05544488 -0.02902406 0.04179052
      0.15306029  0.21413163  0.84865045 -0.19661403 -0.12397740 0.01617397
     -0.03560680 -0.05544488 -0.19661403  1.25872915  0.15638695 0.03917204
      0.07304988 -0.02902406 -0.12397740  0.15638695  0.70073838 0.02934227
      0.35500064  0.04179052  0.01617397  0.03917204  0.02934227 0.65031019

  State 3
           mean  cov matrix                                              
     -0.5093426  0.60603137 -0.21462708  0.06322606  0.27231407 0.1076386
      0.1526545 -0.21462708  0.56847783 -0.06347737 -0.15941211 0.2161427
     -1.0672876  0.06322606 -0.06347737  0.17662599  0.08658292 0.1981628
      0.7778853  0.27231407 -0.15941211  0.08658292  1.17497274 0.4802186
     -0.2541008  0.10763858  0.21614270  0.19816276  0.48021858 0.7488420


Log-likelihood: -1379.07
BIC criterium: 3118.43
AIC criterium: 2894.14

Hier ist ein Modell für drei Staaten

 
mytarmailS #:

Nun, das ist ja das Komische...

Sie sagten "Regelmäßigkeit". Ich weiß nicht, was das ist, also habe ich dich nicht gefragt, sondern habe es gegoogelt, und es hat sich herausgestellt, dass du das nicht gemeint hast. Wenn ich das nicht verstanden hätte, würden wir jetzt denselben Begriff (Regelmäßigkeit) verwenden und damit unterschiedliche Dinge meinen, so dass wir nie auf den Grund kommen würden...

Und das alles nur wegen eines pseudowissenschaftlichen Idioten...

Die Moral dieser Pseudowissenschaft ist, dass Stationarität nicht gleichbedeutend ist mit Berechenbarkeit und umgekehrt :D Märkte sind unberechenbar, weil sie nicht stationär sind. Und sie sind nicht unbeständig, weil sie unberechenbar sind. Das war's, ich bin müde.
 
Maxim Dmitrievsky #:
Alle, ich bin müde

Ich auch)

 
mytarmailS #:

Was muss also optimiert werden?

Hier ist ein Drei-Staaten-Modell.

Alles ist also bereits durch den Baum-Welch-Algorithmus optimiert. Der optimale Wert des Logarithmus der Wahrscheinlichkeit wird im Folgenden angegeben. Die Parameter (Übergangsmatrix und andere) werden berechnet.

 
Der Begriff "Regularisierung" wird übrigens auch bei der Beschreibung von Kamm- und Lassoregressionen verwendet. Dort bedeutet er, die Koeffizienten auf Null zu komprimieren, um die Varianz des Modells zu verringern.
 
Aleksey Nikolayev #:

Mit dem Baum-Welch-Algorithmus ist also bereits alles optimiert. Der optimale Wert des Likelihood-Logarithmus wird im Folgenden angegeben. Die Parameter (Übergangsmatrix und andere) werden berechnet.

Dies ist nur ein Modell, das auf drei Zustände trainiert wurde, und ich möchte ein Modell, das so trainiert wird, dass meine Fitnessfunktion zufrieden ist.

Stellen Sie sich vor, ich trainiere Neuronen und verändere ihre Gewichte durch Genetik und schaue mir ihre Fitness an.

Ich würde gerne dasselbe mit SMM machen, aber ich würde die Übergangsmatrix ändern.


Aber es ist klar, was bei den Gewichten des Neurons zu ändern ist, und nicht so sehr bei diesem.

 
mytarmailS #:

Dies ist ein Modell, das in den drei Zuständen trainiert wird, und ich möchte ein Modell, das so trainiert wird, dass meine Fitnessfunktion erfüllt ist.

Stellen Sie sich vor, ich trainiere ein Neuron, verändere seine Gewichte mit Hilfe der Genetik und schaue mir seine Fitness an.

Ich würde gerne dasselbe mit SMM machen, aber ich würde die Übergangsmatrix ändern.


Aber bei den Gewichten des Neurons ist es klar, was zu ändern ist, und hier nicht so sehr.

Ich verstehe, was ich brauche, ich muss eine benutzerdefinierte FF einstellen können. Diese Funktion HMMFit() unterstützt diese Möglichkeit jedoch nicht, da sie einen Baum-Welch mit einem fest eingenähten LLH implementiert. Sie können nur einige Baum-Welch-Parameter einstellen

Sie benötigen ein weiteres Paket, in dem Sie eine benutzerdefinierte Phrase angeben können.