Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2391

 
Maxim Dmitrievsky:
übrigens, Python 3.9 ist spürbar schneller als 3.8 in der Konsole, wechselte zu ihm

Ich habe keine so heftigen Aufgaben wie das Zählen von lakhs von Gewinnen mit hoher Frequenz, so 3,7 für jetzt))

 
Maxim Dmitrievsky:

das zweite Modell ermöglicht/deaktiviert die Eröffnung eines Geschäfts

die Produktion verwendet also 2 Modelle

Ich verstehe. Ich habe ein Unterscheidungsmerkmal. Vor einiger Zeit habe ich erfolgreich ein Skript implementiert, das die besten Modelle verschiedener Zeichen sammelt und sie in einem EA zusammenfasst.

Vielleicht sollte ein Metamodell auf mehrere optimale generative Modelle gleichzeitig angewendet werden?

wird versuchen müssen
 

Ich verstehe. Ich habe ein Unterscheidungsmerkmal. Ich habe vor einiger Zeit ein Skript implementiert, das die besten Modelle für verschiedene Attribute sammelt und sie in einen EA zusammenfasst.

Vielleicht sollte das Metamodell auf mehrere optimale generative Modelle gleichzeitig angewendet werden?

Er ist auch ein Diskriminator, d.h. er trainiert einfach einen Haufen von 2 oder mehr Modellen neu.

aber ich habe die Schleife noch nicht implementiert, alle f-und-s müssen dort nachbearbeitet werden.

vielleicht sogar ein paar, ich weiß es noch nicht.

 
Maxim Dmitrievsky:

er ist auch ein Diskriminator, d.h. er trainiert einfach ein Bündel von 2 Modellen neu

Aber ich habe die Schleife noch nicht implementiert, da müssen die ganzen f-i's noch überarbeitet werden.

Ich kann Ihnen meine Skripte schicken, vielleicht helfen sie Ihnen.

 
welimorn:

Ich kann Ihnen meine Skripte zur Hilfe schicken.

Scheint klar zu sein, was zu tun ist

 

Maxim Dmitrijewski

Ich könnte einen Artikel schreiben.

Das wäre großartig. Ich freue mich immer, wenn ich Artikel von Ihnen sehe.

 
Evgeni Gavrilovi:

Das wäre großartig. Ich freue mich immer über Artikel von Ihnen.

Ich freue mich immer über etwas Neues, aber es wird von Mal zu Mal schwieriger, etwas Neues zu finden.)

Solange es keine qualitativen Änderungen im Vergleich zur vorherigen Version gibt, sehe ich keinen Grund, etwas zu schreiben.

 
Maxim Dmitrievsky:

Ich freue mich immer über etwas Neues, aber es wird von Mal zu Mal schwieriger, etwas Neues zu finden.)

Da es keine qualitativen Änderungen im Vergleich zur vorherigen Version gibt, sehe ich keinen Sinn darin, zu schreiben

Können Sie ein Beispiel für die Verwendung dieses tiefen neuronalen Netzes anstelle von GMM nennen?

https://www.tensorflow.org/api_docs/python/tf/estimator/DNNClassifier

müssen ersetzen

gmm = mixture.GaussianMixture(n_components=75, covariance_type='full').fit(X)

zu diesem: tf.estimator.DNNClassifier

tf.estimator.DNNClassifier  |  TensorFlow Core v2.4.1
tf.estimator.DNNClassifier  |  TensorFlow Core v2.4.1
  • www.tensorflow.org
A classifier for TensorFlow DNN models. Inherits From: , Used in the notebooks Used in the tutorials Example: Input of and should have following features, otherwise there will be a : if is not , a feature with whose value is a . for each in : if is a , a feature with whose is a . if is a , two features: the first with the id column name, the...
 
Evgeni Gavrilovi:

Können Sie ein Beispiel für die Verwendung dieses tiefen neuronalen Netzes anstelle von GMM nennen?

https://www.tensorflow.org/api_docs/python/tf/estimator/DNNClassifier

müssen ersetzen

zu diesem: tf.estimator.DNNClassifier

Auf keinen Fall, das sind völlig unterschiedliche Dinge.

 
Maxim Dmitrijewski

MLPClassifier ist für diese Aufgabe auch nicht geeignet?

Es gibt eine Methode zur Schätzung der Wahrscheinlichkeit, zu welcher Klasse die Stichprobe gehört.

https://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPClassifier.html