L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2391

 
Maxim Dmitrievsky:
a proposito, python 3.9 è notevolmente più veloce del 3.8 in console, sono passato ad esso

Non ho compiti così feroci di contare lakhs di profitti con alta frequenza, quindi 3.7 per ora))

 
Maxim Dmitrievsky:

è il secondo modello che abilita/disabilita l'apertura di uno scambio

Quindi la produzione utilizza 2 modelli

Capisco. Ho un discriminatore. Qualche tempo fa ho implementato con successo uno script che raccoglie i migliori modelli di diversi segni e li analizza in un EA.

Forse un meta-modello dovrebbe essere applicato a diversi modelli generativi ottimali contemporaneamente?

dovrà provare
 

Capisco. Ho un discriminatore. Ho implementato uno script qualche tempo fa che raccoglie i migliori modelli su diversi attributi e li analizza in un EA.

Forse il metamodello dovrebbe essere applicato a diversi modelli generativi ottimali contemporaneamente?

È anche un discriminatore, cioè semplicemente riaddestra un gruppo di 2 o più modelli.

ma non ho ancora implementato il ciclo, tutti i f-e-s devono essere rielaborati lì.

forse anche qualcuno, non lo so ancora.

 
Maxim Dmitrievsky:

è anche un discriminatore, cioè semplicemente riaddestra un fascio di 2 modelli

Ma non ho ancora implementato il loop, tutte le f-i devono essere rielaborate lì.

Posso mandarti i miei script, forse ti aiuteranno.

 
welimorn:

Posso mandarti i miei script per aiutarti.

Sembra essere chiaro come fare

 

Maxim Dmitrievsky

Potrei scrivere un articolo.

Sarebbe fantastico) Sono sempre felice di vedere i tuoi articoli.

 
Evgeni Gavrilovi:

sarebbe fantastico) è sempre bello vedere articoli da te.

Anche a me piace sempre qualcosa di nuovo, ma diventa sempre più difficile da inventare ogni volta)

Finché non ci sono cambiamenti qualitativi rispetto al precedente, non vedo il senso di scrivere

 
Maxim Dmitrievsky:

Anche a me piace sempre qualcosa di nuovo, ma diventa sempre più difficile da inventare ogni volta)

finché non ci sono cambiamenti qualitativi rispetto al precedente, non vedo il senso di scrivere

Puoi condividere un esempio su come utilizzare questa rete neurale profonda al posto di GMM?

https://www.tensorflow.org/api_docs/python/tf/estimator/DNNClassifier

bisogno di sostituire

gmm = mixture.GaussianMixture(n_components=75, covariance_type='full').fit(X)

a questo: tf.estimator.DNNClassifier

tf.estimator.DNNClassifier  |  TensorFlow Core v2.4.1
tf.estimator.DNNClassifier  |  TensorFlow Core v2.4.1
  • www.tensorflow.org
A classifier for TensorFlow DNN models. Inherits From: , Used in the notebooks Used in the tutorials Example: Input of and should have following features, otherwise there will be a : if is not , a feature with whose value is a . for each in : if is a , a feature with whose is a . if is a , two features: the first with the id column name, the...
 
Evgeni Gavrilovi:

Puoi condividere un esempio di come utilizzare questa rete neurale profonda invece di GMM?

https://www.tensorflow.org/api_docs/python/tf/estimator/DNNClassifier

bisogno di sostituire

a questo: tf.estimator.DNNClassifier

in nessun modo, sono cose assolutamente diverse

 
Maxim Dmitrievsky

Anche MLPClassifier non è adatto a questo compito?

Esiste un metodo per stimare la probabilità a quale classe appartiene il campione.

https://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPClassifier.html