Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2391

 
welimorn:

Понятно. У меня это дискриминатор. Я некоторое время назад худо-бедно реализовал скрипт который собирает лучшие модели на разных признаках и парсит их в один советник.

Может стоит  мета модель применять сразу на нескольких оптимальных генеративных моделях? 

она же и является дискриминатором, т.е. просто переобучается связка из 2- х моделей

но я пока не реализовал цикл, там все ф-ии приходится переделывать

может и на нескольких, пока непонятно 

 
Maxim Dmitrievsky:

она же и является дискриминатором, т.е. просто переобучается связка из 2- х моделей

но я пока не реализовал цикл, там все ф-ии приходится переделывать

Я могу свои скриптульки скинуть, может помогут чем.

 
welimorn:

Я могу свои скриптульки скинуть, может помогут чем.

вроде понятно как делать

 

Maxim Dmitrievsky

могу статью написать

это было бы замечательно) всегда рад видеть статьи от вас.

 
Evgeni Gavrilovi:

это было бы замечательно) всегда рад видеть статьи от вас.

сам всегда радуюсь чему-то новому, но таковое придумывать все сложнее и сложнее с каждым разом )

пока качественных изменений нет по сравнению с предыдущим, не вижу смысла писать

 
Maxim Dmitrievsky:

сам всегда радуюсь чему-то новому, но таковое придумывать все сложнее и сложнее с каждым разом )

пока качественных изменений нет по сравнению с предыдущим, не вижу смысла писать

Вы можете поделиться примером как вместо GMM использовать эту глубокую нейросеть

https://www.tensorflow.org/api_docs/python/tf/estimator/DNNClassifier

надо заменить 

gmm = mixture.GaussianMixture(n_components=75, covariance_type='full').fit(X)

на это: tf.estimator.DNNClassifier

tf.estimator.DNNClassifier  |  TensorFlow Core v2.4.1
tf.estimator.DNNClassifier  |  TensorFlow Core v2.4.1
  • www.tensorflow.org
A classifier for TensorFlow DNN models. Inherits From: , Used in the notebooks Used in the tutorials Example: Input of and should have following features, otherwise there will be a : if is not , a feature with whose value is a . for each in : if is a , a feature with whose is a . if is a , two features: the first with the id column name, the...
 
Evgeni Gavrilovi:

Вы можете поделиться примером как вместо GMM использовать эту глубокую нейросеть

https://www.tensorflow.org/api_docs/python/tf/estimator/DNNClassifier

надо заменить 

на это: tf.estimator.DNNClassifier

никак, это совершено разные вещи

 
Maxim Dmitrievsky

MLPClassifier тоже не подходит к данной задаче?

Там есть метод для оценки вероятности, к какому классу относится сэмпл. 

https://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPClassifier.html
 
Evgeni Gavrilovi:

MLPClassifier тоже не подходит к данной задаче?

Там есть метод для оценки вероятности, к какому классу относится сэмпл. 

https://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPClassifier.html

Это же разные модели. GMM используется для оценки плотности вероятности и семплинга примеров, а классификатор классифицирует

видимо, вы хотите заменить CatBoost на нейросеть. Но в этом нет большого смысла.

 
Maxim Dmitrievsky:

Это же разные модели. GMM используется для оценки плотности вероятности и семплинга примеров, а классификатор классифицирует

видимо, вы хотите заменить CatBoost на нейросеть. Но в этом нет большого смысла.

там вы пишите, что нейросеть лучше подходит, чем GMM

https://www.mql5.com/ru/forum/356331#comment_19373237

Обсуждение статьи "Продвинутый ресемплинг и выбор CatBoost моделей брутфорс методом"
Обсуждение статьи "Продвинутый ресемплинг и выбор CatBoost моделей брутфорс методом"
  • 2020.11.23
  • www.mql5.com
Опубликована статья Продвинутый ресемплинг и выбор CatBoost моделей брутфорс методом : Автор: Maxim Dmitrievsky...