Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2219

 
Maxim Dmitrievsky:

нужна не кластеризация, а оценка плотности. Подойдет энкодер и GAN

есть специальные техники работы с хвостатыми распределениями в МО, но я до них пока не совсем дорос. Это, буквально, самое новое что есть

Я просто что то понять не могу

натренировал модель на два кластера

> gm <- ClusterR::GMM(X,gaussian_comps = 2)
> gm
$centroids
            [,1]       [,2]       [,3]
[1,] -0.24224591 -0.5103346  0.7653689
[2,]  0.07675401  0.1668665 -0.2967750

$covariance_matrices
         [,1]      [,2]      [,3]
[1,] 1.169446 0.5971381 0.5771400
[2,] 1.006148 0.7724611 0.8297428

$weights
[1] 0.2505878 0.7494122

$Log_likelihood
            [,1]      [,2]
 [1,]  -4.060188 -3.111429
 [2,]  -6.105358 -3.516479
 [3,]  -4.301979 -4.310115
 [4,]  -3.752352 -3.583401
 [5,]  -3.172447 -3.302278
 [6,]  -7.849530 -5.254127
 [7,]  -3.055816 -3.157801
 [8,]  -5.307695 -2.795444
 [9,] -11.721658 -6.764240
[10,] -10.575876 -5.565554
[11,]  -6.760511 -5.193087
[12,]  -3.978182 -5.066543
[13,]  -2.577926 -4.418768
[14,]  -4.398716 -3.614050
[15,]  -4.082245 -5.268694
[16,]  -2.918141 -2.901401
[17,]  -9.153176 -4.797331
[18,]  -5.678321 -3.599856
[19,]  -4.500670 -2.622113
[20,]  -2.965878 -4.415078
[21,]  -4.453389 -4.152286
[22,]  -5.365306 -4.368355
[23,]  -8.533327 -3.813763
[24,]  -4.142515 -2.811048
[25,]  -7.174136 -5.631351
[26,]  -5.063518 -3.491408
[27,]  -4.935992 -8.336194
[28,]  -4.210241 -5.869093
[29,]  -3.605818 -2.577456
[30,]  -3.670845 -5.686447
[31,]  -2.733389 -5.010803
[32,]  -3.730563 -2.646749
[33,]  -3.201767 -3.689452
[34,]  -4.879268 -3.111545

что есть распределение

$centroids

или

$covariance_matrices

и как их симулировать (плодить подобные)

 
Maxim Dmitrievsky:

 И это доказано. Как тебе?

Бомба.

Где читал?

 
mytarmailS:

Бомба.

Где читал?

статьи какие-то видел

вот посмотри

https://venturebeat.com/2020/08/14/how-to-improve-ai-economics-by-taming-the-long-tail-of-data/

How to improve AI economics by taming the long tail of data
How to improve AI economics by taming the long tail of data
  • 2020.08.14
  • Matt Bornstein, Andreessen Horowitz
  • venturebeat.com
As the CTO of one late-stage data startup put it, AI development often feels “closer to molecule discovery in pharma” than software engineering. This is because AI development is a process of experimenting, much like chemistry or physics. The job of an AI developer is to fit a statistical model to a dataset, test how well the model performs on...
 
mytarmailS:

Я просто что то понять не могу

натренировал модель на два кластера

что есть распределение

или

и как их симулировать (плодить подобные)

ищи пакет, который позволяет семплировать из обученной модели

 
Maxim Dmitrievsky:

ищи пакет, который позволяет семплировать из обученной модели

Здесь три распределения (строки)

Normal Mixture' object   ``#9 Trimodal'' 
       mu sigma    w
[1,] -1.2  0.60 0.45
[2,]  1.2  0.60 0.45
[3,]  0.0  0.25 0.10

 Оно так должно выглядеть ?

 
mytarmailS:

Здесь три распределения (строки)

 Оно так должно выглядеть ?

это параметры гауссиан

 
Maxim Dmitrievsky:

нужна не кластеризация, а оценка плотности. Подойдет энкодер и GAN

есть специальные техники работы с хвостатыми распределениями в МО, но я до них пока не совсем дорос.

например, есть такой прикол. Для хвостатого распределения (а приращения формируют именно такое) размер выборки для обучения должен быть почти бесконечным, чтобы что-то работало на новых данных. И это доказано. Как тебе?

Ну там как раз хвостатыми приращениями доказывали похожесть ценового ряда на СБ.)))) И как вывод, что бы работало, нужно посмотреть весь ряд, т.е. и будущий, или если мы примем что ряд бесконечный, то ряд будущего будет узнан. Как бы вывод, что на бесконечном ряду бесконечное число вариаций и мы на них обучим и их увидим.

Для практики бесполезно, но понимать нужно.

ЗЫ и по плотности после оценки можно разбить на участки.
 
Valeriy Yastremskiy:

Ну там как раз хвостатыми приращениями доказывали похожесть ценового ряда на СБ.)))) И как вывод, что бы работало, нужно посмотреть весь ряд, т.е. и будущий, или если мы примем что ряд бесконечный, то ряд будущего будет узнан. Как бы вывод, что на бесконечном ряду бесконечное число вариаций и мы на них обучим и их увидим.

Для практики бесполезно, но понимать нужно.

ЗЫ и по плотности после оценки можно разбить на участки.

разбить на участки и выбрать наиболее частые примеры, остальные выкинуть как шум

либо наоборот провести границы по редким событиям

как видно из статьи - это вообще проблема реального мира, а не только форекса. И МОшники борются с этим в разных сферах 

 
Maxim Dmitrievsky:

Ты думаешь я статьи зачем пишу? чтобы самому разобраться, а не бахвальства для. Пока пишешь - сам осознаешь

А разве не чтобы хоть как то мало мальски мамке доказать что с этого занятья хоть 200 бачей в месяц можно "поднять"? 

При всём уважении, но все ваши сигналы за последние пару лет не конкурируют даже с простейшими индикаторными "граалями" новичков полугодних и про "спонсоров" не нужно нам заливать это чепуха, мамка да папка ваши спонсоры и стоит задуматься о будущем думаю, заволноваться, тут судя по слухам уже несколько человек умерли окончательно разорившись(например завсегдатай Юрий Решетов).

 
kapelmann:

А разве не чтобы хоть как то мало мальски мамке доказать что с этого занятья хоть 200 бачей в месяц можно "поднять"? 

При всём уважении, но все ваши сигналы за последние пару лет не конкурируют даже с простейшими индикаторными "граалями" новичков полугодних и про "спонсоров" не нужно нам заливать это чепуха, мамка да папка ваши спонсоры и стоит задуматься о будущем думаю, заволноваться, тут судя по слухам уже несколько человек умерли окончательно разорившись(например завсегдатай Юрий Решетов).

пшлнх

будешь рассуждать на тему, когда сам хоть чего-то добьёшься

Причина обращения: