Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1922

 
MQL
Получает mql массивы
 
Aliaksandr Hryshyn:
MQL

поделитесь, если не жалко

может вытащу полезного

 
Maxim Dmitrievsky:

поделитесь, если не жалко

может вытащу полезного

Только позже, когда домой прийду
 
Aleksey Vyazmikin:

Понял, что этот тип кластеризации не создают правил,

Да я вообще не знаю алгоритма кластеризации который правила создает

Значит остается вопрос - как сохранить в csv принадлежность строки к каждому классу?

write.csv(myfile, file = "C:\\Users\\......\\myfile.csv", sep = ";",row.names = F,col.names = T)

Хотя вот странно, почему нельзя тупо продолжить кластеризацию с уже имеющимися данными и определить новую строку в один из классов, или можно?

Конечно можно, но не в мкл же!! 

Aleksey Vyazmikin:
 Нашел зато книжку по R.

Читал, классная книжка

Aleksey Vyazmikin:

И я не понимаю, как закатать в конкретный столбец результаты?

я не понимаю что вы вообще хотите))

Aleksey Vyazmikin:

На этой картинке те же предикторы, что и ранее, но размер выборки иной, а главное добавлены новые предикторы.

И вот как это интерпретировать - склонность к переобучению?

Я уже говорил, интерпретируйте по прямому назначению инструмента, а вы стремитесь цветком гвозди забивать

https://ru.wikipedia.org/wiki/%D0%A1%D0%BD%D0%B8%D0%B6%D0%B5%D0%BD%D0%B8%D0%B5_%D1%80%D0%B0%D0%B7%D0%BC%D0%B5%D1%80%D0%BD%D0%BE%D1%81%D1%82%D0%B8#:~:text=%D0%B5%D0%B4%D0%B8%D0%BD%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D0%BE%20%D0%B2%D0%BE%D0%B7%D0%BC%D0%BE%D0%B6%D0%BD%D1%8B%D0%BC%20%D0%B2%D0%B0%D1%80%D0%B8%D0%B0%D0%BD%D1%82%D0%BE%D0%BC.-,%D0%9F%D1%80%D0%B5%D0%B8%D0%BC%D1%83%D1%89%D0%B5%D1%81%D1%82%D0%B2%D0%B0%20%D1%81%D0%BD%D0%B8%D0%B6%D0%B5%D0%BD%D0%B8%D1%8F%20%D1%80%D0%B0%D0%B7%D0%BC%D0%B5%D1%80%D0%BD%D0%BE%D1%81%D1%82%D0%B8,%D1%82%D0%B0%D0%BA%D0%B8%D0%BC%20%D0%BA%D0%B0%D0%BA%202D%20%D0%B8%D0%BB%D0%B8%203D.


Отбор признаков[править | править код]

Основная статья: Отбор признаков

Метод отбора признаков пытается найти подмножество исходных переменных (которые называются признаками или атрибутами). Есть три стратегии — стратегия фильтра (например, накопление признаков [en]), стратегия обёртывания (например, поиск согласно точности) и стратегия вложения (выбираются признаки для добавления или удаления по мере построения модели, основанной на ошибках прогнозирования). См. также задачи комбинаторной оптимизации.

В некоторых случаях анализ данных, такой как регрессия или классификация, может быть осуществлён в редуцированном пространстве более точно, чем в исходном пространстве [3].

Проекция признаков[править | править код]

Проекция признаков преобразует данные из пространства высокой размерности к пространству малой размерности. Преобразование данных может быть линейным, как в методе главных компонент (МГК), но существует большое число техник нелинейного понижения размерности [en] [4] [5]. Для многомерных данных может быть использовано тензорное представление для снижения размерности через полилинейное обучение подпространств [en] [6].


То что мы вчера и делали

Снижение размерности[править | править код]

Для наборов данных высокой размерности (то есть с числом размерностей больше 10), снижение размерности обычно осуществляется перед применением метода k-ближайших соседей (англ. k-nearest neighbors algorithm, k-NN) с целью избежать эффект проклятия размерности [16].


Преимущества снижения размерности[править | править код]

  1. Оно уменьшает требуемое время и память.
  2. Удаление мультиколлинеарности улучшает скорость модели машинного обучения.
  3. Проще представить данные визуально, если свести к очень низким размерностям, таким как 2D или 3D.


 

Решил посмотреть на значимые развороты рынка. Значимые Развороты как целевая. Думал будет хаос, но нет..

зеленый разворот вверх

красный разворот вниз

серый не разворот

в 2Д как то наглядней


добавил больше данных,  как ни крути выделяется по 4 кластера на бай и 4 сел, теперь наверное надо выделять нужные кластера и пробовать в каждом из них отделять разворот от не разворота каким то классификатором


Блин только представьте, сколько же мусора в данных, все это надо как то отделять от нужной информации


Обычной кластеризацией тут не возьмешь 


Нужно пробовать что посерьезней, DBscan например, или может как то вручную выделить , где то слышал  про такую технологию

 
mytarmailS:

Решил посмотреть на значимые развороты рынка. Значимые Развороты как целевая. Думал будет хаос, но нет..

зеленый разворот вверх

красный разворот вниз

серый не разворот

в 2Д как то наглядней


добавил больше данных,  как ни крути выделяется по 4 кластера на бай и 4 сел, теперь наверное надо выделять нужные кластера и пробовать в каждом из них отделять разворот от не разворота каким то классификатором


Блин только представьте, сколько же мусора в данных, все это надо как то отделять от нужной информации


Обычной кластеризацией тут не возьмешь 


Нужно пробовать что посерьезней, DBscan например, или может как то вручную выделить , где то слышал  про такую технологию

Можно как то посмотреть признаки внутри определенного кластера?

 
Rorschach:

Можно как то посмотреть признаки внутри определенного кластера?

что имеется ввиду?  у кластеров нету признаков, они объединяют части признаков по схожести если так можно выразиться 

 
mytarmailS:

что имеется ввиду?  у кластеров нету признаков, они объединяют части признаков по схожести если так можно выразиться 

Интересны значения признаков в кластере.

 
mytarmailS:


Мне показалось или Вы уменьшаете размерность без учителя?Я говорю о "uwot" (umap).

 
Vladimir Perervenko:

Мне показалось или Вы уменьшаете размерность без учителя?Я говорю о "uwot" (umap).

Да, только я использую пакет "umap"

Причина обращения: