Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1952

 
Rorschach:

У меня в блоге первая сетка про эту тему

а в тестере гоняли?

сравните лучшую свою сетку с бустингом или случайным лесом, поймете что большого смысла в MLP нет

единственное преимущество - время отклика получения сигнала будет меньше. Ну это доли секунды.
 
elibrarius:

1) Что-то мне кажется, что не сильно поможет. Это сжатие инфы. Если сжимать мусор, то будет сжатый мусор.
2 ) Если к 2500 мусорным фичам добавить 1 хорошую, то алгоритм не особо то ее и заметит и ее влияние на итог будет если и больше 1/2500, то не намного. Пусть даже 1/100, на графике этого не заметишь.
3) Единственное, что ожидаю полезного - это то , что высококореллированные фичи как бы сольются в одну.

1) Ну "кажется" это сильный аргумент ))

2) А кто мешает перед сжатием отсеять мусорные фичи?  Хоть я так и не делаю но...    надо думать, надо решать, а не философствовать ...  

3) алгоритмы снижения размерности можно использовать по разному, для разных задач,  в том числе и для  сжатия но не только

 
Maxim Dmitrievsky:

а в тестере гоняли?

сравните лучшую свою сетку с бустингом или случайным лесом, поймете что большого смысла в MLP нет

единственное преимущество - время отклика получения сигнала будет меньше. Ну это доли секунды.

Они смогут работать просто на приращениях? Без формирования и отбора признаков

 
Rorschach:

Они смогут работать просто на приращениях? Без формирования и отбора признаков

там нормировка не нужна, в остальном признаки любые, такие же как для MLP

 
Maxim Dmitrievsky:

там нормировка не нужна, в остальном признаки любые, такие же как для MLP

рекомендую catboost, у меня есть парсер обученной на питоне модели в mql код (только для бинарной классификации)

спасибо https://www.mql5.com/ru/users/greshnik1
Aliaksandr Hryshyn
Aliaksandr Hryshyn
  • www.mql5.com
Добавил тему Инициализация массивов и структур class A   { public :    int                ii[];   }; //Так правильно и удобно, но неприлично //Данные, которые принадлежат объектам, будут висеть в Добавил тему Инициализация структур с динамическими массивами Это удобно, но памяти много ест: struct Sii   { int i_count;    int                i[...
 
Maxim Dmitrievsky:

там нормировка не нужна, в остальном признаки любые, такие же как для MLP

Я понимаю как сетка работает, есть идеи что дальше делать, а бустинг для меня темный лес

 
Rorschach:

 бустинг для меня темный лес

хорошо что не рандомный  )

 
mytarmailS:

хорошо что не рандомный  )

Сначала так хотел написать)

 
Maxim Dmitrievsky:

а в тестере гоняли?

Сделал тестер в питоне, вероятности с обучениием совпадают. Если после обучения показало accuracy=65%, то в тестере столько же покажет. Тестер простенький без сл/тп.

Feature importance нету такого встроенного, предлагают входы перемешивать, хотя по идее зная веса легко посчитать вклад каждого входа.

ps давай на ты.

 
Rorschach:

Сделал тестер в питоне, вероятности с обучениием совпадают. Если после обучения показало accuracy=65%, то в тестере столько же покажет. Тестер простенький без сл/тп.

Feature importance нету такого встроенного, предлагают входы перемешивать, хотя по идее зная веса легко посчитать вклад каждого входа.

ps давай на ты.

ну в лесах сразу это есть, удобнее работать, и проще по моему

Причина обращения: