Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3350

 
Maxim Dmitrievsky #:
Помню, вы где-то сравнивали макс. профит среди дц. А на конкретном графике какой алгоритм получения макс. профита использовали? Через оптимизацию или есть строгий алгоритм.

И однопроходный. Где-то на форуме.

 
Aleksey Nikolayev #:

Приятного аппетита и мягкого похмелья)

Вроде, по сути очень похоже на probabilistic forecasting, хотя пишут что это разные вещи. Насколько понял пока, конформное больше заточено под классификацию, а вероятностное - под регрессию.

Спасибо :) да, похоже. Пишут, что неважно классификация или регрессия. Как получать оценки для предсказаний через сравнение на валидационном сете понятно (в случае "индуктивного", то есть более быстрого и простого способа). С "Трансдуктивным" тоже более-менее понятно, но он очень медленный, поскольку требует обучить столько моделей, сколько примеров в выборке. Есть еще промежуточные варианты по типу CV, который я собственно сам делал.

Не совсем понял из статьи как потом готовятся финальные модели, что куда подставляется. Опять через корректировку весов модели, ее калибровку (sample weighting) что ли, как в козуле. Или в модель подставляются уже наиболее вероятные метки, после оценки. Я вот просто вторую модель использовал для этого, которая запрещает торговать на плохих примерах.

 
Maxim Dmitrievsky #:

чтиво на вечер под водочку, оленинку и огурчик

развивая тему и пытаясь связать в голове подходы их разных МОшных дисциплин

для медицины...

там графики ползают между двумя параллельными линиями,

размах которых ни о чем по сравнению с финансовыми рынками

---

градиентный спуск выкурил в выходные

можно и без МО сделать на раз-два

т.е. приближение к экстремуму:

х0-х1

х0-х2

х0-х3

и т.д.

в этом что то есть конечно

 
Renat Akhtyamov #:

для медицины...

там графики ползают между двумя параллельными линиями,

размах которых ни о чем по сравнению с финансовыми рынками

---

градиентный спуск выкурил в выходные

можно и без МО сделать на раз-два

т.е. приближение к экстремуму:

х0-х1

х0-х2

х0-х3

и т.д.

в этом что то есть конечно

Это бэнчи. Для своих задач надо адаптировать.
Рена после очередного «инсайта» https://youtube.com/shorts/jQzdLnb9bnI?si=TvKoat4ArRONyjDP
 
Maxim Dmitrievsky

Вы всегда писали, что ценовые приращения не имеют никакой предсказательной способности. Но все равно продолжаете только их использовать. Почему?)

 
Evgeni Gavrilovi #:

Вы всегда писали, что ценовые приращения не имеют никакой предсказательной способности. Но все равно продолжаете только их использовать. Почему?)

цена должна рассказывать  о себе

 
Evgeni Gavrilovi #:

Вы всегда писали, что ценовые приращения не имеют никакой предсказательной способности. Но все равно продолжаете только их использовать. Почему?)

Я писал? Вроде это больше писали оппоненты. 
Ну если рассматривать исключительно временной ряд, то особого выбора нет. Еще про дробные приращения писал в одной из статей. В них как будто бы немного больше информации сохраняется.

Если брать просто обучение на приращениях, безо всяких ухищрений, то дробное дифференцирование действительно немного выигрывает, по результатам на новых данных.

Еще делал эксперименты с автоматическим созданием признаков, которые ни к чему не привели. Потом понял, что проблема в разметке и в соотношении типа сигнал/шум, что это надо исправлять другими способами, а не перебором признаков. Ну и пошло-поехало, всякие сумасшедшие на тот момент идейки. А потом узнал, что в общем-то так и надо :)

Этому же типа никто не учит, нет никаких гуру. Не к кому обратиться.

Когда в МТ5 еще обучал нейросети - экспериментировал. Потом почувствовал, что среда   Мт5 душит в плане МО, ушел в питон.
 

Предлагаю всем знатокам машинного обучения проверить свои модели на моих данных. 

Индекс мировых государственных облигаций для предсказания курса евро-доллара, таймфрейм 15 минут. 

https://drive.google.com/file/d/1W4TOLbZCTCs3hEvGvptGxvTE6_r2TrWW/view

 
Maxim Dmitrievsky #:
Последние мои 2 статьи, на простом уровне и без нюансов, практически описывают все эти подходы.  Скажем, не описывают, но приближаются. Сейчас уточняю детали, чего они там наисследовали. Например, индуктивная от трансдуктивной конформности отличается только одним или двумя классификаторами, отдельно для каждой метки класса. Вторая лучше (точнее) оценивает постериор. А я использовал индуктивный метод. Еще там нужно переобучать модели с добавлением и выбрасыванием каждого семпла, для более точной оценки. Это очень дорого, но вроде как эффективно. Но можно брать простые и быстрые классификаторы. О чем я тоже писал, обучаясь на пнях.

Не вижу аплодисментов для моей гениальности



такой да?


 
Renat Akhtyamov #:

такой да?


Нет, пока не выучишь МО и питон - не оценишь :)