Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2828

 
Вот и интересно сравнить, например, Adam vs генетика или муравьиная колония, например. У трейдуна может возникнуть дилемма: чем же воспользоваться, оптимизатором МТ5 или НС. Даже если он что-то выбрал, то захочет взять самый эффективный алгоритм 
 
Andrey Dik #:

какой ужас.

нет никакого разделения алгоритмов на "локальные" и "глобальные". если алгоритм застревает в одном из локальных экстремумов - это недостаток, а не фича.

есть узкоспециализированные сравнения традиционных AO для нейронок, можете поискать. алгоритмы как правило используют под конкретные задачи, но все без исключения можно сравнивать ко качеству сходимости.

Ну все это 5 )))))))))

В одном вузе с максимкой учился? 

 
Явно не в пту и не либеральным ценностям 
 
СанСаныч Фоменко #:

Используются алгоритмы градиентного спуска, который вообще, а не для нейронок, и который имеет огромную бороду. Гуглим и не задаем детских вопросов, узнав как градиентный спуск преодолевает разного типа ловушек локальных экстремумов. Этим люди специально занимаются много лет.

Вам предложили проверить обучение/оптимизацию на нескольких показательных функциях, это хорошая практика

если думаете, что нейросети делают это идеально, то, скорее всего, ошибаетесь

 
Maxim Dmitrievsky #:

Вам предложили проверить обучение/оптимизацию на нескольких показательных функциях, это хорошая практика

если думаете, что нейросети делают это идеально, то, скорее всего, ошибаетесь

ага... честно говоря, удивлён, что не все восприняли адекватно простые истины - всё нужно проверять, а вера в кем то озвученные догмы означает застой и деградацию.

а градиентный спуск и бекпроп настолько древние убогие методы, что странно что до сих пор могут кем то вполне всерьёз восприниматься.

кстати, генетика нынче уже порядочно как времени не самый робастный алгоритм. нужно и его будет включить в таблицу для... ну, просто для. что бы было понятно, что всегда есть куда стремится.

 
Andrey Dik #:

ага... честно говоря, удивлён, что не все восприняли адекватно простые истины - всё нужно проверять, а вера в кем то озвученные догмы означает застой и деградацию.

а градиентный спуск и бекпроп настолько древние убогие методы, что странно что до сих пор могут кем то вполне всерьёз восприниматься.  

там воспRиятие специфическое, на уровне карго-культа и веры в богоявленный R, несущий дары цивилизации

 

С одной стороны, обучение - частный случай оптимизации, но с другой - есть и некоторые особенности.

1) Оптимизация в МО, как правило, подразумевает по своей сути оптимизацию в бесконечномерном функциональном пространстве. Это бывает в явном виде (градиентный бустинг, например), но может быть и неявным. Это приводит к невероятной гибкости моделей, но пропадает ясность и простота, которая есть в конечномерной оптимизации. Например, любой экстремум на конечномерном подпространстве вполне может оказаться седловой точкой на подпространстве более высокой размерности (которая может быть сколь угодно высокой).

2) Используется ограниченный набор хорошо устроенных функций потерь. Это позволяет избежать проблем вытекающих из первого пункта. Но если захочется кастомизировать функцию потерь, то это будет либо невозможно либо очень трудно.

 
Aleksey Nikolayev #:

С одной стороны, обучение... 

Алексей, знаешь ли ты что либо про оптимизацию шумной функции? 
 
Есть полный перебор, а есть оптимизация. Она нужна для сокращения времени поиска оптимального решения. Поскольку это так, то это всегда компромисс. Можно оптимизировать методом стохастического градиента и получить результат лучше, чем через adam, но пожертвовав временем. И приходится выбирать. Для каких-то задач точность может оказаться важнее скорости, например повысить матожидание ТС.
Здесь интересно как раз посмотреть на наглядные результаты.
 
Andrey Dik #:

какой ужас.

Ужас в том, что человек пришет статьи про оптимизацию и не зная тему даже на 20% , потому и не признает общеизвесных вещей удивляясь этому...

Ужас в том, что люди с еще меньшей квалификацией заливая себе в голову гной, считают это знаниями от гуру, на выходе пачки интелектуальных калек...


А всякие НЕптушники радосно поддакивают, потому как уже покалечены и сами льют гной называя эго статьями...

вот это реальный УЖАС!!!

Причина обращения: