Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2828
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
какой ужас.
нет никакого разделения алгоритмов на "локальные" и "глобальные". если алгоритм застревает в одном из локальных экстремумов - это недостаток, а не фича.
есть узкоспециализированные сравнения традиционных AO для нейронок, можете поискать. алгоритмы как правило используют под конкретные задачи, но все без исключения можно сравнивать ко качеству сходимости.
Ну все это 5 )))))))))
В одном вузе с максимкой учился?
Используются алгоритмы градиентного спуска, который вообще, а не для нейронок, и который имеет огромную бороду. Гуглим и не задаем детских вопросов, узнав как градиентный спуск преодолевает разного типа ловушек локальных экстремумов. Этим люди специально занимаются много лет.
Вам предложили проверить обучение/оптимизацию на нескольких показательных функциях, это хорошая практика
если думаете, что нейросети делают это идеально, то, скорее всего, ошибаетесь
Вам предложили проверить обучение/оптимизацию на нескольких показательных функциях, это хорошая практика
если думаете, что нейросети делают это идеально, то, скорее всего, ошибаетесь
ага... честно говоря, удивлён, что не все восприняли адекватно простые истины - всё нужно проверять, а вера в кем то озвученные догмы означает застой и деградацию.
а градиентный спуск и бекпроп настолько древние убогие методы, что странно что до сих пор могут кем то вполне всерьёз восприниматься.
кстати, генетика нынче уже порядочно как времени не самый робастный алгоритм. нужно и его будет включить в таблицу для... ну, просто для. что бы было понятно, что всегда есть куда стремится.
ага... честно говоря, удивлён, что не все восприняли адекватно простые истины - всё нужно проверять, а вера в кем то озвученные догмы означает застой и деградацию.
а градиентный спуск и бекпроп настолько древние убогие методы, что странно что до сих пор могут кем то вполне всерьёз восприниматься.
там воспRиятие специфическое, на уровне карго-культа и веры в богоявленный R, несущий дары цивилизации
С одной стороны, обучение - частный случай оптимизации, но с другой - есть и некоторые особенности.
1) Оптимизация в МО, как правило, подразумевает по своей сути оптимизацию в бесконечномерном функциональном пространстве. Это бывает в явном виде (градиентный бустинг, например), но может быть и неявным. Это приводит к невероятной гибкости моделей, но пропадает ясность и простота, которая есть в конечномерной оптимизации. Например, любой экстремум на конечномерном подпространстве вполне может оказаться седловой точкой на подпространстве более высокой размерности (которая может быть сколь угодно высокой).
2) Используется ограниченный набор хорошо устроенных функций потерь. Это позволяет избежать проблем вытекающих из первого пункта. Но если захочется кастомизировать функцию потерь, то это будет либо невозможно либо очень трудно.
С одной стороны, обучение...
какой ужас.
Ужас в том, что человек пришет статьи про оптимизацию и не зная тему даже на 20% , потому и не признает общеизвесных вещей удивляясь этому...
Ужас в том, что люди с еще меньшей квалификацией заливая себе в голову гной, считают это знаниями от гуру, на выходе пачки интелектуальных калек...
А всякие НЕптушники радосно поддакивают, потому как уже покалечены и сами льют гной называя эго статьями...
вот это реальный УЖАС!!!