Чемпионат Алгоритмов Оптимизации. - страница 133
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Добрый день!
Готовлю площадку (сайт) посвящённую алгоритмам оптимизации, где будут конкурсы, полезная информация и много чего ещё интересного и полезного.
Каждый желающий сможет проверить свои силы в написании алгоритмов и протестировать их в сравнении с другими участниками. Участнику не потребуется отправка алгоритма на сервер, всё взаимодействие с FF, расположенной на сервере, происходит по REST, участник отправляет набор аргументов на сервер, а обратно получает результат FF, не требуется арбитр поскольку всё предельно прозрачно, при этом остаются в секрете алгоритмы участников.
Ждите новостей!
Добрый день!
Работаю над проектом который озвучил ранее, работа большая, интересная.Появляются новые мысли и идеи, посмотрим что из этого получится.)
А пока запустил серию статей о популяционных алгоритмах оптимизации, только популяционные, другие типы алгоритмов возможно позже, или может быть начну серию параллельно. Работа ведётся совместно с Виолеттой, без неё навряд ли что то бы получилось, большое ей спасибо.
Обзор популяционных алгоритмов.
Рой частиц (PSO).
Муравьиная колония (ACO).
Разработан тестовый стенд, на котором каждый желающий может испытать свой алгоритм, или взять готовый из статьи и использовать в своих проектах. Все представленные алгоритмы сейчас и все которые появятся - полностью готовые к использованию, не требуют никакой доработки.
Желаю всем много успешных проектов и хорошего настроения!))
Интересен градиентный бустинг - градиентный спуск в функциональных пространствах.
Вроде было только про машинное обучение в рамках CatBoost, а интересен более общий подход в рамках более общей (оптимизационной) задачи. Если по пунктам, то:
1) Решение любых оптимизационных задач, а не только их частного случая, возникающего в рамках задачи машинного обучения.
2) Оптимизация по кастомной функции потерь, а не только из заданного пакетом стандартного набора.
3) Градиентный бустинг для любого вида моделей, а не только для решающих деревьев.
Тема, конечно, непростая, но раз уж вы попросили предложений, то я и написал про интересное мне.
Вроде было только про машинное обучение в рамках CatBoost, а интересен более общий подход в рамках более общей (оптимизационной) задачи. Если по пунктам, то:
1) Решение любых оптимизационных задач, а не только их частного случая, возникающего в рамках задачи машинного обучения.
2) Оптимизация по кастомной функции потерь, а не только из заданного пакетом стандартного набора.
3) Градиентный бустинг для любого вида моделей, а не только для решающих деревьев.
Тема, конечно, непростая, но раз уж вы попросили предложений, то я и написал про интересное мне.
Доработал тестовые функции, которые теперь предъявляют более жесткие требования к алгоритмам и обеспечивают большую объективность результатов тестирования. Собственно, сами функции остались без изменений, только смещены центры функций, диапазоны и добавлена принудительная проверка входных аргументов.
Функции представлены в статье об алгоритме стаи серых волков. Готовится к публикации алгоритм поиска кукушки с полётом Леви (применение степенной функции с тяжелыми хвостами).
так выглядит таблица с цветовой градацией результатов по "дисциплинам".
Привет! В алгоритме оптимизатора надо добавить нейросеть.
Иначе выхода не вижу.
Привет! В алгоритме оптимизатора надо добавить нейросеть.
Иначе выхода не вижу.