Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 630
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Не буду утверждать, но мне кажется, что это иллюзии. Просто из общих соображений.
Почему, у Владимира Перевенко в статьях есть инфа, обучаются оч. быстро на сотнях входов
Статьи не читал и спорить не буду. Только картинки видел.)
МЛП, скажем, можно прекрасно обучить за 10-15 минут, и он будет великолепно функционировать. Да, но это в случае, если данные хорошо классифицируются, множества разделяются.
А вот если нет, то - Ой! Если, допустим, на рынке (или в ваших обуч выборках) просто нет разделяемых множеств, то обучай что хошь вечно - результатов не будет.
Почему, у Владимира Перевенко в статьях есть инфа, обучаются оч. быстро на сотнях входов
Все зависит от архитектуры и количества данных.
Сети для распознавания образов, учатся неделю на GPU. А там десятки слоев, с трехмерными тензорами.
Все зависит от архитектуры и количества данных.
Сети для распознавания образов, учатся неделю на GPU. А там десятки слоев, с трехмерными тензорами.
ну там он более простые описал - сеть Больцмана + MLP, например
https://www.mql5.com/ru/articles/1103#2_2_2
Статьи не читал и спорить не буду. Только картинки видел.)
МЛП, скажем, можно прекрасно обучить за 10-15 минут, и он будет великолепно функционировать. Да, но это в случае, если данные хорошо классифицируются, множества разделяются.
А вот если нет, то - Ой! Если, допустим, на рынке (или в ваших обуч выборках) просто нет разделяемых множеств, то обучай что хошь вечно - результатов не будет.
Давайте ради "научного знания" просто проведем эксперимент.
Выберем данные, размеры, архитектуру МЛП, выходные данные.
И каждый проведет свои тесты со своими инструментами.
Количество флейма станет меньше.
И кстати можно завести такую традицию, и каждую новую архитектуру тестить всем миром. =)
Давайте ради "научного знания" просто проведем эксперимент.
Выберем данные, размеры, архитектуру МЛП, выходные данные.
И каждый проведет свои тесты со своими инструментами.
Количество флейма станет меньше.
И кстати можно завести такую традицию, и каждую новую архитектуру тестить всем миром. =)
Делюсь первыми результатами своей НС. Архитектура такая, как описал в боге, ничего не менял.
Плато довольно ровное, НС хорошо обучилась уже на 1000 проходе, дальше результаты улучшались не сильно.
Обучалась за последний месяц на 15-минутках. Потрачено на обучение ~0.65$ Кол-во сделок в мес ~300
Результаты на предыдущих 2-х мес неуд, но и не сильно плохие.
Попробую добавить еще один скрытый слой и поискать ошибки еще :) и потом попробую обучить за более продолжительный период.
Maxim Dmitrievsky:
Почему, у Владимира Перервенко в статьях есть инфа, обучаются оч. быстро на сотнях входов
Во всех статьях приведены наборы данных и скрипты которые можно воспроизвести и получить реальные данные о времени обучения конкретно на Вашем железе. Время обучения DNN с двумя скрытыми слоями до 1 минуты.
Удачи
Давайте ради "научного знания" просто проведем эксперимент.
Выберем данные, размеры, архитектуру МЛП, выходные данные.
И каждый проведет свои тесты со своими инструментами.
Количество флейма станет меньше.
И кстати можно завести такую традицию, и каждую новую архитектуру тестить всем миром. =)
Делюсь первыми результатами своей НС. Архитектура такая, как описал в боге, ничего не менял.
Плато довольно ровное, НС хорошо обучилась уже на 1000 проходе, дальше результаты улучшались не сильно.
Обучалась за последний месяц на 15-минутках. Потрачено на обучение ~0.65$ Кол-во сделок в мес ~300
Результаты на предыдущих 2-х мес неуд, но и не сильно плохие.
Попробую добавить еще один скрытый слой и поискать ошибки еще :) и потом попробую обучить за более продолжительный период.
У Вас получается на входе второго слоя сигмоидом обрабатываются три нейрона? Как подбираете веса на втором слое какой диапазон выбирается от -1 до 1 с шагом к примеру 0.1.
В моей сети после обработки вторым слоем падало количество сделок и не сильно улучшался результат. В отличии от того когда просто подгонялся перпцетрон с 9 входами и одним выходным нейроном и потом брался другой независимый перпцетрон и опять подгонялся с сохраненными настройками первого и т.д.