Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2019
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
)), ну... спорное утверждение.
Эта же самая операция средствами MQL занимает от 10 минут и более. Скорость можно было бы увеличить, если бы на хосте было больше ядер в процессоре или самих процессоров ))).вот 2700 эпох за 30 секунд это слишком быстро
Вот те на, ситуационный парадокс, в личку не попадаю) сайт глючит. Прочихается - отпишу Вам и Максиму.
Я написал Вам, сообщение дошло?
вот 2700 эпох за 30 секунд это слишком быстро
Данных мало, массив вроде глубиной 400, а так ели его грузануть на глубокую историю, то даже С++ с потоками уйдет в задумчивость ))), но самое печальное, что в итоге не удается получить хорошо обученную систему, у меня стоит рубеж 30000 эпох, по ней и прекращается обучение, но сам понимаешь это не до обученная хрень получается, почему так... думаю из-за коллизий, т.е. как мне кажется встречается набор данных который в одном случае говорить , что это модель шортовая, а в другом случае эта же модель представляется как лонговая, если так то конечно это мой косяк, но разбираться с этим уже нет сил ((. Из-за этого, просто сократил набор входных данных для обучения.
блин.. не сложные в плане понять можно
обычно пары слоев хватает, большой глубины на форексе не требуется
просто архитектурно есть более продвинутые сети для вр, покруче lstm. Оттуда может быть профит, не проверял еще. Все что "классика" типа бустингов и персептронов - для вр не подходит вообще.
Требуется или нет больше слоев можно судить только по достигнутым результатам, я так думаю...
Это какие сети ещё есть, можете их назвать - в разновидности сетей я вообще не очень силен.
Можно Вам сбросить выборку для прогона в модной сети какойнибудь?
Данных мало, массив вроде глубиной 400, а так ели его грузануть на глубокую историю, то даже С++ с потоками уйдет в задумчивость ))), но самое печальное, что в итоге не удается получить хорошо обученную систему, у меня стоит рубеж 30000 эпох, по ней и прекращается обучение, но сам понимаешь это не до обученная хрень получается, почему так... думаю из-за коллизий, т.е. как мне кажется встречается набор данных который в одном случае говорить , что это модель шортовая, а в другом случае эта же модель представляется как лонговая, если так то конечно это мой косяк, но разбираться с этим уже нет сил ((. Из-за этого, просто сократил набор входных данных для обучения.
почему такое огромное кол-во эпох.. обычно хватает до 1000 или даже 100, с динамическим лернинг рейтом
Требуется или нет больше слоев можно судить только по достигнутым результатам, я так думаю...
Это какие сети ещё есть, можете их назвать - в разновидности сетей я вообще не очень силен.
Можно Вам сбросить выборку для прогона в модной сети какойнибудь?
я только изучаю нейросетки. Уже писал тут. Это новые сверточные и трансформеры и проч., в основном для обработки языка и звука используются
датасеты для них готовятся специальным образом, обычные не подойдутя только изучаю нейросетки. Уже писал тут. Это новые сверточные и трансформеры и проч., в основном для обработки языка и звука используются
датасеты для них готовятся специальным образом, обычные не подойдутЕсли знать как готовить, то можно и подготовить...
почему такое огромное кол-во эпох.. обычно хватает до 1000 или даже 100, с динамическим лернинг рейтом
Задача получить максимальную точность при обучение, т.е. точность до 1. Так как первичные весовые значения устанавливаются случайным образом, иногда эпох бывает меньше 1000.
Если знать как готовить, то можно и подготовить...
Логично
ряд должен быт последовательным. Т.е. не просто вырванные из истории признаки\метки, а последовательная серия
рекомендую просто изучить тему и попробовать самому
В моей библиотеке данные передаются в виде 3-мерного тензора. Каждый сэмпл представляет собой матрицу. Весь датасет делится на батчи, это еще одно измерение.