Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 850
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
А сколько их? Есть же способы сделать это быстрее.. Генетика.. Также в нс их загнать..
эвристический поиск
А какой надо? Я ведь все равно его для начала экспонентой обрабатываю с р=0.5, чтобы получить простейший поток.
Если мы идентифицировали тиковый поток у нас например Эрланга k=4, ну если откинуть Коши, то зачем нам опять ехать по нему экспонентой? Когда можно сразу перейти к Эрланга k=5 и т.д.? Выравнивать дальше промежутки между тиками, а не сначала запутать и выравнивать?
Наверное надежнее всего в цикле перебирать комбинации предикторов. Но это очень долго(
Под усложнением моделей в jPrediction подразумевается постепенное увеличение количества предикторов. Ведь в jPrediction количество нейронов в скрытом слое равно 2^(2*n+1), где n - количество предикторов. Соответственно, с ростом количества предикторов сложность модели (количество нейронов в скрытом слое) увеличивается. Таким образом, постепенно наращивая сложность моделей, jPrediction рано или поздно дойдёт до значения M, после которого дальнейшеее усложнение моделей приведёт к дальнейшему снижению обобщающей способоности (увеличению ошибок в обобщающей способности).
Наткнулся на сообщение Решетова о числе нейронов.
Если 10 предикторов, то получится 2^21 = 2097152 нейронов.
Не многовато ли?
Даже для 3х предикторов будет 128 нейронов...
Наткнулся на сообщение Решетова о числе нейронов.
Если 10 предикторов, то получится 2^21 = 2097152 нейронов.
Не многовато ли?
Даже для 3х предикторов будет 128 нейронов...
N = 2^i − 1
1023 нейрона для 10 входов уже получше.
Но, судя по статьям на практике используется гораздо меньше, например n=sqrt(#входов * # выходов)
Видимо N = 2^i − 1 - для точного запоминания, а формулы с меньшим количеством - для обобщения.
Самый шикарный отбор предикторов в caret: gafs - выбор предикторов генетическим способом; rfe- обратный выбор предикторов (самый быстрый); safs - имитируемая устойчивость выбора предикторов (отжиг) - самый эффективный.
Попробовал rfe на матрице 12*6400 - около 10 часов считала с параметрами по умолчанию (sizes = 2^(2:4)), не дождался и выключил. Подумал глюк, перезапустил еще раз с sizes = ncol(x) - уже час считает.
Обновление: второй запуск с sizes = ncol(x) закончил расчет за 2.5 - 3 часа, результаты близки к пакетам, которые за 3-5 минут обрабатывают те же данные.Если rfe самый быстрый, то сколько же ждать остальные?
Предыдущие опробованные пакеты не дольше 5 минут на тех же данных работали.
У вас так же долго считал?
Установка , rfeControl = rfeControl(number = 1,repeats = 1) - сократило время до 10-15 минут, изменения - 2 пары предикторов поменялись местами, но в целом похоже.
Попробовал rfe на матрице 12*6400 - около 10 часов считала с параметрами по умолчанию (sizes = 2^(2:4)), не дождался и выключил. Подумал глюк, перезапустил еще раз с sizes = ncol(x) - уже час считает.
Обновление: второй запуск с sizes = ncol(x) закончил расчет за 2.5 - 3 часа, результаты близки к пакетам, которые за 3-5 минут обрабатывают те же данные.Если rfe самый быстрый, то сколько же ждать остальные?
Предыдущие опробованные пакеты не дольше 5 минут на тех же данных работали.
У вас так же долго считал?
Точно не помню, давно было, но такие страсти как у Вас не отложились в памяти
Матрица обычная для меня.
НО
Точно не помню, давно было, но такие страсти как у Вас не отложились в памяти
Матрица обычная для меня.
НО
2 класса
Загружалось 1 ядро
Установка , rfeControl = rfeControl(number = 1,repeats = 1) - сократило время до 10-15 минут. Изменения в результатах - 2 пары предикторов поменялись местами, но в целом похоже, на то, что по умолчанию было.