Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 586
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Так попробуй найди.)) Такой МЛП был бы оптимальный вариант.
Вчера нашел сверточную НС - обычно используется для распознавания изображений. Естественно, имеются все утилиты - обучение и пр. Сделана для использования в Питон.
Там еще рекуррентные и пр. есть, но это пока не оч интересно.
Т.к. сверточная сеть не полносвязная, то можно сильно увеличить количество нейронов без потери производительности. Но надо еще в деталях разбираться - пока не вникал.
Популярное описание - https://geektimes.ru/post/74326/Присмотритесь к HTM - писал Вам ранее. В ее структуре заложено использование контекста. И есть реализация на питоне.
Про нестационарность от Хайкина
О чем я (и не только) и писал, а тут как бы уже все давно доказано :)
Случайно узнал что есть новая версия пакета gbm, которой ещё нету в cran репозиториях.
https://github.com/gbm-developers/gbm3
установка:
после этого обновлённая библиотека в R называется gbm3:
Я в коде r скрипта просто заменил название библиотеки с gbm на gbm3, остальной код заработал без изменений.
У меня при поиске параметров gbm модели иногда случалось что обучение съедало много оперативной памяти и весь компьютер подвисал на десяток минут. С этой новой версией такого покачто не случалось, рекомендую попробовать.
Про нестационарность от Хайкина
О чем я (и не только) и писал, а тут как бы уже все давно доказано :)
Совершенно не понимаю текста про нестационарность: приход новых наблюдений разрушает ранее выявленные связи? Это может быть из-за моего незнания НС, но в деревьях рассматривается ровно одна строка наблюдений и невозможно разрушить ранее построенные деревья. Они могут не встречаться в будущем, в будущем могут появиться точно такие же деревья, но относить они будут к другому классу, но старое все будет оставаться незыблемым.
ПС.
Есть деревья, в которых рассматривается несколько строчек при построении дерева... но вроде бы это сути не меняет
Совершенно не понимаю текста про нестационарность: приход новых наблюдений разрушает ранее выявленные связи? Это может быть из-за моего незнания НС, но в деревьях рассматривается ровно одна строка наблюдений и невозможно разрушить ранее построенные деревья. Они могут не встречаться в будущем, в будущем могут появиться точно такие же деревья, но относить они будут к другому классу, но старое все будет оставаться незыблемым.
ПС.
Есть деревья, в которых рассматривается несколько строчек при построении дерева... но вроде бы это сути не меняет
Да нет, там все свелось к тому что надо последовательно строить псевдостационарные ряды, переобучаться как можно чаще.. в принципе я то же самое и делаю
или построить линейный\нелинейный фильтры.. я так понимаю перед этим нужно учесть динакмику изменения влияния предикторов на целевую, и попытаться адаптировать выходной сигнал через коэффициенты фильтра, в зависимости от изменений среды
ну в общем ничего особенного. По крайней мере в этой главе.
Про нестационарность от Хайкина
О чем я (и не только) и писал, а тут как бы уже все давно доказано :)
Про нестационарность от Хайкина
О чем я (и не только) и писал, а тут как бы уже все давно доказано :)
Присмотритесь к HTM - писал Вам ранее. В ее структуре заложено использование контекста. И есть реализация на питоне.
Что-то не нашел в нашей переписке. Что есть HTM? и с чем едят?
Вообще, Питоном начал заниматься 2-3 дня назад. Пока мало что понимаю.) Так что до дела нескоро дойдет.
Что-то не нашел в нашей переписке. Что есть HTM? и с чем едят?
Вообще, Питоном начал заниматься 2-3 дня назад. Пока мало что понимаю.) Так что до дела нескоро дойдет.
Вот, отсюда можно начать: https://numenta.org/implementations/
Есть книжка на русском - перевод почти адекватный.