Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 693
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
set.seed(1234)
Это что такое и куда его пихать??
, то это более чем половина дела... так то....
90%, а модели - это дело техники, в caret полно этого добра с соответствующей обвязкой.
Вот заодно и пример с vtreat,
Вообще это препроцессинг данных, но можно использовать как оценку каждого предиктора по отношению к таргету. Мне не нравится что в пакете не учитывается взаимодейсвтие предикторов, используйте код только если вам хватает оценки предикторов по одному к таргету.
Это что такое и куда его пихать??
set.seed устанавливает начальное зерно генератора случайных чисел. Если перед запуском кода ставить его в одно и тоже состояние (типа 1234), то и последующий код выполнится одинаково во всех случаях.
read.csv2(.. итд
set.seed(1234)
Boruta(TargetProf... итд)
Но наверное алгоритму нужно больше итераций (maxRuns = 1000000 например), он не укладывается в столь малое число как по дефолту и останавливается на полпути.
Я вот над регрессией задумался....
Регрессия на фин. рынках скорее не гладкая функция, а ступенчатая с шагом в 1 пт. (и для учителя и для прогноза). Если например ограничиться движением в +/- 100 пт., то тогда прослеживается аналогия с классификацией, на 200 классов. Т.е. на выходе мы предсказываем наиболее вероятный класс - например +22 пт.
Не означает ли это, что для хороших результатов структура/сложность модели (число нейронов) для регрессии должна быть в 200 раз больше? Ну если увеличить шаг до 5 пт, то в 40 раз - чуть поэкономнее будет за счет меньшей точности.
Теперь впомни боксплот, сделай что нить с входами и прогони еще раз.
Параметр set.seed в обоих случаях одинаков.
Что сделать то с входами???
Мдя..... признаюсь я ожидал лучшего от своих входов. Во всяком случае думал что важных будет побольше, ну уж никак не четыре из 100. На таком количестве входов модели получаются уж больно совсем маленькие, хотя из практики было замечено, чем модель проще тем она работает лучше. И глядя на полученную модель и проведя свои тесты я понимаю что эта маленькая засранка чертовски хороша..... Выводы делать рано, нужно больше тестов. Продолжаю копать....
forexFeatures <- read.csv2("Qwe.txt")
на самом деле нужно
Извиняюсь, недоглядел формат в вашем файле. Поправлю старые посты. Код запустите заново, результаты должны быть качественнее, а то все числа с десятичными дробями обрабатывались не так как надо.
Что сделать то с входами???
jPrediction например шкалирует данные в интервал [-1;1], и уже на этих числах обучается. Можно и в R шкалировать к этому-же интервалу перед оценкой входов.
Методы оценки основанные на деревьях наверное не изменят результат, лесам не особо важно в каком интервале пришли данные, но лучше проверить. vtreat тоже не привередлив к интервалу.
Но вообще, он говорит о нелинейном преобразовании входов ещё до подачи в нейронку. Нейронки очень чувствительны ко входам, и если как-то особо обработать входные данные - её результаты могут улучшиться. Например слышал такой трюк - преобразовать входы через сигмоиду.