Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2742
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
при всём уважении, но это не подытоживание (не дайджест или краткое изложение). Тут сквозит личное отношение и необоснованные нападки.
можно подумать что у кого то есть обоснованная теория где "обученная модель должна работать на новых данных" :-) ещё и подтверждаемая..ога
Добить до уровня советника не хватает сил. Но результат ошибки подгонки модели: от 8% до 22% - это ошибка подгонки, которая мало отличается на участке подгонки и вне выборки.
в доп. к Maxim Dmitrievsky
вот я об этом и говорю:
чтобы делать классификацию, не надо делать тупо на up/down dir, а сначала хотя бы сделать кластерный анализ, чтобы определиться сколько классов формально выделить (как их назвать уже дело субъективного вкуса)...
и только потом определять дискриминантные функции, на основании которых относить sample'ы к тому или иному классу... тогда и классификация будет с нормальным процентом точности, - когда знаем, что классы на которые разделяем, действительно существуют...
PCA - лишь как вариант факторного анализа для выделения ортогональных признаков, но он объясняет ВСЮ дисперсию, без выделения главных факторов,
т.к. главные компоненты - это лишь исх. данные трансформированные в eigenvector-коэфициенты ("loadings"), которые при умножении на исх. данные дают pc_scores... (как-то так - давно не вспоминала алгоритм)
- но в итоге PCA объясняет ВСЮ дисперсию, без fs... в анализе же главных факторов используется "только вариация переменной, общая и для др. переменных"... (Не настаиваю, что это лучший fs -- но везде свои нюансы)
в общем FS никто не может выполнить правильно, и пытается обвинить в этом библиотеку...
PCA в совокупности с +/-3ср.кв.откл -- может помочь убрать outliers, но это лишь для норм. распределения, а то что ваша ген. совокупность подчиняется норм закону распр-я вам ещё доказать надо! - тоже сиатистически... иначе и PCA покажет "маслом по Репину" (а не наоборот)...
== как бы достаточно статистически адекватный способ построения модельки вижу примерно таким...
===
а библиотека уже 10-е дело (даже если модераторы обзываются не понимая о чём речь в нормальном DataScience - неучи всегда грезят банкетом и обвиняют в этом весь мир) -- пока те кто, действительно, хочет разобраться, уже давно поняли, что не в программерском языке дело, а в алгоритмах, которые стоят за теми или иными сущностями, реализованными хоть в библиотеке инопланетян -- сути причинно-следственных связей это (название библиотеки) не меняет
p.s.
пока модераторы на банкете(, другие работают - брали бы с них пример - не разводили бы дезинформацию
PCA - лишь как вариант факторного анализа для выделения ортогональных признаков, но он обясняет ВСЮ дисперсию, без выделения главных факторов,
Есть РСА с учетом целевой, он выделит компоненты которые характеризуют целевую, но печаль в том что целевая это субьективная переменная и она "поплвет" сразу как закончиться трейн... да и чем это тогда отличаеться от обычного обучения с учителем..
в доп. к Maxim Dmitrievsky
вот я об этом и говорю:
чтобы делать классификацию, не надо делать тупо на up/down dir, а сначала хотя бы сделать кластерный анализ, чтобы определиться сколько классов формально выделить (как их назвать уже дело субъективного вкуса)...
и только потом определять дискриминантные функции, на основании которых относить sample'ы к тому или иному классу... тогда и классификация будет с нормальным процентом точности, - когда знаем, что классы на которые разделяем, действительно существуют...
PCA - лишь как вариант факторного анализа для выделения ортогональных признаков, но он обясняет ВСЮ дисперсию, без выделения главных факторов,
т.к. главные компоненты - это лишь исх. данные трансформированные в eigenvector-коэфициенты ("loadings"), которые при умножении на исх. данные дают pc_scores... (как-то так - давно не вспоминала алгоритм)
- но в итоге PCA объясняет ВСЮ дисперсию, без fs... в анализе же главных факторов используется "только вариация переменной, общая и для др. переменных"... (Не настаиваю, что это лучший fs -- но везде свои нюансы)
в общем FS никто не может выполнить правильно, и пытается обвинить в этом библиотеку...
PCA в совокупности с +/-3ср.кв.откл -- может помочь убрать outliers, но это лишь для норм. распределения, а то что ваша ген. совокупность подчиняется норм закону распр-я вам ещё доказать надо! - тоже сиатистически... иначе и PCA покажет "маслом по Репину" (а не наоборот)...
== как бы достаточно статистически адекватный способ построения модельки вижу примерно таким...
===
а библиотека уже 10-е дело (даже если модераторы обзываются не понимая о чём речь в нормальном DataScience - неучи всегда грезят банкетом и обвиняют в этом весь мир) -- пока те кто, действительно, хочет разобраться, уже давно поняли, что не в программерском языке дело, а в алгоритмах, которые стоят за теми или иными сущностями, реализованными хоть в библиотеке инопланетян -- сути причинно-следственных связей это (название библиотеки) не меняет
p.s.
пока модераторы на банкете(, другие работают - брали бы с них пример - не разводили бы дезинформацию
кем сказано? бестолочью которая трех слов связать не может чтобы логику не нарушить )) ахаха, это серйезно...
кем сказано? бестолочью которая трех слов связать не может чтобы логику не нарушить )) ахаха, это серйезно...
ты не понимаешь речевых оборотов, не понимаешь когда написано для краткости, не понимаешь определений, то есть ничего
просто фонишь не по теме. Это отличительная черта птушников
тебя никто в этом не обвиняет, люди разные. Просто не лезь туда где дуб дубом, не встревай :Dты не понимаешь речевых оборотов
гениально)) пишем любой маразм, а если хоть кто то думающий ткнет тебя носом, ты ему - ты не понимаешь речевых оборотов , птушник
А что ты имеешь против птушников? они типа не люди? или твой бывшый оттуда?
...
Пишите на русском, читать невозможно. А с sample'ы даже смешно. Большинство ваших постов из за этого обычно вообще не читаю.