Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 495
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Всё нормально, результат нулевой, это Вам ещё повезло что на такой маленькой выборке результат оказался статистически не смещенным. А на бэкварде эквити вообще не нужно смотреть даже, её можно сделать легко вообще экспонентой без вариаций.
А на что тогда ориентироваться, при выборе сета для форварда?
Увы, но они ошибаются и это нормально не только для "неучей" и снобов, вспомните про Минского и его авторитетное мнение в отношении "бесперспективности" многослойных персептронов)))
Про статьи на хабре я вообще молчу, это всё равно что вбросы на форумах, 99.9% реклама, научпоп и откровенный трэш, 0.1% толковых мыслей в неявной форме, "между строк".Лично сторонник того, что нужно понять, как алгоритм устроен, сделать самому и использовать для сверки библиотеки из сети.
Да и в сети в основном перепосты одни и пр., много роликов, да мало примеров конкретной реализации в коде или в коде, но на незнакомом языке программирования.
все неучи, кроме ФА
только ФА уч
;))
Смотрю не даю тебе ровно дышать.. вздохни и успокойся
причем здесь все это когда речь идет об экстраполяции..
те кто написал RF в библиотеке alglib тоже малообразованные люди?
и r блоггеры тоже неучи, судя по всему
https://www.r-bloggers.com/extrapolation-is-tough-for-trees/
Когда мы ссылаемся на авторитетных людей, то это означает, что мы доверяем результату. Делать это можно только в отношении очень известных людей, публикующих результаты в хороших журналах с квалифицированными редакторами.
А Вы о чем? О блоге? Это авторитет?
Ваша ссылка - это классика ссылки на тех, кого я называю неучем.
Автор берет линейную регрессию, крайне ограниченную в применении модель, и что-то там рассуждает.
Для линейной регрессии чрезвычайно важны свойства входных данных, и очень важно обосновать, что результатам можно доверять. Где это в статье?
Это азы статистики, которые распространяются на любые модели.
Это положение очень кратко формулируется аксиомой статистики (и всей математики, кстати): МУСОР НА ВХОДЕ - МУСОР НА ВЫХОДЕ.
Человек, которые этого не знает, либо не применяет этого на практике - по-моему относится к дремучим неучам, независимо от того знает он слово персептрон или нет.
Когда мы ссылаемся на авторитетных людей, то это означает, что мы доверяем результату. Делать это можно только в отношении очень известных людей, публикующих результаты в хороших журналах с квалифицированными редакторами.
А Вы о чем? О блоге? Это авторитет?
Ваша ссылка - это классика ссылки на тех, кого я называю неучем.
Автор берет линейную регрессию, крайне ограниченную в применении модель, и что-то там рассуждает.
Для линейной регрессии чрезвычайно важны свойства входных данных, и очень важно обосновать, что результатам можно доверять. Где это в статье?
Это азы статистики, которые распространяются на любые модели.
Это положение очень кратко формулируется аксиомой статистики (и всей математики, кстати): МУСОР НА ВХОДЕ - МУСОР НА ВЫХОДЕ.
Человек, которые этого не знает, либо не применяет этого на практике - по-моему относится к дремучим неучам, независимо от того знает он слово персептрон или нет.
жесть, вы тут все бухаете что-ли
Умеет ли лес экстраполировать? Да.
Хорошо ли он это делает? Нет.
Умеет ли лес экстраполировать? Да.
Хорошо ли он это делает? Нет.
RF АБСОЛЮТНО не умеет экстраполировать, это связано с устройством деревьев решений, как показано в статье выше
RF АБСОЛЮТНО не умеет аппроксимировать, это связано с устройством деревьев решений, как показано в статье выше
Жесть!
Экстраполяция и аппроксимация АБСОЛЮТНО разные понятия.
Вообще не трезвеете?
Жесть!
Экстраполяция и аппроксимация АБСОЛЮТНО разные понятия.
Вообще не трезвеете?
да я нечайно слова перепутал, потому что про аппроксимацию читал в этот момент
Вот интересный пример, его в этой теме когда-то раньше выкладывал toxic.
Экстраполяцией в данном случае будет предсказание вне "облака известных точек"
Если известные точки хорошо кучкуются в кластеры, то видно что экстраполяция не вызывает проблем у большинства моделей.
Но если бы известные точки располагались более рандомно, без очевидных кластеров, то и само предсказание было бы хуже, и экстраполяция бы не вызывала доверия.
Всё дело в предикторах, если напихать в модель всякого мусора то хорошей экстраполяции действительно не будет.
Конкретно для форекса вряд ли удастся найти идеальные предикторы, торговать экстраполяцией на финансовых данных я бы никогда не стал.