Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3312
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Скажите, пожалуйста, а что не является мусором? Я ни разу не встречал, чтобы кто-то говорил о чистых входных данных. А вот про мусор на форуме постоянно слышу.
Что они из себя представляют? Если вы говорите про мусор, значит имели не с немусором, иначе не с чем сравнивать
НЕ мусор - это предиктор, который связан/имеет влияние с учителем. Вот пакет proxy, в котором полно алгоритмов, позволяющий отделить мусор от НЕ мусора. Кстати, далеко не единственный в R.
Например, машка для учителя приращение цены является мусором, как и любые алгоритмы сглаживания.
Если Вы про feature selection в в составе моделей, то совершенно не согласен, так как feature selection в составе моделей как раз любой мусор ранжирует.
Если Вы про feature selection в в составе моделей, то совершенно не согласен, так как feature selection в составе моделей как раз любой мусор ранжирует.
Я говорю про feature selection
а то что вы называете "feature selection в в составе моделей" это - variance importance. Не путайте себя и другихм могзи не пудрите.
А то что вы делаете с пакетом proxy это и есть кустарный, неправильный, примитивный feature selection, вернее его часть
И действительно, ознакомтесь с понятиями и не вводите свои поверх существующих
А то меня каждый раз передергивает когда вы переобучение называете "сверх подгонкой" и таких ляп вагон
Саныч, когда запомним, что Учитель - это признаки + целевая?)
О, наймудрейший!
О, наисведомленнейший!
"Учитель" (синоним целевая переменная) в методе обучения "с учителем" представляет собой ОТДЕЛЬНУЮ ПЕРЕМЕННУЮ в формуле всех известных мне моделей машинного обучения например,:
randomForest(as.factor(target ) ~ ., data = Train [, - ncol(Train )], ntree = ntree, mtry = mtry)
где target представляет собой отдельный столбец матрицы. По смыслу, например, приращения цены. Это как функция и ее аргументы.
Остальные столбцы матрицы надо подобрать. Проблема том, что не всякий УЧИТЕЛЬ подойдет для признаков(предикторов) и наоборот, не всякие признаки подойдут для конкретного учителя
Я говорю про feature selection
а то что вы называете "feature selection в в составе моделей" это - variance importance. Не путайте себя и другихм могзи не пудрите.
А то что вы делаете с пакетом proxy это и есть кустарный, неправильный, примитивный feature selection, вернее его часть
И действительно, ознакомтесь с понятиями и не вводите свои поверх существующих
А то меня каждый раз передергивает когда вы переобучение называете "сверх подгонкой" и таких ляп вагон
Спасибо за уточнение!
Но абсолютная точность возможна только с указанием конкретной модели машинного обучение, так как существуют модели, в которых предоставляются сведения о variance importance, а существуют модели, в которые feature selection встроен.
Если общая классификация понятий в проблеме отбора фич, то можно пользоваться этим
Просто к слову: какой перевод overfitting? Переобучение? А может сверх подгонка?
Спасибо за уточнение!
Просто к слову: какой перевод overfitting? Переобучение? А может сверх подгонка?
переела - overate
переговорил - talked over
Суть даже не в этом, а в том что вы единственный кто употребляет это слово на фоне сотен других и в этом нету неичего хорошего, это только путает.
==================================================================
Помню вы говорили что считаюся вашы функции долго , есть такая крутая вещь как мемоизация кода , очень сильно ускоряет код в некоторых случаях, нужно всего лишь завернуть медленную f1() функцию в f2() и сделать мемоизируемую функцию
прирост отличный
О, наймудрейший!
О, наисведомленнейший!
"Учитель"
Саныч, где там написано, что Учитель синоним целевой? )
memoise
любопытно
Саныч, где там написано, что Учитель синоним целевой? )
Не надо тупить!
Обуче́ние с учи́телем (англ. Supervised learning) — один из способов машинного обучения, в ходе которого испытуемая система принудительно обучается с помощью примеров «стимул-реакция». С точки зрения кибернетики, является одним из видов кибернетического эксперимента. Между входами и эталонными выходами (стимул-реакция) может существовать некоторая зависимость, но она неизвестна.
А главное не надо никого учить! Занимайтесь собой!