Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3338
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Откажитесь от привычки читать только заголовки: книга - это не пост в твиттере.
Более половины книги я прочитал, поэтому сам могу судить о содержании, есть разделы, которые на 80% состоят из кода.
Вот перечень пакетов, которые использовались при написании кода в книге.
По своему содержанию книга представляет собой систематическое изложение проблем и их решений того, что называется "машинное обучение", на данном сайте весьма полезна, так как под "машинным обучением" обычно понимают только модель.Да. Хороша книга.
Поскольку Вы прочли половину.
Могли бы наверное написать одну строчку кода.
Наиболее запомнившуюся Вам?
P.Z.
Советую всем изучить книгу.
statistical learning
козул - это самореклама, новая наклейка на старые штаны.
А где там стат. вывод после ресемплинга и cv? И построение финального классификатора. Эту тему берите и развивайте. Это основа козула.
Козул - это недобросовестная реклама, новая наклейка на старые штаны.
Тулз фор креатинг эфектив моделз, компаринг мультипл моделз виз ресамплинг. Дальше должно быть что-то вроде стат. вывода и построения несмещенной модели.
Это стандарт машинного обучения и значительная часть книги рассматривает именно эти вопросы, которым много лет и для решения которых придумано множество инструментов. Часть 3 книги так и называется: Tools for Creating Effective Models со следующим содержанием:
· 10 Повторная выборка для оценки производительности
· 11 Сравнение моделей с повторной выборкой
· 12 Настройка модели и опасность переобучения
· 13 Поиск по сетке
· 14 Итеративный поиск
· 15 Просмотр множества моделей
Кроме этого имеется глава 20 "Ensembles of Models", которая рассказывает как построить финальную модель.
Статистикал лернинг нам нужен.
Нужен? пожалуйста: CRAN Task View: Machine Learning & Statistical Learning
Это для новичков подсказки, нужен козул и умение думать
A model ensemble, where the predictions of multiple single learners are aggregated to make one prediction, can produce a high-performance final model. The most popular methods for creating ensemble models are bagging (Breiman 1996a), random forest (Ho 1995; Breiman 2001a), and boosting (Freund and Schapire 1997). Each of these methods combines the predictions from multiple versions of the same type of model (e.g., classifications trees). However, one of the earliest methods for creating ensembles is model stacking (Wolpert 1992; Breiman 1996b).
Model stacking combines the predictions for multiple models of any type. For example, a logistic regression, classification tree, and support vector machine can be included in a stacking ensemble.
This chapter shows how to stack predictive models using the stacks package. We’ll re-use the results from Chapter 15 where multiple models were evaluated to predict the compressive strength of concrete mixtures.
The process of building a stacked ensemble is:
20.5 CHAPTER SUMMARY
This chapter demonstrated how to combine different models into an ensemble for better predictive performance. The process of creating the ensemble can automatically eliminate candidate models to find a small subset that improves performance. The stacks package has a fluent interface for combining resampling and tuning results into a meta-model.
Это взгляд на проблему автора книги, но это не единственный способ объединение несколько моделей - в R существуют пакеты для объединения моделей. Например, caretEnsemble: Ensembles of Caret Models
все будет медленно, ватно.
Там еще, похоже, в книге путают ансамбль и стакинг. Короче это нормальный подход, но он может быть ватным в продакшне.
Как вот недавно давали ссылку на статью Владимира. Пример наиболее ватного создания ТС.
Что за ватность?