Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1132
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
ну или парный
а МО там где?
а МО там где?
http://sun.tsu.ru/mminfo/2016/Dombrovski/book/chapter-2/chapter-2.htm
кто юзал leave-one-out cv для LR? заменяет ли она отдельную валидационную выборку? Ну думаю что только Vizard мб и юзал :)
It is best to think of cross-validation as a way of estimating the generalisation performance of models generated by a particular procedure, rather than of the model itself. Leave-one-out cross-validation is essentially an estimate of the generalisation performance of a model trained on n−1 samples of data, which is generally a slightly pessimistic estimate of the performance of a model trained on n samples.
Rather than choosing one model, the thing to do is to fit the model to all of the data, and use LOO-CV to provide a slightly conservative estimate of the performance of that model.
Note however that LOOCV has a high variance (the value you will get varies a lot if you use a different random sample of data) which often makes it a bad choice of estimator for performance evaluation, even though it is approximately unbiased. I use it all the time for model selection, but really only because it is cheap (almost free for the kernel models I am working on).
"Против" и "ЗА". Просто такой эстиматор был бы неплох для ускорения перебора моделей
Опубликовал последнюю версию библиотеки с тестовым примером
вроде до Нового Года далеко, а тут такие подарки дарят!
арбитраж?
тут
https://www.mql5.com/ru/forum/140716/page382
и далее
всего одна строчка с индюка, которую не найдете больше нигде
всего одна строчка с индюка, которую не найдете больше нигде
и где она?
Опубликовал последнюю версию библиотеки с тестовым примером
Очень круто! Спасибо. Результаты впечатляют:)
Очень круто! Спасибо. Результаты впечатляют:)
на трейне да, не тесте - нужно стараться что бы что-то было :)
на трейне да, не тесте - нужно стараться что бы что-то было :)
Да нафиг его этот тест, есть кривые обучения на трейне и тесте, они вначале идут "ноздря в ноздрю", или даже "задница к заднице" как у нас иногда говорят на Кавказе, только потом могут быть расхождения, из за оверфита, но если модель не перегружена свободными параметрами то это не грозит, OOS не нужен, ну или его можно сделать на значительно раннем историческом промежутке времени, каком нибуть 1995м году, когда ещё машки работали, это не важно, а вообще сейчас все на маркетинг работают, впечатлил, продал, забыл, впечатлил, продал, забыл... это пульс рынка, хардбит, нужно быть в теме