Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 588
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Помнится, у Вас было около 70% адекватных предсказаний. Я вот выше пост написал
Так вот, 70% верных это вообще ни о чем. Из этих 70% верных для входа в сделки походит пусть примерно треть. Остается 23%. Против 30% неверных предсказаний (а мы не знаем заранее, верные они или нет) это ни о чем. А неверные предсказания как и есть в областях перегиба (изменения направления), и эти области как раз наиболее подходят для сделок.
Исходя из этого, я полагаю, что заниматься прогнозированием бесперспективно, а следует заниматься классификацией. Т.е. определять подходит ли конкретный момент для сделки. По моделям получается ошибка входа 20-40% Более точные цифры приводил ранее в теме.
классификация это прогнозирование принадлежности к классу, или вероятности принадлежности
ничем не отличается от регрессии, из которой потом можно так же извлечь принадлежности
Он меня убедил, что проблема нестационарности не имеет отношения к МО. Так как я никогда не занимался НС, то аргументов опровергнуть это его мнение у меня не было. Более того было интуитивное понимание того, что разные там деревья и прочие , кроме НС, прекрасно работают с нестационарными предикторам.
Я опираюсь на аксиому что какие-то постоянные закономерности в поведении цены всё-же есть, это немарковский процесс. И пытаюсь их найти используя МО.
Различные модели действительно могут отделить зёрна от плевел, и найти закономерности в ценовом потоке состоящим во многом из шума и намеренного его искажения дилинг центрами.
Проблема в том чтобы найти такие параметры обучения модели (для нейронок - количество весов, скорость обучения, итд; а для леса - число деревьев например) при которых модель не будет просто заучивать исходные примеры, и победив нестационарность найдёт какие-то стабильные закономерности во всём этом шуме. Я хорошие параметры для обучения модели нахожу многократными кроссвалидациями.
В итоге у меня модель показывает очень небольшой, но положительный результат как на тренировочных, так и на новых данных (R2 ~0.003). Но спред я ещё не победил.
Я опираюсь на аксиому что какие-то постоянные закономерности в поведении цены всё-же есть, это немарковский процесс. И пытаюсь их найти используя МО.
Различные модели действительно могут отделить зёрна от плевел, и найти закономерности в ценовом потоке состоящим во многом из шума и намеренного его искажения дилинг центрами.
Проблема в том чтобы найти такие параметры обучения модели (для нейронок - количество весов, скорость обучения, итд; а для леса - число деревьев например) при которых модель не будет просто заучивать исходные примеры, и победив нестационарность найдёт какие-то стабильные закономерности во всём этом шуме. Я хорошие параметры для обучения модели нахожу многократными кроссвалидациями.
В итоге модель показывает очень небольшой, но положительный результат как на тренировочных, так и на новых данных (R2 ~0.003). Но спред я ещё не победил.
Я тоже не победил, и пока нет просвета. Но на ФОРТС система работает.
Вот СанСаныч на час вперед прогнозирует. Ему этот спред - тьфу.)
Для задач классификации проблемы нестационарности не существует. Она реальна для задач регрессии.
Не путайте forecast и predict. Прогнозирование и предсказание суть разные вещи. Прогнозирование как результат - числовая величина с указанием доверительного интервала. Класссификация предсказываеткласс к которому относится пример, вероятность принадлежности примера к классу или поддержку гипотезы, что этот пример принадлежит к классу.
Удачи
Для задач классификации проблемы нестационарности не существует. Она реальна для задач регрессии.
Не путайте forecast и predict. Прогнозирование и предсказание суть разные вещи. Прогнозирование как результат - числовая величина с указанием доверительного интервала. Класссификация предсказываеткласс к которому относится пример, вероятность принадлежности примера к классу или поддержку гипотезы, что этот пример принадлежит к классу.
Удачи
да всмысле? где почитать про этот абсурд? :)
да всмысле? где почитать про этот абсурд? :)
Что для Вас кажется абсурдом?
то что из-за нестационарности поменяются закономерности между предикторами\целевой и предсказание классов сломается точно так же как в случае с прогнозированием
то что из-за нестационарности поменяются закономерности между предикторами\целевой и предсказание классов сломается точно так же как в случае с прогнозированием
Можете показать примером? Или это умозрительное заключение?
Нигде в многочисленной литературе по классификации с использованием NN/DNN не упоминается нестационарность как влияющий фактор. Мои многочисленные эксперименты говорят мне тоже самое.
Конечно Вы можете иметь собственное мнение по этому вопросу.
Удачи
Можете показать примером? Или это умозрительное заключение?
Нигде в многочисленной литературе по классификации с использованием NN/DNN не упоминается нестационарность как влияющий фактор. Мои многочисленные эксперименты говорят мне тоже самое.
Конечно Вы можете иметь собственное мнение по этому вопросу.
Удачи
а классификация или регрессия.. какая разница?
Вышла свежая неплохая книга по глубокому обучению. К сожалению не могу дать открыто ссылку, залита на rutracker.org.
Глубокое обучение
Год издания: 2018
Автор: Николенко С. И., Кадурин А. А., Архангельская Е. О.
Жанр или тематика: Нейронные сети
Издательство: Питер
Серия: Библиотека программиста
ISBN: 978-5-496-02536-2
Язык: Русский
Формат: PDF
Качество: Распознанный текст с ошибками (OCR)
Интерактивное оглавление: Нет
Количество страниц: 479