Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2304
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Тогда уж нелинейный )
а никаких новых книженций по эконометрике на R не появилось, не смотрели? типа этой
на питоне нет таких сборников, все в разных местах
https://otexts.com/fpp2/
эконометрика для телочек, ЦОС для мужиков )))
эту не читал ? хотя вряд ли что то новое найдешь
эконометрика для телочек, ЦОС для мужиков )))
для трактористов
Тогда уж нелинейный )
Там же, как обычно, для каждой точки получается свой линейный тренд построенный по истории. Потом этот тренд продлевается на единичку в будущее и получается прогноз. Всё как обычно, только остатки у регрессии распределены "по фрактальному") В итоге, на мой взгляд, всё равно получится прогноз в виде какой-то взвешенной средней)
а никаких новых книженций по эконометрике на R не появилось, не смотрели? типа этой
на питоне нет таких сборников, все в разных местах
https://otexts.com/fpp2/
У меня почему-то не получается подобные книги читать, посему перестал следить за ними. Для общей теории читаю учебники вышки или рэшки (Магнус, например или лекции Канторовича). По конкретным вопросам смотрю мануалы к нужным пакетам R - там есть всё вплоть до ссылок на используемые научные статьи.
эконометрика для телочек, ЦОС для мужиков )))
эту не читал ? хотя вряд ли что то новое найдешь
как говорится, книгу можно читать много раз и всегда находить что-то новое )
почитаю. Эконометрика + МО это все, что необходимо. Но граали не лежат на поверхности. Глупо требовать от общих сборников чего-то бОльшего.Забавно - трехслойная сеть MLP с количеством нейронов в среднем слое 10-15 нашла зависимость типа x1/x2.
Проблема была в недостаточном количестве нейронов - 8 для среднего слоя мало
Оо, сигнальчик включил, это круто, если не отключишь через неделю ))
Есть такие признаки, которые, как ни странно, ухудшают обобщающую способность (говорю за катбуст в частности, наверное относится и к другим). Казалось бы странно, ведь просто добавляются новые признаки, а модель выдает ошибку больше, чем было без них
например, обучил на нескольких машках, затем удалил несколько и accuracy стал выше
почему странно, как понимаю это стандартная проблема на всех данных. модели пытаются учитывать все признаки, и если какие-то не имеют зависимости с целевой меткой, т.е. случайны, то так и должно быть снижается качество.
Пример: если прогнозировать вес человека от его роста и пола, то качество довольно высокое, а добавить туда цвет волос или еще какую-то фигню, то снизится.
Забавно - трехслойная сеть MLP с количеством нейронов в среднем слое 10-15 нашла зависимость типа x1/x2.
Проблема была в недостаточном количестве нейронов - 8 для среднего слоя мало
ну вот я же говорил. и хочешь ещё прикол - сеть с 1000+ нейронов - не найдёт зависимость или будет ооочень долго и неточно учиться.
Пока с фурье вожусь, накидал пример
Верхний:
Нижний:
Пока с фурье вожусь, накидал пример
Верхний:
Нижний:
можно расшифровку, что сие означает?
в ЦОС, косинусах и синусах абсолютный ноль