Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2300
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Да
)))) ну так что ты хотел?
добавь скрытых слоев
)))) ну так что ты хотел?
добавь скрытых слоев
Что, задача такая сложная?
)))) ну так что ты хотел?
добавь скрытых слоев
Так что вряд ли с 10 слоями получится 99%
Что, задача такая сложная?
а лучший результат с какой функцией активации выходного слоя получился?
и сколько выходных нейронов? один?
Что, задача такая сложная?
нет, один слой это примитивно, это всего одно умножение веса
Для такой простой задачи одного слоя, по теории, хватит.
Так что вряд ли с 10 слоями получится 99%
это твоя теория
Для такой простой задачи одного слоя, по теории, хватит.
Так что вряд ли с 10 слоями получится 99%
если задача может решатся с точностью 100% вручную заданными весами (и ф-циями активации), то есть минимально необходимое кол-во слоёв и нейронов. меньше точность может быть гораздо ниже.
я так понимаю эта задача из таких.
Новая фишка для работы с важностью признаков
надо будет повертеть на досуге
https://medium.com/bcggamma/gamma-facet-a-new-approach-for-universal-explanations-of-machine-learning-models-b566877e7812
Есть такие признаки, которые, как ни странно, ухудшают обобщающую способность (говорю за катбуст в частности, наверное относится и к другим). Казалось бы странно, ведь просто добавляются новые признаки, а модель выдает ошибку больше, чем было без них
например, обучил на нескольких машках, затем удалил несколько и accuracy стал выше
нет, один слой это примитивно, это всего одно умножение веса
это твоя теория
не моя