Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3387
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
1 матрица с признаками
1. Как получается эта матрица? Что за цифры там?
2. Я говорю про правила\листья. Мне не важно в моём подходе как и из чего получилось правило, но если отклик схож с другим на выборке обучения, то дополнительной информации оно не несёт.
Почему большое кол-во признаков - зло? Интересный график из книги по козулу.
Вероятность найти такой же пример в обучающей выборке, в зависимости от кол-ва признаков.
Если у вас больше 14 (и даже 10) признаков, то получится очень много правил, которые вы уже не сможете редуцировать без потерь.
Почему большое кол-во признаков - зло? Интересный график из книги по козулу.
Вероятность найти такой же пример в обучающей выборке, в зависимости от кол-ва признаков.
Ничего не ясно. Вероятность найти где такой же пример, как в обучающей выборке?
Ничего не ясно. Вероятность найти где такой же пример, как в обучающей выборке?
такую же строку в датасете
если у вас 1000 строк всего
Грубо говоря, если у вас 18+ признаков, вы обучаете классификатор запоминать каждую строку, потому что они даже не повторяются
а в причинном выводе вы не можете сопоставить примеры, чтобы посчитать статистики1. Как получается эта матрица? Что за цифры там?
2. Я говорю про правила\листья. Мне не важно в моём подходе как и из чего получилось правило, но если отклик схож с другим на выборке обучения, то дополнительной информации оно не несёт.
Почему большое кол-во признаков - зло? Интересный график из книги по козулу.
Вероятность найти такой же пример в обучающей выборке, в зависимости от кол-ва признаков.
Если у вас больше 14 (и даже 10) признаков, то получится очень много правил, которые вы уже не сможете редуцировать без потерь.
Это все в рамках казуала..
там используются эффективные алгоритмы сжатия внутри нейронки, по типу sec2sec, поэтому тоже справедливо
там используются эффективные алгоритмы сжатия внутри нейронки, по типу sec2sec, поэтому тоже справедливо
Если мы про текст то Там используется в 95% случаев обычный счётчик слов типа - сколько раз слово встречалось в данном наблюдении? 0, 1, 103..
Это другие архитектуры, слоеные пироги. Сложно сравнивать. Говорим про обычную классификацию или регрессию. В этом случае это выглядит как универсальный закон.
Это другие архитектуры, слоеные пироги. Сложно сравнивать. Говорим про обычную классификацию или регрессию. В этом случае это выглядит как универсальный закон.
----------------------------------------------------------------------
О Вспомнил, это называеться bag of words.
что тут нового, незнакомого, непонятного, сложного ?
Та же таблица признаков + любой МО
Вот это работа с неструктурироваными данными (текст) потом переводим в структуру bag of words и дальше что угодно