Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 4
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
НС очень хорошо справилась.
Рандом лес не смог осилить такую задачу, где взаимодействие набора переменных. А индивидуальная значимость каждого предиктора умышленно была нулевой.
Доказательств, что НС с чем-то справилась я не вижу.
Переобучение - всемирное зло в науке и в частности при построении модели.
Поэтому необходима ошибка для трех наборов:
Последние два набора без перемешивания, так как они поступают в терминале, баз за баром.
На всех трех наборах должна быть примерно одинаковая ошибка. При этом Вам придется зафиксировать набор предикторов, которые Вы берете при обучении модели.
Рандом лес не смог осилить такую задачу, где взаимодействие набора переменных. А индивидуальная значимость каждого предиктора умышленно была нулевой.
Ваша идея, учитывать взаимодействие между предикторами - революция в статистике. До сих пор я считал, что взаимодействие между предикторами - это зло. Мало того, что сами предикторы обычно не стационарны, так еще мы пытаемся учитывать связи между этими не стационарными случайными процессами.
В машинном обучении считается обязательным избавиться от взаимодействующих переменных. Более того, изобретены очен эффективные алгоритмы, например метод главных компонент, который позволяет избавиться от взаимодействия и преобразовать взаимодействующий набор предикторов в набор независимых предикторов.
Доказательств, что НС с чем-то справилась я не вижу.
Переобучение - всемирное зло в науке и в частности при построении модели.
Поэтому необходима ошибка для трех наборов:
Последние два набора без перемешивания, так как они поступают в терминале, баз за баром.
На всех трех наборах должна быть примерно одинаковая ошибка. При этом Вам придется зафиксировать набор предикторов, которые Вы берете при обучении модели.
Давайте так. Не смотря на то, что это не входит в часть задания. Я выкладываю валидационную выборку, на которой следует прогнать обученную модель и замерить точность предсказания output.
Но повторю, что это не обязательно. Заметьте, что валидацию составил снова я на основе заложенной закономерности.
Заложенная в данные закономерность:
Доказательств, что НС с чем-то справилась я не вижу.
Нейронка эту задачу решила, в атачменте лог c кодом из Rattle. В коде пара изменений при вызове нейронки - я увеличил максимальное число итераций, и убрал связи которые идут с инпута сразу на выход минуя средний слой (skip=TRUE). А то эти два ограничения всё портят.
Я сделал валидацию на новом файле, ошибки в обоих случаях почти 0% (есть одна единственная ошибка при валидации из второго файла).
Но поскольку НС как чёрный ящик, логику решения узнать нельзя. Можно посмотреть на веса, определить среднее абсолютное значение к каждому входу, и нарисовать диаграмму. И узнать что 1, 3, 5 ,7, 9, 11 важнее остального. Но при этом остальные входы тоже почему-то используются, нулевых весов нигде нету. То есть получается наоборот, сначала проходит обучение, затем мы можем определить важные входы.
Нейронка эту задачу решила, в атачменте лог c кодом из Rattle. В коде пара изменений при вызове нейронки - я увеличил максимальное число итераций, и убрал связи которые идут с инпута сразу на выход минуя средний слой (skip=TRUE). А то эти два ограничения всё портят.
Я сделал валидацию на новом файле, ошибки в обоих случаях почти 0% (есть одна единственная ошибка при валидации из второго файла).
Но поскольку НС как чёрный ящик, логику решения узнать нельзя. Можно посмотреть на веса, определить среднее абсолютное значение к каждому входу, и нарисовать диаграмму. И узнать что 1, 3, 5 ,7, 9, 11 важнее остального. Но при этом остальные входы тоже почему-то используются, нулевых весов нигде нету. То есть получается наоборот, сначала проходит обучение, затем мы можем определить важные входы.
Доказательств, что НС с чем-то справилась я не вижу.
Переобучение - всемирное зло в науке и в частности при построении модели.
Поэтому необходима ошибка для трех наборов:
Последние два набора без перемешивания, так как они поступают в терминале, баз за баром.
На всех трех наборах должна быть примерно одинаковая ошибка. При этом Вам придется зафиксировать набор предикторов, которые Вы берете при обучении модели.
Разве очевидное нуждается в доказательстве? В процессе обучения веса входов несущих противоречивые данные снизились, т.е. можно сказать, что заблокировалось поступление противоречивых данных.
Проблема переобучения в данном случае отсутствует, потому-что обученную сеть не используют ни для каких других целей.
Вот насколько целесообразно использовать такой метод, вот это - вопрос. Не тяжеловата ли артиллерия.
Вот насколько целесообразно использовать такой метод, вот это - вопрос. Не тяжеловата ли артиллерия.
Можете попробовать иной способ. Но мне кажется средство соответствует проблеме.
Справляется с задачей, и хорошо справляется. Но всегда интересно, а может есть, что эффективней и проще.