Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
НС это комплекс.
1)До входов "доходят" все (кое-кто перебирает их до седых шаров),
2)некоторые задумываются о выходе, выбирают задачу сети, ее тип и архитектуру,
3)серьезно "погружаются" в обучение сети - единицы.
А в НС второстепенного ничего нет, отсюда и отсутствие результата
На алгоритм обучения как раз трижды плевать, хоть ген алгоритм )
Согласен. Разница только в скорости обучения. "Ловить" 6-7 знак после запятой на MSE смысла не вижу, поэтому чаще использую простой Back Prop с тремя выборками. Обучающая, валид и тестовая. Валид выбираю по разному, либо валид выбирается сразу за обучающей, по временному интервалу, либо "выхватываю" случайным образом примеры из обучающей, соответственно с удалением примеров из обучающей выборки.
Насчёт ген алгоритмов...
С трудом представляется "польза" от применения на нейросетях с количеством синапсов более 10000 . Требуется популяция порядка 10000*1000 особей, что не есть "гуд" в плане скорости. Про эпохи я умалчиваю...
к примеру если я хочу обучить сеть что 2*2 =4, а не 5 или 6 или 7 . То я сам должен понимать четко чему ее обучать. А не так что иногда 2*2=4, а иногда 5 ...
Постановка задачи в общем важна. Что я хочу ? И так далее.
С учётом изменения рынка "2*2" не всегда равно 4, то есть в этом и заключается проблема. Меняется рынок, меняются условия. В обучающих выборках начинают присутствовать противоречивые данные. Сеть не учится. Если уменьшать выборки, с целью "захватить" только текущее состояние, то упираешся в размер самих выборок - он мал для обучения более менее объёмной нейросетки. Происходит переобучение. Применить простые нейросети - тоже не вариант, ОЧЕНЬ трудно "запихнуть" во вход полезные данные, так как он(вход) мал.
Насчёт ген алгоритмов...
С трудом представляется "польза" от применения на нейросетях с количеством синапсов более 10000 . Требуется популяция порядка 10000*1000 особей, что не есть "гуд" в плане скорости. Про эпохи я умалчиваю...
В прошлом году написал на 4-ке генетическую оптимизацию внутри совы. Для хохмы ввел 88 входных параметров в диапазоне 0...200. Обучение на 15-ти минутках за 2 недели ~20 мин (P-4 3ГГц, 2 Гб). Получил сливатор - стратегии не было, просто эксперимент. Если интересно могу рассказать.
В прошлом году написал на 4-ке генетическую оптимизацию внутри совы. Для хохмы ввел 88 входных параметров в диапазоне 0...200. Обучение на 15-ти минутках за 2 недели ~20 мин (P-4 3ГГц, 2 Гб). Получил сливатор - стратегии не было, просто эксперимент. Если интересно могу рассказать.
А если 10000 входных параметров то задача В САМОМ ЛУЧШЕМ ВИДЕ усложнится в 10000/88 раз, соответственно ~20мин*100=2000мин ....
Это грубо говоря полтора суток...
Генетика рулит, когда есть миллиарды лет, можете посмотреть на себя в зеркало. :-)
именно для этого нужно проводить сбор данных, подготовку данных, выбеливание шума, нормировку и так далее. Таким образом и борется не стационарность рынка. (В теории ))) )
Сбор данных вестч изученная, есть способы и места где можно скачать историю относительно "хороших" котиров.
Подготовка данных, тоже вестч изученная. Могу сказать, что даже применение бок-кокса преобразования по каждому размеру из входного вектора, не устраняет проблему противоречивости данных.
С шумами сложнее, здесь ВАЖЕН интервал на котором прогнозите, минутки по отношению к неделям естественно "шумят", а вот 15минутки к часовикам - это надо копать...
Нормировка тоже вопрос тривиальный.
Насчёт ген алгоритмов... С трудом представляется "польза" от применения на нейросетях с количеством синапсов более 10000 . Требуется популяция порядка 10000*1000 особей, что не есть "гуд" в плане скорости. Про эпохи я умалчиваю...
С учётом изменения рынка "2*2" не всегда равно 4, то есть в этом и заключается проблема. Меняется рынок, меняются условия. В обучающих выборках начинают присутствовать противоречивые данные. Сеть не учится. Если уменьшать выборки, с целью "захватить" только текущее состояние, то упираешся в размер самих выборок - он мал для обучения более менее объёмной нейросетки.
2*2 не всегда 4? Мне вполне достаточно того, что 2*2=4 например в 70% процентов случаев, причем оставшиеся 30% примеров, где 2*2 не равно 4 я даже не фильтрую. С этим сеть сама прекрасно справляется... Если 2*2 равно 4 в 50% случаев, нужно пробовать что-то менять, например входы.... Я думаю получилось мысль выразить)
В прошлом году написал на 4-ке генетическую оптимизацию внутри совы. Для хохмы ввел 88 входных параметров в диапазоне 0...200. Обучение на 15-ти минутках за 2 недели ~20 мин (P-4 3ГГц, 2 Гб). Получил сливатор - стратегии не было, просто эксперимент. Если интересно могу рассказать.
10000 синапсов? Имхо это серьезный перебор, мне максимум доводилось использовать около 500-700. Больше не требовалось. Я, кстати, обучаю НС именно ГА. Да медленно, но мне так удобнее и есть свои плюсы.
2*2 не всегда 4? Мне вполне достаточно того, что 2*2=4 например в 70% процентов случаев, причем оставшиеся 30% примеров, где 2*2 не равно 4 я даже не фильтрую. С этим сеть сама прекрасно справляется... Если 2*2 равно 4 в 50% случаев, нужно пробовать что-то менять, например входы.... Я думаю получилось мысль выразить)
Расскажите, конечно интересно.можете привести пример когда 2*2 не равно 4 ?
Просто я часто в литературе читал подобное, но примеров к сожалению там не приводилось.