Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Ну не будте так строги. В конце концов, сеть иногда переучивают (а я это делаю на каждом осчёте анализируемого ВР) и среднестатистически метод минимум находит. Что касается понижения размерности, то для ВР типа ценовых, это не работает в той мере в которой вы подаёте, к сожалению.
А таймфрейм Вы какой используете? Что касается понижения размерности, то смотря с какой целью Вы это собираетесь делать. Если банальная предобработка, то это не даст должного эффекта без каких-то априорных соображений, то есть, когда данных вам уже хватает и Вы лишь улучшаете результат. Если Вы используете понижение размерности для чего-то другого, то может быть все, что угодно.;)
А таймфрейм Вы какой используете?
Не использую я ни какой ТФ.
Причина в том, что свечи юзают на всех ТФ все кому не лень, из-за этого, ВР построенный по ценам открытия (или акрытия) более близок к интегрированному случайному, чем ВР построенные из исходного другими способами (например, переходом к инструментальному времени и т.п.).
Спасибо gpwr, arnautov!
Шаг 1: Выбираем входные данные. Например,
x1 = WPR Per1
x2 = WPR Per2
x3 = WPR Per3
Ближе к теме? Без проблем! Начать надо с написания нейрона, с последующим объединением их в сеть. А навороченные программы - это потом. Все остальные советы - туфта.
А написание нейрона, можно на этапы разложить?
Ну что? Кто в теме писал, что хочет на примере разобраться, начнём?
Первые шаги нам указали, советник на пятой странице...
Я знаю, что не так давно доказано две теоремы.
Буду признателен за ссылки
Согласно первой, трёхслойная нелинейная НС (та, что состоит из трёх слоёв нейронов, с нелинейностью на выходе у каждого) является универсальным аппроксиматором
Ну это уже вроде давно доказано. То, что 3-слойным персептроном можно саппроксимировать любую функцию, со сколь угодно малой заданной точностью.
и дальнейшее наращивание числа слоёв не прибавляет мощности сети.
Согласно второй теореме, вычислительная мощность сети не зависит от конкретного вида нелинейности на выходах её нейронов. Важно, что бы она (нелинейность) была в принципе, и не важно, что конкретно - сигмоида или арктангенс.
То, что я говорил, результат практических экспериментов. А насчет нелинейности... впрочем надо вначале ознакомиться с этими теоремами.
Кроме того, доказана однозначная связь между оптимальной длиной обучающей выборки на исторических данных, размерностью входа НС и полного числа её синапсов, в смысле минимизации ошибки предсказания на данных не принимавших участие в тренировке сети. Это позволяет не заниматься ленинизмом подбирая в ручную этот оптимум. При существующих мощностях РС, это заметно экономит время и силы.
Имелось в виду числа настраиваемых параметров? Пороги в них тоже входят. Кстати, тоже не помешало бы документальное подтверждение. Да и тем, кто начинает заниматься нейросетями, не помешает ознакомиться с данным материалом.
А написание нейрона, можно на этапы разложить?
Лучше писать на объектно-ориентированном языке.
Нейрон слишком мелкое понятие при написании НС.
Слой есть объединение одинаковых нейронов, поэтому рассматривать отдельно нейрон не имеет смысла.
В своей библиотеке я использовал всего 2 вида абстракций -- слой и веса.
Веса -- это блок синапсов, связывающих 2 слоя.
Слой имеет входной, выходной буфер и буфер ошибок, а также функцию активации. Синапсы представляют собой двумернный массив и связывают выходной буфер слоя со входным следующего.
Сеть представляет собой совокупность слоев и связей между ними. Выходным может считаться любой слой, имеющий ненулевые сигналы в буфере ошибок.
Ну это уже вроде давно доказано. То, что 3-слойным персептроном можно саппроксимировать любую функцию, со сколь угодно малой заданной точностью.
Погрешностью, а не точностью.
Если это ясно, тогда к чему вот эти сложности:
TheXpert писал(а) >>
На многих задачах 4-слойный персептрон показывает гораздо лучшие результаты и сходимость.
А кое-где используется 5-слойный. Про сложные сети (с несколькими выходными слоями и сложными связями) на базе персептрона я пока умолчу.
Имелось в виду числа настраиваемых параметров? Пороги в них тоже входят. Кстати, тоже не помешало бы документальное подтверждение. Да и тем, кто начинает заниматься нейросетями, не помешает ознакомиться с данным материалом.
Да, имелись в виду число весов в НС их связь с числом входов и оптимальной длиной обучающей выборки. Вывод зависимости приведён в статье прикреплённой в Attach на стр. 64-65. Коротко, если число весов НС - w , число входов d и длина обучающей выборки Р, то при оптимуме, должно выполнятся условие: P =(w^2)/d
Ссылки на теоремы приведу позже - их нужно найти.
Погрешностью, а не точностью.
Да.
Если это ясно, тогда к чему вот эти сложности:
Все просто, когда добавление слоя или изменение архитектуры осуществляется несколькими кликами мышки или несколькими строчками кода, то эти сложности превращаются в интересные дополнительные возможности.
Спасибо. А доказательство теорем? Или хотя бы точная формулировка?
Теорема о пригодности любой нелинейной функции нейронов была доказана бывшим советским, а с конца 1980х годов американским математиком Владиком Крейновичем [1] и опубликована в одном из лидирующих западных нейросетевых журналов.
1. Kreinovich V.Y. Arbitrary nonlinearity is sufficient to represent all functions by neural networks: A theorem / Neural Networks, 1991, Vol.4, №3. - pp.381-383.
P.S. О достаточности 3-х слоёв - позже.
Стогое доказательство достаточности 3-х слоёв я видел в статье Горбань А.Н. "..." - не могу найти её.
Константация факта дастаточности имеется в статье прикреплённой ниже на стр 39.