Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Как не крути НС, что ей на входы не подавай, а чудес, конечно, не бывает!
Итак, что получается: С одной стороны, чем больше слоистость НС, тем выше её предсказательная мощность, но более трёх слоёв наращивать бессмыленно - трёх-слойная сетка уже является универсальным аппроксиматором.
Вобщем нет, аргументировать не буду -- надоело.
Отсюда следует, что чем больше слоистость имеет НС, тем большую по длине обучающуюю выборку придётся использовать при её тренировке. Мало того, что сложность обучения растёт как Р^3, так ещё и данных может не хватить!
Второй раз вижу эту степень. Таакс посчитаем.
Возьмем для примера сеть m - n - k -- буквы обозначают количество нейронов соответственно во входном, скрытом и выходном слое.
Сложность распространение сигнала -- O(m*n + n*k) это при полносвязных синапсах.
Сложность обратного распространения аналогична.
Теперь введем дополнительный скрытый слой того же размера.
Сложность получается O(m*n + n*n + n*k).
Возьмем отношение -- получается (m + n + k)/(m + k).
Кроме того введение 2-го скрытого слоя позволяет конкретно уменьшить размеры 1-го.
Для этого я накидал в среде Mathcad три сетки - 1,2 и 3-х слойную и сравнил результаты прогноза знака приращения котира на один отсчёт вперёд (статистика набиралась по 100 независимым экспериментам). Результаты получились следущие:
1 - р=10% правильно угаданных знаков (вероятность=1/2+р).
2 - 15-16%
3 - 12%
Тут правда есть свободные параметры: размерность входа и число нейронов в слое/слоях. Первый параметр был для всех архитектур одинаковым, второй выбирался персонально. Видно, что 3-х слоная НС-ка не является панацеей и, возможно, для нас, как для трейдеров, оптимальным вариантом аналитического блока МТС является двухслойная сетка - с точки зрения максимальной точности прогноза и минимальных требования к сложности обучения (мощность РС, наличие большой истории и её неустарение).
Самое время задуматься о фрактальных НС с дробным количеством слоев :)) . 2.5 будет в самый раз.
гипотетический путь освоение технологии НС
шаг 1.
строим НС в NS с одним выходом бай/селл, кормим ее Close[x] смотрим график, видим, - шумит сеточка!
шаг 2.
Скармливаем что нить более гладкое чем исходная котировка, все равно шумит эта НС.
Отчего? Да от того что учитель неровный. В ручную то лень его приготовить. (тут спирантка нужна))
шаг 3.
читаем статью Решетова, посылаем NS, тренируем в тестере и заметьете - без какой либо функции ошибки заданной в явном виде.
Значит Тестер Стратегий урчит, разработчик мурлыкает, грит какой Решетов умный, все учел, изобрел настоящего Учителя .
Однако, теперь Ю.Решетов умница по опрелелению, но вот комп под МТ-4 чой то не очень то справляется, а где МТ-5?
Да и на 4 входа эта "НС" Опять шумит. Теперь уже исторические данные оказываются неровные, - содержат разные типы рынка а какие именно мы не знаем)
....повторяем шаги 1-3 в цикле.
шаг 4.
понимаем что зациклились - выращивать сеть не можем, MQL - медленный, а тренировка в нейропакете вроде как далека от торговли.
шаг 5.
Раздумья на перепутье - теперь уже мы начали работать с НС, знаем что НС это не столько математика. сколько технология,
может быть NS Trader спасет, в нем тестер лучше.
ну и...
а зачем все это?
шаг 6.
если мы изобретаем сеть и обучаем ее, то в этом то процессе все яснее становится что нам реально нужно, и это реальное исполняется без НС,
совсем без НС.
получается
НС для того только и нужна чтобы пока ей тупой что то объясняешь, самому это объясняемое понять)))
Таакс посчитаем.
На 7 стр. топика я выкладывал архив со статьёй, там приведена оценка сложности обучения (стр.65-66): С=P*w^2=d*P^2=(w^4)/d, что позволяет заключить, что я слегка проврался (немножко беременна) и сложность, таки, пропорциональна d*Р^2 или через число синапсов: (w^4)/d
Кроме того введение 2-го скрытого слоя позволяет конкретно уменьшить размеры 1-го.
Это откуда следует?
Если нестрого, то опосредованно из количества настраиваемых параметров. Строго ниасилю. Не силен в доказательствах.
А если добавить свою мысль, я вообще с некоторых пор думаю что самая классная по сходимости нелинейности скорости структура персептрона -- елочка, правда не проверял пока.
Дойдут руки, нарисую.
Новогодние мысли какие-то :)) .
НС для того только и нужна чтобы пока ей тупой что то объясняешь, самому это объясняемое понять)))
Тут есть один важный момент, который ты не захотел освЯтить - объяснять НС придётся один раз (заодно и сам поймёшь, как ты правильно заметил), а дальше, она, как токарный станок будет обрабатывать изменчивый мир (котир), не особо заботясь о том, что бы ты до конца понимал, то что она имеет в виду!
структура персептрона -- елочка
Чё курим?
А-а, понял! Ну, точно на ёлку похоже. У меня тоже самое на интуитивном уровне.
...
Это откуда следует?читайте хайкина -------> п.4.15. Методы упрощения сети
Разницы нет никакой, какой алгоритм вы берете для обучения . Результат все равно один.:) Нужно не в нейросети капаться, нужно искать входы.
читайте хайкина -------> п.4.15. Методы упрощения сети
Не вопрос. Почитаем!
Елочка! Интуиция здесь не причем, НС это пирамидальный шифратор, + это похожесть на БПФ.
Например, исходя из модели пирамидального шифратора элементарно подсчитывается минимальное число нейронов.
т.е. пирамидальный шифратор это минимальное покрытие проектируемой НС.
Чё курим?
Бросил :)
А-а, понял! Ну, точно на ёлку похоже. У меня тоже самое на интуитивном уровне.