Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
...но Better показал очень хорошие результаты, значит что то можно из этого выжить при правильном использовании
судя по итогам ЧЕМПИ-2008, где тов.Better и др. участники ЧЕМПИ, применявшие НС,какие места заняли их советники?
как показал ЧЕМПИ-2008, в лидерах- какие угодно советники,но только не с НС !
в связи с этим возникает другой вопрос:а не был ли выстрел тов.Better - случайным в 2007 г.?
однако даже нейросетевого избытка может не хватить для прибытка.
Чушь.
На многих задачах 4-слойный персептрон показывает гораздо лучшие результаты и сходимость.
А кое-где используется 5-слойный. На его среднем скрытом слое снимают промежуточные данные для дополнительного анализа.
Кстати, если уж на то пошло, развернутые рециркуляционные сети есть не что иное как персептрон. А нелинейная РНС разворачивается как раз в 5-слойный персептрон.
Про сложные сети (с несколькими выходными слоями и сложными связями) на базе персептрона я пока умолчу.
Сложно как-то.
Я знаю, что не так давно доказано две теоремы. Согласно первой, трёхслойная нелинейная НС (та, что состоит из трёх слоёв нейронов, с нелинейностью на выходе у каждого) является универсальным аппроксиматором и дальнейшее наращивание числа слоёв не прибавляет мощности сети. Согласно второй теореме, вычислительная мощность сети не зависит от конкретного вида нелинейности на выходах её нейронов. Важно, что бы она (нелинейность) была в принципе, и не важно, что конкретно - сигмоида или арктангенс. Это избавляет нас от попыток найти лучшее из равного.
Эти две теоремы кординально упрощают для нас выбор архитектуры НС и заметно снижают объём возможно исследовательской работы.
Кроме того, доказана однозначная связь между оптимальной длиной обучающей выборки на исторических данных, размерностью входа НС и полного числа её синапсов, в смысле минимизации ошибки предсказания на данных не принимавших участие в тренировке сети. Это позволяет не заниматься ленинизмом подбирая в ручную этот оптимум. При существующих мощностях РС, это заметно экономит время и силы.
Уважаемые участники форума, тема данной ветки - Нейросети,как их освоить с чего начать?
Давайте ближе к теме....
Ближе к теме? Без проблем! Начать надо с написания нейрона, с последующим объединением их в сеть. А навороченные программы - это потом. Все остальные советы - туфта.
НС в ТС это подгонка с избытком...
любой мат.аппарат в ТС -это подгонка,
возьмите к примеру древний способ подгонки - двухпараметрическое экспоненциальное сглаживание,ничуть НЕ хуже ИИ и НС .
двухпараметрическое экспоненциальное сглаживание,ничуть НЕ хуже ИИ и НС .
Правильно так: двухпараметрическое экспоненциальное сглаживание,ничуть НЕ хуже НС с двумя входами.
Зато, на реальной НС мы свободны в выборе размерности входа. Для ВР типа ценовых, характерная размерность находится в районе 10-100. Тут уже будет затруднительно построить мув с таким числом параметров и уж точно нельзя будет за приемлемое время их оптимизировать. НС для этой цели использует метод обратного распространения ошибки, что заметно быстрее генитического алгоритма в тестере и уж тем более, тупого перебора параметров.
т.е. все заботы как для девочек: чем зарядить, когда кормить, что с чем сравнивать = синекура какая то,
замутил, затестил и руки в брюки (шары гонять))), в предвкушении результата. в общем Поле Чудес, привет родственникам и начальникам.
комп работает - трейдер отдыхает))) ну ничего личного
...
испоьзует метод обратного распространения ошибки, что заметно быстрее генитического алгоритма в тестере и уж тем более, тупого перебора параметров.
метод обратного распространения ошибки НЕ дает никакой гарантии в нахождении глобального минимума функции ошибки, а что касается 10-100 входов
на входе сети... вообще-то,понижение размерности сети пока ещё никто не отменял, да хватит и двух входов,если предварительно провести анализ главных компонентов, да вот горюшко-то,этот анализ,как впрочем и обучение,тоже проходят на истории.