Нейросети,как их освоить с чего начать? - страница 6

 
nord >>:

...но Better показал очень хорошие результаты, значит что то можно из этого выжить при правильном использовании 

судя по итогам ЧЕМПИ-2008, где тов.Better и др. участники  ЧЕМПИ, применявшие НС,какие места заняли их советники?

 как показал  ЧЕМПИ-2008,  в лидерах- какие угодно советники,но только не с НС !

в связи с этим возникает другой вопрос:а не был ли выстрел тов.Better - случайным в 2007 г.?

 
НС в ТС это подгонка с избытком,
однако даже нейросетевого избытка может не хватить для прибытка.
 
TheXpert писал(а) >>

Чушь.

На многих задачах 4-слойный персептрон показывает гораздо лучшие результаты и сходимость.

А кое-где используется 5-слойный. На его среднем скрытом слое снимают промежуточные данные для дополнительного анализа.

Кстати, если уж на то пошло, развернутые рециркуляционные сети есть не что иное как персептрон. А нелинейная РНС разворачивается как раз в 5-слойный персептрон.

Про сложные сети (с несколькими выходными слоями и сложными связями) на базе персептрона я пока умолчу.

Сложно как-то.

Я знаю, что не так давно доказано две теоремы. Согласно первой, трёхслойная нелинейная НС (та, что состоит из трёх слоёв нейронов, с нелинейностью на выходе у каждого) является универсальным аппроксиматором и дальнейшее наращивание числа слоёв не прибавляет мощности сети. Согласно второй теореме, вычислительная мощность сети не зависит от конкретного вида нелинейности на выходах её нейронов. Важно, что бы она (нелинейность) была в принципе, и не важно, что конкретно - сигмоида или арктангенс. Это избавляет нас от попыток найти лучшее из равного.

Эти две теоремы кординально упрощают для нас выбор архитектуры НС и заметно снижают объём возможно исследовательской работы.

Кроме того, доказана однозначная связь между оптимальной длиной обучающей выборки на исторических данных, размерностью входа НС и полного числа её синапсов, в смысле минимизации ошибки предсказания на данных не принимавших участие в тренировке сети. Это позволяет не заниматься ленинизмом подбирая в ручную этот оптимум. При существующих мощностях РС, это заметно экономит время и силы.

 
Andrey4-min >>:

Уважаемые участники форума, тема данной ветки - Нейросети,как их освоить с чего начать?

Давайте ближе к теме....

Ближе к теме? Без проблем! Начать надо с написания нейрона, с последующим объединением их в сеть. А навороченные программы - это потом. Все остальные советы - туфта.

 
Korey >>:
НС в ТС это подгонка с избытком...

любой мат.аппарат в ТС -это подгонка,

возьмите к примеру древний способ подгонки - двухпараметрическое экспоненциальное сглаживание,ничуть НЕ хуже ИИ и НС .

 
PraVedNiK писал(а) >>

двухпараметрическое экспоненциальное сглаживание,ничуть НЕ хуже ИИ и НС .

Правильно так: двухпараметрическое экспоненциальное сглаживание,ничуть НЕ хуже НС с двумя входами.

Зато, на реальной НС мы свободны в выборе размерности входа. Для ВР типа ценовых, характерная размерность находится в районе 10-100. Тут уже будет затруднительно построить мув с таким числом параметров и уж точно нельзя будет за приемлемое время их оптимизировать. НС для этой цели использует метод обратного распространения ошибки, что заметно быстрее генитического алгоритма в тестере и уж тем более, тупого перебора параметров.

 
работая с НС в ТС меня ушатывает - думать оказывается не надо, нет такой необходимости,
т.е. все заботы как для девочек: чем зарядить, когда кормить, что с чем сравнивать = синекура какая то,
замутил, затестил и руки в брюки (шары гонять))), в предвкушении результата. в общем Поле Чудес, привет родственникам и начальникам.
комп работает - трейдер отдыхает))) ну ничего личного
 
Да не, если тебе хватает усидчивости и знаний подвести теорбазу под обнаруженную на котире очередную закономерность, то пожалуйста - эксплуатируй её себе на пользу! Но как долго эта закономернсть просуществует? Это не законы механики, которые вечны. Завтра тенденция на рынке сменится и ты будешь вынужден снова брать в руки лист бумаги и считать-считать... Пусть это делает ТС с НС. Тупо, зато железно.
 
Neutron >>:

...

испоьзует метод обратного распространения ошибки, что заметно быстрее генитического алгоритма в тестере и уж тем более, тупого перебора параметров.

метод обратного распространения ошибки НЕ дает никакой гарантии в нахождении глобального минимума функции ошибки, а что касается 10-100 входов

на входе сети... вообще-то,понижение размерности сети пока ещё никто не отменял, да хватит и двух входов,если предварительно провести анализ главных компонентов, да вот горюшко-то,этот анализ,как впрочем и обучение,тоже проходят на истории.

 
Ну не будте так строги. В конце концов, сеть иногда переучивают (а я это делаю на каждом осчёте анализируемого ВР) и среднестатистически метод минимум находит. Что касается понижения размерности, то для ВР типа ценовых, это не работает в той мере в которой вы подаёте, к сожалению.