Как Вы работаете с нейросетями? - страница 8

 
VladislavVG:

Что Вы понимаете под понятием "оптимизации" ? Если просто перебор вариантов, то это не совсем то. Это Вас МТ с толку сбивает.

Теперь о ГА: это метод поиска, в случае обучения сети мы ищем минимум некоторого функционала. Зачастую ошибки. В процессе обучения сети, что ОРО, что ГА, что градиенты, что отжиг (есть такой метод - аналогичен ГА) пытаются найти экстремум. Какой метод окажется более эффективным зависит от самого функционала и критерия качества (то есть критерия по которому отбираются более лучшие варианты). Из этих всех методов ГА - наиболее универсален. И ни один не гарантирует нахождение глобального экстремума.

С использованием ГА, например, можно параллельно подбирать и архитектуру сети - то есть включить ее (архитектуру) в оптимизируемые параметры и задать критерий качества (фитнесс-функцию в терминах ГА). Возможностей больше. Причем при необходимости можно и ОРО использовать совместно с ГА.

Удачи.


Вы же сами и ответили, что ГА не является нейронной сетью. С таким же успехом метод градиентов так же может быть легко НС. Есть автомобиль и водитель. И есть куча способов научить водителя ездить на автомобиле, но каждый из этих способов не является автомобилем.

Это же утверждает и Swetten. Не очень понимаю, чего Вы спорите?

 
Farnsworth:

Вы же сами и ответили, что ГА не является нейронной сетью. С таким же успехом метод градиентов так же может быть легко НС. Есть автомобиль и водитель. И есть куча способов научить водителя ездить на автомобиле, но каждый из этих способов не является автомобилем.

Это же утверждает и Swetten. Не очень понимаю, чего Вы спорите?

Так я и не утверждал, что ГА является НС. Я показал как НС и ГА могут быть связаны в ответ на фразу Светланы,

Напомню изначальное утверждение: НС и ГА -- совершенно разные вещи, между собой никак не связанные.

о том, что таковая связь отсутствует.


Удачи.
 
VladislavVG:

Так я и не утверждал, что ГА является НС. Я показал как НС и ГА могут быть связаны в ответ на фразу Светланы, о том, что таковая отсутствует.

1. Вы невнимательно прочитали ветку и не поняли, к чему относится эта фраза;

2. Самое смешное, что действительно никак не связаны. Прикрутили ГА -- получилось одно, прикрутили ОРО -- другое, всё вместе плюс что-то ещё -- третье.

3. ГА -- всего лишь механизм оптимизации. Универсальный, замечу, механизм. В том числе и по оптимизации НС.

По пунктам 2 и 3 делаю вывод -- между собой НС и ГА никак не связаны.

 

НС - метод преобразования (неважно какое: аппроксимация, классификация, фильтрация, логическое преобразование)

ГА - метод оптимизации.

Одно другим не является и заменить друг друга не могут. И баста.

ЗЫ Во многих статьях и книгах по НС, говоря о искусственных нейронных сетях подразумевают, что они обучаются ОРО, вводя читателей в заблуждение. Мало того, встречал утверждения, что "такие сети не работают, потому что....", а если сеть обучается с помощью какого нибудь другого алгоритма оптимизации, то это уже совсем другие сети, приписывая таким "другим" сетям совершенно иные качества - чушь сабачачья. Сеть - это сеть, свойств своих она не изменит, если обучать её любым методом оптимизации. Может изменится качество обучения, всего лишь.