Нейросеть. Обучение. - страница 2

 
Stanislav Korotky:

По закону больших чисел, чем большее количество сеток ресурсы позволяют обучить, тем лучше ;-). Если не особо строго в мат. плане подходить, то вот в этой статье есть формула для расчета вероятности успеха сигнала от количества N независимых индикаторов (в нашем случае сетей), где p - вероятность правильной классификации одной сетью.

Так что один-два десятка в комитете - уже хорошо.

Одного скрытого слоя достаточно для нелинейной обработки большинства задач. Размер скрытого слоя рекомендуют выбирать исходя из пары ограничений сверху и снизу: общее число весов сети, т.е. Ninput*Nhidden+Noutput*Nhidden должно быть в несколько (десятков/сотен) раз меньше Npatterns/Noutput, но Nhidden при этом больше или равно корню из произведения количества входов на количество выходов.

FAQ по вопросу на английском.

Спасибо.