Гибридные нейросети. - страница 22

 
gumgum >>:
алгоритм c-means у кого есть подробное описание?

WiKi, k-means, c-means, ну и гугл ...

А для чего вы его хотите использовать?

 
rip >>:

WiKi, k-means, c-means, ну и гугл ...

А для чего вы его хотите использовать?

Гибрид захрумить.


Кстати вы пробовали сопр. градиенты? У меня деление но ноль вылетает!

 

Может кто уже писал, а может нет...


Перепробовав несколько алгоритмов встала проблема >>целая[N/2]*in(кол-во обуч. примеров) достижения достаточного уровня ошибки. Инициализацию весов я проводил так (MathRand()-MathRand())/32767.


Инициализацию весов через DoubleTostr и StrToDouble приводит к + результатам достижения цели!


double ranD(int rsign)
{
string ran="0.";
for(int z=1;z<=25;z++)
{
ran=ran+DoubleToStr(MathFloor((MathRand()/32767.0)*10),0);
}
double randou=StrToDouble(ran);
if(rsign==1)
   {
   double dip=(MathRand()-MathRand())/32767.0;
   if(dip<0){randou=(-1)*randou;}
   if(dip==0){randou=0;}
   }
return(randou);
}


 

Тема уже заросла паутиной...


Заметил такую штуку... Допустим у нас есть нейронная сеть x-n1-n2-y. Будем обучать ее ОРО град. в пакетном режиме. <e Немного по другому.


Из обучающего множества S составим новое множество MG=S и разбиваем на K(конечное) подмножеств M что пересечение M(n)&M(n+1)!=0

Пропускаем все обуч. подмножества M1,M2,M3,...,M(n),M(n+1) множества MG выбираем М(емах) корректируем ошибку, если М(емах)<e стоп если нет то все сначала еще нужно чтоб М(емах)/М(емin)--1.


Ну как то так более качественно обучение идет.

 
gumgum >>:

Тема уже заросла паутиной...


Заметил такую штуку... Допустим у нас есть нейронная сеть x-n1-n2-y. Будем обучать ее ОРО град. в пакетном режиме. <e Немного по другому.


Из обучающего множества S составим новое множество MG=S и разбиваем на K(конечное) подмножеств M что пересечение M(n)&M(n+1)!=0

Пропускаем все обуч. подмножества M1,M2,M3,...,M(n),M(n+1) множества MG выбираем М(емах) корректируем ошибку, если М(емах)<e стоп если нет то все сначала еще нужно чтоб М(емах)/М(емin)--1.


Ну как то так более качественно обучение идет.


А что показывает тестовое подмножество? Как ведет себя ошибка?

Описанные метод иногда встречается в литературе как модифицированный пакетный режим.

 

Товарищи. Если кто реализовывал алгоритмы стохастического обучения. Поделитесь своими впечатлениями, опытом и т.д.(мне не нужны исходники).

P.S. Заранее спасибо.