"Новый нейронный" - проект Open Source движка нейронной сети для платформы MetaTrader 5. - страница 22

 
Кто имел дело с SLTM?
Long short term memory - Wikipedia, the free encyclopedia
Long short term memory - Wikipedia, the free encyclopedia
  • en.wikipedia.org
Long short term memory (LSTM) is a recurrent neural network (RNN) architecture (an artificial neural network) published1 in 1997 by Sepp Hochreiter and Jürgen Schmidhuber. Like most RNNs, an LSTM network is universal in the sense that given enough network units it can compute anything a conventional computer can compute, provided it has the...
 
gpwr:

Ты со ссылками сразу. А то я тебя не до конца понимаю. Или без сокращений :) .

И имхо любая моделирующая сеть может быть классификатором.

 
TheXpert:
Кто имел дело с SLTM?

Вот как раз хотел было задать вопрос все ли нейроны имеют структуру рабочего хода как:

in*wg
  +
 ...

Теперь вижу что не все, нужно это учесть и делать разнообразие алгоритмов не только по типу активатора но и о типу нейрона.

 
Mischek:
Вы сначала попробуйте сформулировать общее или почти общее мнение к требованиям к спецу
Не не. Это уже даже не второй уровень сумрака, а третий.
 
Mischek:
Вы сначала попробуйте сформулировать общее или почти общее мнение к требованиям к спецу

Лично мне Владимир gpwr подходит, возможно ещё пару из своих подтянется, так что в приглашённых пока нет необходимости.

Другое дело что народ привык что дело должно двигаться с часовыми тактами, но это же OpenSourse, такие проэкты могут длится  намного дольше, тк люди работают когда есть время.

 
TheXpert:
Кто имел дело с SLTM?
А чего тебя именно она заинтересовала?
 
Urain:
А чего тебя именно она заинтересовала?
Незнаком с принципом вообще. Она не единственная такая, могу еще вопросов накидать :)
 
TheXpert:

Ты со ссылками сразу. А то я тебя не до конца понимаю. Или без сокращений :) .

И имхо любая моделирующая сеть может быть классификатором.

SVМ = Support Vector Machine

RBN = Radial Basis Network

Вот несколько ссылок:

Т. Serre, "Robust Object Recognition with Cortex-Like Mechanisms", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE

Bell, A. J., Sejnowski, T. J. (1997).
The independent components of natural scenes are edge filters.
Vis. Res., 37, 3327-3338.

Olshausen, B. A., Field, D. J. (1996).
Emergence of simple-cell receptive field properties by learning a sparse code for natural images.
Nature, 381(6583), 607-609.

http://www.gatsby.ucl.ac.uk/~ahrens/tnii/lewicki2002.pdf

 
TheXpert:  SLTM
Незнаком с принципом вообще. Она не единственная такая, могу еще вопросов накидать :)

Вики пишет что кроме обычной схемы

in*wg
  +
 ...

в нейроне ещё используется перемножение входов, и обратный сигнал (видимо от задержки), ещё ругается что главный метод БекПропа часто застряёт когда ошибка циклится в обратных связях поэтому желательно делать гибриды обучения с ГА. Активаторы стоят только на первом слое дальше всё линейно, первый нейрон (или комитет не очень понял) преобразовывает входы остальные играют роль фильтров (разрешающих или нет прохождение сигнала).

Можно назвать это как нейронный блок, так и один нейрон со сложной функцией прохождения, это как посмотреть, сеть строится из таких блоков.

 
TheXpert:
Незнаком с принципом вообще. Она не единственная такая, могу еще вопросов накидать :)
Накидывай, разгребём мал помалу.