"Новый нейронный" - проект Open Source движка нейронной сети для платформы MetaTrader 5. - страница 22
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Ты со ссылками сразу. А то я тебя не до конца понимаю. Или без сокращений :) .
И имхо любая моделирующая сеть может быть классификатором.
Кто имел дело с SLTM?
Вот как раз хотел было задать вопрос все ли нейроны имеют структуру рабочего хода как:
Теперь вижу что не все, нужно это учесть и делать разнообразие алгоритмов не только по типу активатора но и о типу нейрона.
Вы сначала попробуйте сформулировать общее или почти общее мнение к требованиям к спецу
Вы сначала попробуйте сформулировать общее или почти общее мнение к требованиям к спецу
Лично мне Владимир gpwr подходит, возможно ещё пару из своих подтянется, так что в приглашённых пока нет необходимости.
Другое дело что народ привык что дело должно двигаться с часовыми тактами, но это же OpenSourse, такие проэкты могут длится намного дольше, тк люди работают когда есть время.
Кто имел дело с SLTM?
А чего тебя именно она заинтересовала?
Ты со ссылками сразу. А то я тебя не до конца понимаю. Или без сокращений :) .
И имхо любая моделирующая сеть может быть классификатором.
SVМ = Support Vector Machine
RBN = Radial Basis Network
Вот несколько ссылок:
Т. Serre, "Robust Object Recognition with Cortex-Like Mechanisms", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE
Bell, A. J., Sejnowski, T. J. (1997).
The independent components of natural scenes are edge filters.
Vis. Res., 37, 3327-3338.
Olshausen, B. A., Field, D. J. (1996).
Emergence of simple-cell receptive field properties by learning a sparse code for natural images.
Nature, 381(6583), 607-609.
http://www.gatsby.ucl.ac.uk/~ahrens/tnii/lewicki2002.pdf
Незнаком с принципом вообще. Она не единственная такая, могу еще вопросов накидать :)
Вики пишет что кроме обычной схемы
в нейроне ещё используется перемножение входов, и обратный сигнал (видимо от задержки), ещё ругается что главный метод БекПропа часто застряёт когда ошибка циклится в обратных связях поэтому желательно делать гибриды обучения с ГА. Активаторы стоят только на первом слое дальше всё линейно, первый нейрон (или комитет не очень понял) преобразовывает входы остальные играют роль фильтров (разрешающих или нет прохождение сигнала).
Можно назвать это как нейронный блок, так и один нейрон со сложной функцией прохождения, это как посмотреть, сеть строится из таких блоков.
Незнаком с принципом вообще. Она не единственная такая, могу еще вопросов накидать :)