"Новый нейронный" - проект Open Source движка нейронной сети для платформы MetaTrader 5. - страница 70

 

Если кто это осилит дайте знать в чём суть.

Совмещение подходов адаптивного управления и детерминированного хаоса для построения эффективных автономных управляющих систем

Метод автономного адаптивного управления.

Логический адаптивный управляющий автомат с конечным числом входов

Короче говоря вот тут можно поискать http://www.aac-lab.com/rus/

Группа Методов адаптивного управления
Группа Методов адаптивного управления
  • www.aac-lab.com
Определение живого: живым является то, что содержит в себе систему управления! (Жданов А.А.) Основным направлением научной деятельности группы является исследование возможностей построения адаптивных систем управления на бионических основах. Концепция построения такого рода систем, выработанная сотрудниками отдела, названа нами методом...
Файлы:
 

Как я вовремя смотался :)) ...

yu-sha:

Спасибо за либку :)

 
TheXpert:

Как я вовремя смотался :)) ...

Я ещё не всё выложил, пока ищу стоящие материалы, дальше будет веселее :)
 
TheXpert:

Как я вовремя смотался :)) ...

Спасибо за либку :)

Не рекламы ради, а пользы дела для:  https://www.mql5.com/ru/code/712 - нативный Xml-парсер

Сам пользуюсь уже давно - вроде все ошибки пофиксил

XML parser
XML parser
  • голосов: 7
  • 2011.11.29
  • yu-sha
  • www.mql5.com
Библиотека для парсинга XML-документов. Реализация на MQL5 без использования сторонних библиотек.
 
yu-sha:

Не рекламы ради, а пользы дела для:  https://www.mql5.com/ru/code/712 - нативный Xml-парсер

Сам пользуюсь уже давно - вроде все ошибки пофиксил

Да да, уже скачал, вот только запустил, а реакции ни какой, оставил на потом разбираться.

ЗЫ щас закончу парсить литературу по адаптивным системам управления, потом займусь.

 
yu-sha:

Завтра с рабочего компьютера скопирую сюда свои наработки по хранению прототипов сетей, постановки задач обучения, хранения найденных решений

???

 
Urain:

Ну вообще то GPU в моей модели всплыл ещё на стадии обсчёта НС, если внимательно читал что я писал раньше, то заметил что в моей модели универсальной сети, сам процессинг разбит на слои, при этом нейроны объединяются в слои не формально (по принадлежности), а фактически (слой обладает памятью, а нейрон нет, нейрону остаётся быть лишь информационной сущностью поставляющей слою информацию откуда куда зачем). Так что параллельность определена самой структурой движка (сама информация внутри слоя обрабатывается параллельно). Я уже делал НС обучаемую ГА, и самый большой урон производительности был именно на расчёте НС (особенно на больших сетях). Ну и в качестве рекламы, могу сказать что для UGA предложенного joo обучение НС плёвое дело.

Но если получится ещё и запараллелить расчёты ФФ (а НС для ГА есть частью ФФ) то я только за. Хотя не думаю что это будет простая задача, в слоях производятся простые действия, а расчёт ФФ может предполагать довольно сложную последовательность.

В остатке имеем: идея универсального движка под любую топологию, идея универсального метода инициализации под любую топологию, и ГА как универсальная обучалка этого всего.

Пока на этом можно остановиться. имхо.

Запаралелить расчет ФФ помог бы стандартный ГА и облако. Тем более Ренат обещал:


Админ
2516
Renat 2011.10.18 10:50 
Со скоростью исполнения MQL5 программ дела обстоят достаточно хорошо + мы готовим новую версию компилятора с включенной оптимизацией, что даст кратный прирост скорости. 

Как раз параллельно разработке нейросети, мы расширим функционал агентов для поддержки математических расчетов и обмену большими объемами (файлами) данных.

Но как говорится, обещанного три года ждут.

Поэтому, на первое время, можно оптимизировать алгоритм joo конкретно под нейросети, будет работать еще быстрее. Надеюсь Андрей будет не против.

 
her.human:

???

а) разбираем XmlParser

б) https://www.mql5.com/ru/forum/4956/page32#comment_110831

По мере появления вопросов будем продвигаться дальше 

 
yu-sha:

а) разбираем XmlParser

б) https://www.mql5.com/ru/forum/4956/page32#comment_110831

По мере появления вопросов будем продвигаться дальше 

Можно маленький примерчик использования для МТ5?

 

Если рассматривать обучение нейронок как микроуровни (независимые циклы обработки массивов в ГА, расчет отдельных нейронов сети и др) и макроуровни (вся ФФ целиком), то с первым вопросов и проблем не возникает - всё прекрасно параллелится и чудесно будет работать на GPU.

А вот с макроуровнем проблема. Во первых, подозреваю, что это не возможно в силу ограничений на объём обрабатываемой инфы в GPU. Можно было бы это обойти, используя штатный тестер и облако (каждый макроуровень будет передаваться на отдельных агентов а там уже будет вестись обработка на микроуровне - если это позволяет хост конечно). Но у нас нет инструментов, позволяющих управлять тестером извне, что бы использовать внешний ГА.

Поэтому придётся ограничится ускорением на микроуровне. Ускорение тоже будет очень приличным, так как сами сетки и ГА изобилуют независимыми друг от друга вычислениями.

Что касается самого UGA - если не касаться его доработки под OpenCL, то усовершенствовать в нем практически уже нечего (разве что только отдельные какие то участки кода, но это погоду  не сделает, спасибо участникам ветки обсуждения алгоритма из статьи). Можно лишь попробовать подобрать настройки UGA специально для обучения сетей.