O "New Neural" é um projecto de motor de rede neural Open Source para a plataforma MetaTrader 5. - página 70

 

Se alguém estiver à altura, digam-me do que se trata.

Combinando controle adaptativo e caos determinístico para construir sistemas de controle autônomo eficientes

Método de controlo adaptativo autónomo.

Autómatos lógicos de controlo adaptativo com um número finito de entradas

Em resumo, você pode pesquisar aqui http://www.aac-lab.com/rus/

Группа Методов адаптивного управления
Группа Методов адаптивного управления
  • www.aac-lab.com
Определение живого: живым является то, что содержит в себе систему управления! (Жданов А.А.) Основным направлением научной деятельности группы является исследование возможностей построения адаптивных систем управления на бионических основах. Концепция построения такого рода систем, выработанная сотрудниками отдела, названа нами методом...
Arquivos anexados:
 

Como eu escapei a tempo :)) ...

yu-sha:

Obrigada pela liberdade :)

 
TheXpert:

Como eu escapei a tempo :)) ...

Ainda não afixei tudo, ainda estou à procura de materiais que valham a pena, mais diversão para vir :)
 
TheXpert:

Que bom timing :)) ...

Obrigada pela liberdade :)

Não por uma questão de publicidade, mas por uma boa causa:https://www.mql5.com/ru/code/712 é um Xml-parser nativo.

Já o uso há muito tempo. Arranjei todos os meus insectos.

XML parser
XML parser
  • votos: 7
  • 2011.11.29
  • yu-sha
  • www.mql5.com
Библиотека для парсинга XML-документов. Реализация на MQL5 без использования сторонних библиотек.
 
Já o uso há muito tempo, mas acho que corrigi todos os bugs e os consertei:

Não por uma questão de publicidade, mas por uma boa causa:https://www.mql5.com/ru/code/712 - nativo Xml-parser

Já o uso há algum tempo e corrigi todos os meus bugs.

Sim, eu já fiz o download, mas execute-o, mas sem reacção, deixei-o para mais tarde resolver.

Vou acabar de analisar a literatura sobre sistemas de controlo adaptativos e depois vou lá chegar.

 
yu-sha:

Amanhã irei copiar do meu computador de trabalho o meu trabalho de armazenamento de protótipos de rede, criação de tarefas de formação, armazenamento de soluções encontradas aqui

???

 
Urain:

Bem, na verdade a GPU no meu modelo apareceu na fase de cálculo NS, se ler cuidadosamente o que escrevi anteriormente, você notou que no meu modelo de rede universal o processamento em si é dividido em camadas, assim os neurônios são combinados em camadas não formalmente (por propriedade), mas na verdade (camada tem uma memória e neurônio não tem, neurônio precisa ser apenas uma entidade informativa que informa a camada sobre onde e por quê). Portanto, o paralelismo é definido pela própria estrutura do motor (a informação no interior da camada é processada em paralelo). Eu já fiz NS treinados pela GA e a maior perda de produtividade foi exatamente no cálculo de NS (especialmente em grandes redes). E como anúncio, posso dizer que para a UGA proposta pela Joo , aprender NS é canja.

Mas se é possível fazer também cálculos paralelos de FF (e NS para GA é uma parte de FF), eu só sou a favor disso. Embora eu não ache que será uma tarefa simples, nas camadas são feitas ações simples, e o cálculo do FF pode envolver uma seqüência bastante complexa.

No resto temos: a ideia de um motor universal para qualquer topologia, a ideia de um método de iniciação universal para qualquer topologia, e a AG como um tutorial universal para tudo isto.

Podemos parar aí por agora, imho.

A AG padrão e a nuvem ajudariam a paralisar o cálculo do FF. Especialmente a Renat prometeu:


Admin
2516
Renat2011.10.18 10:50
A situação é bastante boa com o tempo de execução dosprogramas MQL5+ estamos preparando uma nova versão do compilador com otimizações habilitadas, o que dará um aumento múltiplo na velocidade.

Paralelamente ao desenvolvimento de uma rede neural, vamos expandir a funcionalidade dos agentes para suportar cálculos matemáticos e troca de grandes volumes (arquivos) de dados.

Mas, como diz o ditado, não se pode cumprir as promessas durante três anos.

Assim, por enquanto, você pode otimizar o algoritmo joo especificamente para redes neurais, ele vai funcionar ainda mais rápido. Espero que o Andrey não se importe.

 
ela.humana:

???

a) Desmontagem do XmlParser

b) https://www.mql5.com/ru/forum/4956/page32#comment_110831

Seguiremos em frente à medida que tivermos mais perguntas.

 
yu-sha:

a) Desmontagem do XmlParser

b) https://www.mql5.com/ru/forum/4956/page32#comment_110831

Seguiremos em frente à medida que tivermos mais perguntas.

Posso ter um pequeno exemplo de como utilizá-lo para o MT5?

 

Se considerarmos o treinamento de neurônios como nível micro (ciclos de processamento de matriz independente em AG, cálculo de neurônios individuais de uma rede, etc.) e nível macro (o PF inteiro), então não há dúvidas e problemas com o primeiro - tudo se encaixa perfeitamente e funcionará bem na GPU.

Mas há um problema com o nível macro. Em primeiro lugar, suspeito que isso não seja possível devido a limitações da quantidade de informações tratadas na GPU. Poderíamos trabalhar em torno disso, usando o testador regular e a nuvem (cada nível macro será transferido para agentes separados, e lá será processado em nível micro - se o host permitir, é claro). Mas não temos as ferramentas para controlar o testador externamente para usar a AG externa.

Portanto, teremos de nos limitar à aceleração no nível micro. A aceleração também será muito decente, uma vez que as malhas e os próprios GAs abundam em cálculos independentes um do outro.

Quanto à própria UGA, se você não tocar no refinamento para OpenCL, você não tem praticamente nada para melhorar (a menos que você tenha alguns fragmentos de código, mas isso não vai fazer a diferença graças aos envolvidos no tópico de discussão do algoritmo no artigo). Você só pode tentar selecionar configurações da UGA especificamente para redes de treinamento.