O "New Neural" é um projecto de motor de rede neural Open Source para a plataforma MetaTrader 5. - página 74

 
Urain:
Vamos colocar uma experiência, criar uma grade de 1000 neurônios com 100 conexões por neurônio, e postar o tamanho do arquivo

~6 MBytes

Rede 100x1000x1 - malha completa

Em anexo ))

Agora diz-me por favor, como vais treiná-lo?

Conheço apenas um tipo de redes que podem ter tamanho semelhante, mas não precisam de treinamento e armazenamento. Elas são formadas em uma única passagem por amostra de treinamento e estupidamente se lembram disso.

Tal rede não pode ser treinada com GA por todos os computadores de todos os filmes de ficção científica juntos: a dimensionalidade do espaço de busca é de 100 000

Ou melhor, acredito que tal rede irá simplesmente memorizar a amostra de treinamento, e você terá uma captura de tela de toda a história ao invés de uma generalização.

Você tem que ter mais cuidado com a sua escolha de arquitetura ))

Arquivos anexados:
UrainTask.zip  93 kb
 
yu-sha:

~6 MBytes.

Em anexo ))

Agora diz-me, por favor, como vais ensiná-lo?

Sim, para ensinar sem problemas, escrevi acima que para a UGA 100 000 parâmetros é uma tarefa aceitável, não posso dizer que a bagatela, mas viável.

Mas o tamanho é bastante normal, não é preciso preocupar-se mais com isso, pois dizem que a questão está encerrada.

 
Urain:

Não é um problema para treinar, escrevi acima que para a UGA 100 000 parâmetros é uma tarefa bastante aceitável, não posso dizer que seja fácil, mas é viável.

Mas o tamanho é bastante normal, não precisa mais se preocupar com isso, como dizem, a questão está encerrada.

Mesmo se você definir a resolução de cada parâmetro como 0,1, o número de combinações de todas as combinações possíveis de uma busca completa é 10^100000

Você tem uma ideia muito brilhante da GA.

 
yu-sha:

Mesmo se você definir a discrição de cada parâmetro como 0,1, o número de combinações de todas as combinações possíveis de uma busca completa é 10^100000

Você tem uma ideia muito brilhante da GA

Eu não tenho idéias de arco-íris, eu tenho conhecimento prático do uso deste algoritmo, UGA não é um algoritmo binário que precisa dividir o espaço de busca em gráficos.

A UGA realiza buscas paralelas em todas as medições simultaneamente, diminuindo passo a passo automaticamente, o que lhe dá uma oportunidade de tempo razoável para alcançar um resultado robusto, e mais para treinar uma grade e não é necessário, além disso haverá reciclagem. Normalmente em 10000-50000 FF o resultado é alcançado independentemente do número de parâmetros.

 
yu-sha:

~6 MBytes

Rede 100x1000x1 - malha completa

Em anexo ))

Agora diz-me por favor, como vais treiná-lo?

Conheço apenas um tipo de redes, que podem ter ordem de tamanho semelhante, mas não treinam e não precisam ser armazenadas. Elas são formadas em uma única passagem por amostra de treinamento e, estupidamente, lembram-se disso.

Tal rede não pode ser treinada com GA por todos os computadores de todos os filmes de ficção científica juntos: a dimensionalidade do espaço de busca é de 100 000

Ou melhor, acredito que tal rede irá simplesmente memorizar a amostra de treinamento, e você terá uma captura de tela de toda a história ao invés de uma generalização.

Você tem que ter mais cuidado com a sua escolha de arquitetura ))

É claro que ninguém precisa (é inútil) de uma rede desse tipo. É por isso que estamos a falar de uma arquitectura livre (escalável).

Por uma questão de experiência, vou tentar ensiná-la com GA no meu pequeno aparelho com N450. O que ensinar, quantos exemplos, erros, etc.?

P.S. Enquanto aprende, eu vou estudar os teus códigos.

 
ela.humana:

É evidente que ninguém precisa de uma rede desse tipo (inútil). É por isso que estamos a falar de arquitectura livre (escalável).

Por uma questão de experiência, vou tentar ensinar com GA no meu pequeno ferro com N450. O que ensinar, quantos exemplos, erros, etc.?

Que AG é que vais ensinar?
 
Urain:

Eu não tenho idéias de arco-íris, mas conhecimento prático sobre o uso deste algoritmo, UGA não é um algoritmo binário que precisa dividir o espaço de busca em gráficos.

A UGA realiza uma busca paralela em todas as medições simultaneamente, reduzindo passo a passo automaticamente, o que lhe dá a oportunidade de alcançar um resultado robusto em tempo razoável, e mais para o treinamento de uma grade também não é necessário, além disso, haverá reciclagem. Normalmente em 10000-50000 FF o resultado é alcançado independentemente do número de parâmetros.

Entendido. Destacado em negrito é um resultado robusto (não necessariamente um máximo absoluto).

O principal é que é possível treinar malhas de tamanhos enormes. E se estas enormes malhas são necessárias, depende de cada nó em particular. :)

 
Joo:

Entendido. Destacado em negrito é um resultado robusto (não necessariamente um máximo absoluto).

O principal é que é possível treinar malhas de tamanhos enormes. E se essas enormes malhas são necessárias, depende da consciência de cada nó individual. :)

Não para pintar uma perspectiva completamente rosada, devemos acrescentar, que embora o número de corridas de FF quase não cresça (para obter uma solução robusta) o tempo de encontrar resultados aumenta, porque o algoritmo tem que correr muitas vezes maiores matrizes (na verdade, faz mais operações), mas na primeira vez cresce linearmente, e em segundo lugar durante os testes a velocidade de FF e, em particular, a velocidade de NS como parte de FF sempre foi o principal obstáculo, com a aceleração séria de NS na GPU é esperada e a aceleração de encontrar solução em geral para GA.

Документация по MQL5: Стандартные константы, перечисления и структуры / Константы индикаторов / Стили рисования
Документация по MQL5: Стандартные константы, перечисления и структуры / Константы индикаторов / Стили рисования
  • www.mql5.com
Стандартные константы, перечисления и структуры / Константы индикаторов / Стили рисования - Документация по MQL5
 
Urain:
E que AG é que vais ensinar?

A questão não é qual deles. Só me pergunto se a AG com um hardware tão fraco o vai conseguir?

Uma versão aligeirada do algoritmo joo.

 
ela.humana:

A questão não é qual deles. Só me pergunto se a AG com um hardware tão fraco o vai conseguir?

Uma versão leve do algoritmo joo.

Uma vez pensei em escrever um testador para aprender uma pequena grelha com AG, como aquela que desenhei acima, 6 pesos, 3 neurónios, problema XOR, mas não tenho tempo para o fazer :)