O "New Neural" é um projecto de motor de rede neural Open Source para a plataforma MetaTrader 5. - página 74
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Vamos colocar uma experiência, criar uma grade de 1000 neurônios com 100 conexões por neurônio, e postar o tamanho do arquivo
~6 MBytes
Rede 100x1000x1 - malha completa
Em anexo ))
Agora diz-me por favor, como vais treiná-lo?
Conheço apenas um tipo de redes que podem ter tamanho semelhante, mas não precisam de treinamento e armazenamento. Elas são formadas em uma única passagem por amostra de treinamento e estupidamente se lembram disso.
Tal rede não pode ser treinada com GA por todos os computadores de todos os filmes de ficção científica juntos: a dimensionalidade do espaço de busca é de 100 000
Ou melhor, acredito que tal rede irá simplesmente memorizar a amostra de treinamento, e você terá uma captura de tela de toda a história ao invés de uma generalização.
Você tem que ter mais cuidado com a sua escolha de arquitetura ))
~6 MBytes.
Em anexo ))
Agora diz-me, por favor, como vais ensiná-lo?
Sim, para ensinar sem problemas, escrevi acima que para a UGA 100 000 parâmetros é uma tarefa aceitável, não posso dizer que a bagatela, mas viável.
Mas o tamanho é bastante normal, não é preciso preocupar-se mais com isso, pois dizem que a questão está encerrada.
Não é um problema para treinar, escrevi acima que para a UGA 100 000 parâmetros é uma tarefa bastante aceitável, não posso dizer que seja fácil, mas é viável.
Mas o tamanho é bastante normal, não precisa mais se preocupar com isso, como dizem, a questão está encerrada.
Mesmo se você definir a resolução de cada parâmetro como 0,1, o número de combinações de todas as combinações possíveis de uma busca completa é 10^100000
Você tem uma ideia muito brilhante da GA.
Mesmo se você definir a discrição de cada parâmetro como 0,1, o número de combinações de todas as combinações possíveis de uma busca completa é 10^100000
Você tem uma ideia muito brilhante da GA
Eu não tenho idéias de arco-íris, eu tenho conhecimento prático do uso deste algoritmo, UGA não é um algoritmo binário que precisa dividir o espaço de busca em gráficos.
A UGA realiza buscas paralelas em todas as medições simultaneamente, diminuindo passo a passo automaticamente, o que lhe dá uma oportunidade de tempo razoável para alcançar um resultado robusto, e mais para treinar uma grade e não é necessário, além disso haverá reciclagem. Normalmente em 10000-50000 FF o resultado é alcançado independentemente do número de parâmetros.
~6 MBytes
Rede 100x1000x1 - malha completa
Em anexo ))
Agora diz-me por favor, como vais treiná-lo?
Conheço apenas um tipo de redes, que podem ter ordem de tamanho semelhante, mas não treinam e não precisam ser armazenadas. Elas são formadas em uma única passagem por amostra de treinamento e, estupidamente, lembram-se disso.
Tal rede não pode ser treinada com GA por todos os computadores de todos os filmes de ficção científica juntos: a dimensionalidade do espaço de busca é de 100 000
Ou melhor, acredito que tal rede irá simplesmente memorizar a amostra de treinamento, e você terá uma captura de tela de toda a história ao invés de uma generalização.
Você tem que ter mais cuidado com a sua escolha de arquitetura ))
É claro que ninguém precisa (é inútil) de uma rede desse tipo. É por isso que estamos a falar de uma arquitectura livre (escalável).
Por uma questão de experiência, vou tentar ensiná-la com GA no meu pequeno aparelho com N450. O que ensinar, quantos exemplos, erros, etc.?
P.S. Enquanto aprende, eu vou estudar os teus códigos.
É evidente que ninguém precisa de uma rede desse tipo (inútil). É por isso que estamos a falar de arquitectura livre (escalável).
Por uma questão de experiência, vou tentar ensinar com GA no meu pequeno ferro com N450. O que ensinar, quantos exemplos, erros, etc.?
Eu não tenho idéias de arco-íris, mas conhecimento prático sobre o uso deste algoritmo, UGA não é um algoritmo binário que precisa dividir o espaço de busca em gráficos.
A UGA realiza uma busca paralela em todas as medições simultaneamente, reduzindo passo a passo automaticamente, o que lhe dá a oportunidade de alcançar um resultado robusto em tempo razoável, e mais para o treinamento de uma grade também não é necessário, além disso, haverá reciclagem. Normalmente em 10000-50000 FF o resultado é alcançado independentemente do número de parâmetros.
Entendido. Destacado em negrito é um resultado robusto (não necessariamente um máximo absoluto).
O principal é que é possível treinar malhas de tamanhos enormes. E se estas enormes malhas são necessárias, depende de cada nó em particular. :)
Entendido. Destacado em negrito é um resultado robusto (não necessariamente um máximo absoluto).
O principal é que é possível treinar malhas de tamanhos enormes. E se essas enormes malhas são necessárias, depende da consciência de cada nó individual. :)
Não para pintar uma perspectiva completamente rosada, devemos acrescentar, que embora o número de corridas de FF quase não cresça (para obter uma solução robusta) o tempo de encontrar resultados aumenta, porque o algoritmo tem que correr muitas vezes maiores matrizes (na verdade, faz mais operações), mas na primeira vez cresce linearmente, e em segundo lugar durante os testes a velocidade de FF e, em particular, a velocidade de NS como parte de FF sempre foi o principal obstáculo, com a aceleração séria de NS na GPU é esperada e a aceleração de encontrar solução em geral para GA.
E que AG é que vais ensinar?
A questão não é qual deles. Só me pergunto se a AG com um hardware tão fraco o vai conseguir?
Uma versão aligeirada do algoritmo joo.
A questão não é qual deles. Só me pergunto se a AG com um hardware tão fraco o vai conseguir?
Uma versão leve do algoritmo joo.