O "New Neural" é um projecto de motor de rede neural Open Source para a plataforma MetaTrader 5. - página 75
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
A questão não é qual deles. Só me pergunto se a AG com um hardware tão fraco o vai conseguir?
Uma versão leve do algoritmo joo.
Bem, podes fazer uma estimativa aproximada. Basta correr uma vez pelo histórico do FF e medir o tempo e depois multiplicá-lo por 10000. Você terá um resultado bastante realista, que é o que você terá se dirigir o treinamento.
E isso é... O que há para animar? :)
Bem, podes fazer uma estimativa aproximada. Para fazer isto, corra uma vez pelo histórico do FF, medindo o tempo e depois multiplique por 10000. É bastante realista o que se conseguirá se o fizermos através do treino.
E isso é... O que há para animar? :)
Não muito adequado, você ainda precisa medir e subtrair separadamente o tempo total do FF para obter um valor líquido da execução do algoritmo.
então você pode multiplicar pelo número de parâmetros.
As costeletas estão separadas das moscas.
Uma vez pensei em escrever um testador para treinar uma pequena grelha com o Tester GA, como a que desenhei acima, 6 escalas 3 neurónios, tarefa XOR, mas ainda não consegui chegar a ela :)
Estou a falar de..:
1) O que ensinar,
2) Quantos exemplos,
3) um erro, etc.?
1) Para o bem da experiência - tente aproximar uma função, por exemplo, a do artigo.
2) Bem, pelo menos 1000, acho eu.
3) ZFF é o menor erro com a superfície da função de teste.
E isso é... O que há para animar? :)
3) ZFF é o menor erro com a superfície da função de teste.
ZFF - Eu não entendo. ?
Valor do FF, ou - VFF, para seguir a terminologia do artigo.
o menor erro é um conceito elusivo...
Estou de saída agora, já há demasiado de mim aqui. Se eu tiver mais perguntas, farei em privado, para não desarrumar as coisas. Vou mostrar-lhe os resultados.
Esperemos que Urain & yu-sha venham com uma descrição da arquitetura e da rede.
Um problema XOR resolvido por uma AG de teste padrão, para 100 exemplos de 14 erros discretos.
existem duas malhas no código para dois neurónios em cascata, e para três neurónios como no MLP clássico.
pitch no topo dos comentários, para 7 parâmetros passo 0,005, para 9 pesos 0,2-03 com entrada 0,2, independente 03.
por isso o jogo, mas bonito.
ZZZ eu sou um tolo, eu dei nos exemplos dos cantos de 1 por exemplo, e do meio 0. E não importa como a grade gira dos dois zeros na entrada não pode dar 1.
Eu verifico que o erro de saída da grelha deve ser igual a zero na forma discreta, e tende a zero na forma real.
Então é estranho, eu reverti as saídas mas o erro permaneceu, até subiu um pouco para 16, tudo bem, eu vou escrever na AG :) Talvez eu esteja com sono agora.
Hoje é o Dia do Idoso :)
Silêncio total, todos estão fumando a entrevista.