O "New Neural" é um projecto de motor de rede neural Open Source para a plataforma MetaTrader 5. - página 75

 
ela.humana:

A questão não é qual deles. Só me pergunto se a AG com um hardware tão fraco o vai conseguir?

Uma versão leve do algoritmo joo.

Bem, podes fazer uma estimativa aproximada. Basta correr uma vez pelo histórico do FF e medir o tempo e depois multiplicá-lo por 10000. Você terá um resultado bastante realista, que é o que você terá se dirigir o treinamento.


E isso é... O que há para animar? :)

 
Joo:

Bem, podes fazer uma estimativa aproximada. Para fazer isto, corra uma vez pelo histórico do FF, medindo o tempo e depois multiplique por 10000. É bastante realista o que se conseguirá se o fizermos através do treino.


E isso é... O que há para animar? :)

Não muito adequado, você ainda precisa medir e subtrair separadamente o tempo total do FF para obter um valor líquido da execução do algoritmo.

então você pode multiplicar pelo número de parâmetros.

As costeletas estão separadas das moscas.

 
Urain:
Uma vez pensei em escrever um testador para treinar uma pequena grelha com o Tester GA, como a que desenhei acima, 6 escalas 3 neurónios, tarefa XOR, mas ainda não consegui chegar a ela :)
Estou a falar de..:
Rede 100x1000x1 - malha completa
 
2)Quantos exemplos?
Estou a falar de..:
ela.humana:

1) O que ensinar,

2) Quantos exemplos,

3) um erro, etc.?

1) Para o bem da experiência - tente aproximar uma função, por exemplo, a do artigo.

2) Bem, pelo menos 1000, acho eu.

3) ZFF é o menor erro com a superfície da função de teste.

 
joo:

E isso é... O que há para animar? :)

A UGA é universal, adequada para muitas tarefas. Pode ser afiado, iluminado, especialmente para treinamento em rede.
 
Joo:

3) ZFF é o menor erro com a superfície da função de teste.

ZFF - não entendido. ?
 
ela.humana:
ZFF - Eu não entendo. ?
O significado de FF, ou - VFF, se você seguir a terminologia do artigo.
 
Joo:
Valor do FF, ou - VFF, para seguir a terminologia do artigo.

o menor erro é um conceito elusivo...

Estou de saída agora, já há demasiado de mim aqui. Se eu tiver mais perguntas, farei em privado, para não desarrumar as coisas. Vou mostrar-lhe os resultados.

Esperemos que Urain & yu-sha venham com uma descrição da arquitetura e da rede.

 

Um problema XOR resolvido por uma AG de teste padrão, para 100 exemplos de 14 erros discretos.

existem duas malhas no código para dois neurónios em cascata, e para três neurónios como no MLP clássico.

pitch no topo dos comentários, para 7 parâmetros passo 0,005, para 9 pesos 0,2-03 com entrada 0,2, independente 03.

por isso o jogo, mas bonito.

ZZZ eu sou um tolo, eu dei nos exemplos dos cantos de 1 por exemplo, e do meio 0. E não importa como a grade gira dos dois zeros na entrada não pode dar 1.

Eu verifico que o erro de saída da grelha deve ser igual a zero na forma discreta, e tende a zero na forma real.

Então é estranho, eu reverti as saídas mas o erro permaneceu, até subiu um pouco para 16, tudo bem, eu vou escrever na AG :) Talvez eu esteja com sono agora.

Arquivos anexados:
NN_GA.mq5  9 kb
NN_GA.mq5  9 kb
 

Hoje é o Dia do Idoso :)

Silêncio total, todos estão fumando a entrevista.