Uma biblioteca rápida e gratuita para o MT4, muito para o deleite de quem trabalha com redes neurais - página 4

 
Figar0 писал(а) >>

Z.I. Embora minha EA não tenha tido resultados tão drasticamente diferentes, ela poderia depender de muitas condições.

Sua EA usa um indicador diferente para a entrada?

Os pesos iniciais podem ser diferentes, mas o resultado final sobre os mesmos dados de entrada deve ser aproximadamente os mesmos resultados de treinamento.

Caso contrário, é uma aleatoriedade difícil, não um treinamento.

 
mgribachev >> :

A 2ª etapa de otimização foi feita a partir de "0" nos mesmos dados com os mesmos parâmetros.

Não há nada para "aprender", pois se trata de um novo treinamento, mas dá resultados completamente diferentes.

Com o novo treinamento da grade, os pesos iniciais são inicializados com números aleatórios. Como os pesos iniciais são diferentes, o treinamento para as malhas também será diferente e o resultado final também será diferente.


Qual é o sentido de apagar as grades prontas e treinadas e de re-treiná-las novamente?


Eu só otimizo o treinamento depois de perder negócios. Na maioria dos casos, o StopLoss permanece o mesmo e o Expert Advisor só precisa recarregar o terminal para carregar novas grades, porque a carga dos arquivos está localizada no init(). Se o StopLoss for alterado, ele deve ser alterado nas configurações do Expert Advisor comercial.


A reoptimização pode ser feita na hora, ou seja, se os EAs estiverem sendo negociados ao mesmo tempo, o otimizador não interfere neles.

 
mgribachev писал(а) >>

Sua EA usa um indicador diferente para a entrada?

As entradas são diferentes, mas muito mais importante é provavelmente o fato de que o período de aprendizagem é muito mais longo...

 
mgribachev >> :

Olá, Yuri.

Se você tiver a gentileza de explicar por que existem duas otimizações separadas para sua EA,

...

x: 1 a 5000 etapa 1

...

Os pesos iniciais podem ser diferentes, mas o resultado final sobre os mesmos dados de entrada deve ser aproximadamente os mesmos resultados de treinamento.

Caso contrário, é uma aleatoriedade difícil, não um treinamento.


Não ache difícil ler cuidadosamente as instruções da EA sobre quais devem ser os valores para x ao otimizar e não faça mais perguntas bobas.


Se você está fazendo sua própria coisa, então:


Não culpe o espelho quando você estiver errado (de Kozma Prutkov)

 
Reshetov писал(а) >>

Quando uma nova grade é treinada, os pesos iniciais são inicializados com números aleatórios.

Como os pesos iniciais são diferentes, o treinamento para as grades também será diferente e o resultado final também será diferente.

De que adianta apagar as grades já treinadas e re-treiná-las novamente?

Eu só realizo otimização - treinamento de grade - depois de perder negócios. Na maioria das vezes o StopLoss permanece o mesmo e para que a EA carregue grades frescas, basta recarregar o terminal, pois a carga dos arquivos está init(). Se o StopLoss for alterado, você precisa alterá-lo também nas configurações da EA comercial.

A re-otimização pode ser feita na hora, ou seja, se o Expert Advisor estiver negociando no momento, o otimizador não interfere com ele.

O exemplo mostra parâmetros iniciais de 2 estratégias diferentes, treinadas nos mesmos dados, no mesmo período, com os mesmos parâmetros de treinamento, para o mesmo Expert Advisor.

Passagem Lucro Total de negócios Rentabilidade Pagamento previsto Drawdown $ Lucro
54 1036.25 38 1.86 27.27 300.99 48.67
Passagem Lucro Total de negócios Rentabilidade Pagamento previsto Drawdown $ Lucro
24 880.85 168 1.26 5.24 287.04 30.80

A partir deste exemplo, conclui-se que se os parâmetros iniciais de 2 redes treinadas identicamente forem diferentes, então seu treinamento subseqüente (aperfeiçoamento) será diferente.

Se entendi corretamente, então todos os próximos treinamentos (otimizações) devem ser realizados sem remover dados do diretório ANN, apenas estendendo o intervalo de otimização adicionando um novo período (um dia ou semana), ou seja, a data de início do intervalo não deve mudar durante uma nova otimização?

 
Reshetov писал(а) >>

Leia atentamente as instruções da EA para ver quais devem ser os valores para x durante a otimização e não faça mais perguntas estúpidas.

Se você está fazendo isso por si mesmo, então:

Não culpe o espelho quando você estiver errado (de Kozma Prutkov)

Desculpe, não entendi bem que x de 0 a 1000000 é uma condição difícil.

 
mgribachev >> :

Desculpe, não percebi que x de 0 a 1000000 é uma condição difícil.

Você não precisa perguntar ou perguntar nada.


As pessoas normais fazem tudo de acordo com as instruções primeiro, e depois experimentam, se a competência for suficiente, por sua própria conta e risco.

Os anormais fazem tudo de uma só vez através do... e então eles começam a reclamar imediatamente.

 

mgribachev писал(а) >>


Se entendi corretamente, então todos os treinamentos subseqüentes (otimizações) devem ser realizados sem excluir dados do catálogo ANN, mas simplesmente prolongando o intervalo de otimização adicionando um novo período (um dia ou semana), ou seja, a data de início do intervalo deve permanecer inalterada durante a nova otimização?

Eu nem sei como responder para torná-lo mais relevante? Tente responder à sua pergunta primeiro:


Se você quiser assistir a outro programa na TV, quais seriam as ações:


1. Assistir na televisão anterior?

2. Remover a TV velha, comprar uma nova e assistir nela?


Leia o manual EA novamente com cuidado para ver se ele menciona a remoção das grades.

 
marketeer >> :

Alguém pode explicar algo nos exemplos da FANN? Em particular, no arquivo cascade_train.c está escrito o seguinte material:

Provavelmente não entendo algo, mas parece que cada par subseqüente de treinamento e de carregamento de arquivos de teste irá sobrescrever os anteriores. Por que isso está acontecendo? Além disso, há um vazamento de memória porque o fann_destroy_train(data) não é chamado entre as cargas;

E ainda há mais:

Qual é o objetivo?

Alguém descomentou todas as opções. Não há tais erros no código da CVS.

 
Cara, eu decidi tentar EA e FANN, mas durante a otimização o terminal trava com um erro, o que há de errado, eu me pergunto...?