Usando redes neurais no comércio - página 14

 
TheXpert:
Ah, isso é fácil. Assim que começa a aprender, isso é suficiente.


Agora vou demonstrar a nova rede. Com todos os testes.
 
TheXpert:
Ah, é fácil. Assim que começa a aprender, isso é suficiente.

Reshetov's Perseptron também aprende algo, mas obviamente não é suficiente....

Minha opinião, para falar sobre suficiência é preciso aprender de alguma forma a analisar os resultados do treinamento, sobre OV, dependendo do período de treinamento (número de exemplos de entrada) e OOS sozinho não é um ajudante aqui. Há muito tempo eu tropeço neste lugar, sinto que a verdade está em algum lugar próximo, mas não consigo entendê-la.

 
Figar0:

Há muito tempo eu tropeço neste lugar, sentindo que a verdade está em algum lugar próximo, mas não consigo me controlar.

Bem, não sei, isso é o elementar.
 
Figar0:

Reshetov's Perseptron também aprende algo, mas obviamente não é suficiente....

Minha opinião, para falar de suficiência é preciso de alguma forma aprender a analisar os resultados do treinamento, sobre OV, dependendo do período de treinamento (número de exemplos de entrada) e OOS sozinho não é uma ajuda aqui. Há muito tempo eu tropeço neste lugar, sinto que a verdade está em algum lugar próximo, mas não consigo entendê-la.


Parece que já entendi. Otimização em uma grande amostra. Eu recebo o drawdown para estar abaixo do lucro líquido. Depois reduzo a amostra e adiciono um último neurônio de refino. Eu poderia estar errado. Vou postar um exemplo.
 

Utilizei várias abordagens em minhas pesquisas:

1) dar à rede uma entrada esquerda, bem do nada, como uma mudança diária no clima do sol, e ensiná-la a negociar sobre esta entrada, por exemplo, por um mês. Aqui a rede em sua forma pura deve demonstrar sua capacidade de lembrar/seguir. Em seguida, deu entradas normais. Eu tentei analisar de alguma forma a diferença entre os resultados do treinamento.

2) Tentou analisar o resultado do treinamento como uma função de aumentar o tamanho da amostra de treinamento. Quase todas as redes e configurações, até um certo momento há um aumento no resultado, então geralmente ocorre uma estagnação, e aumentar ainda mais o número de amostras de entrada pode levar a resultados piores.

Com estes resultados de minha pesquisa estou tentando tirar conclusões sobre a suficiência da rede e o período de treinamento, e se existe alguma conexão entre eles. É por isso que entrei nesta linha. Talvez alguém possa sugerir algo.

 
Há um erro cumulativo raiz-meios-quadrado. Pode ser comparado para diferentes redes. E usá-lo para determinar se ele aprende alguma coisa.
 
TheXpert:
Há um erro cumulativo raiz-meios-quadrado. Pode ser comparado para diferentes redes. E usá-lo para determinar se ele aprende alguma coisa.

Erro de quê?
 
grell:
Erro de quê?
Saída, é claro.
 
TheXpert:
Saída, é claro.


E se a produção não for prevista, então como?
 
grell:

Estou um pouco atrapalhado. Otimização em uma grande amostra. Eu recebo o drawdown para estar abaixo do lucro líquido. Depois reduzo a amostra e adiciono um último neurônio de refino. Eu poderia estar errado. Vou postar um exemplo.
Seria bom, por exemplo, eu adoraria ver como o Expert Advisor trabalha exatamente no período de treinamento, que você considera bem sucedido.