Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 631
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Você tem três neurônios na entrada da segunda camada processados por sigmoid? Como ajustar os pesos na segunda camada, cujo intervalo é escolhido de -1 a 1 em passos de 0,1, por exemplo.
Na minha rede, após o processamento da segunda camada, o número de negócios caiu e os meus resultados não melhoraram muito. Foi diferente quando eu apenas instalei um perceptron com 9 entradas e um neurônio de saída e depois peguei outro perceptron independente e o instalei novamente com as configurações do primeiro gravado, etc.
O 4º neurônio processa os resultados dos três primeiros, ou seja, + 3 pesos a mais
Sim, de -1 a 1 em incrementos de 0,1, mas não sigmóide, mas tangente.
Tentei agora uma camada intermédia com os mesmos pesos que a primeira entrada, o número de negócios caiu e a qualidade também melhorou consideravelmente, mas optimizar 9 pesos extra é demasiado :)
A tua versão parece boa... Estava a pensar em treinar NS convencionais sobre os resultados da optimização... Vou ter de a experimentar. Mas estou a ficar aborrecido com esta abordagem.
O 4º neurônio processa os resultados dos três primeiros, ou seja, + 3 pesos a mais
Agora tentei fazer uma camada intermediária com os mesmos pesos que a primeira camada de entrada - o número de negócios caiu e a qualidade também melhorou, mas otimizar mais 9 pesos já é demais :)
A tua versão parece boa... Estava a pensar em treinar NS convencionais sobre os resultados da optimização... Vou ter de a experimentar. Mas estou a ficar aborrecido com esta abordagem.
Minha impressão é que eu deveria fazer um indicador na primeira camada e ver visualmente os pesos que deveriam ser aplicados na segunda camada. Ou processá-lo com sigmoid (então você obtém os valores de cerca de 0,2 a 0,9, aproximadamente) e então você pode pegar pequenos pesos e não precisa de uma grande variedade deles.
Mais peso adicional sem ligação à entrada é apenas um peso, o que o Dr.Trader me sugeriu. O peso adicional de enviesamento melhora um pouco os resultados, por exemplo 1,7 com enviesamento torna-se 1,8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699
Tenho a impressão de que você precisa fazer um indicador na primeira camada e ver visualmente que pesos aplicar na segunda camada. Ou processá-lo com sigmoid (então você obtém valores de 0,2 a 0,9 ou mais) e então você pode pegar pequenos pesos e não precisa de uma grande variedade de pesos.
Mais peso adicional sem ligação à entrada é apenas um peso, o que o Dr.Trader me sugeriu. Por exemplo, é 1.7 com parcialidade e agora é 1.8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699
é difícil fazer algo em pura improvisação :) mas o problema principal permanece - a reciclagem
Bem, 5-10 neurónios para reciclar não é um problema de todo). Parece estar em algum lugar assim contigo.
Havia um espécime interessante no computador. Tens um pedaço de discurso. Um ruído é gerado e sobreposto a este discurso. Então um simples MLP é ensinado, e ouvimos novamente um discurso quase puro.
Eu fiquei totalmente esquisito com isso, embora haja uma descrição de um modificador de ruído similar em Haikin como exemplo.
Bem, 5-10 neurónios para reciclar não é um problema de todo). Parece estar em algum lugar assim contigo.
Havia um espécime interessante no computador. Tens um pedaço de discurso. Um ruído é gerado e sobreposto a este discurso. Então um simples MLP é ensinado, e ouvimos novamente um discurso quase puro.
Eu estava realmente aturdido com isso, embora seja descrito em Haikin como um exemplo.
Algum lixo parece ter faltado, gostaria de ter tido tempo para participar.
O outro, aquele em que eu respondi ao Sr. Terenyevsky, foi apagado. Eu respondi a Terentiev sobre testes de séries cronológicas e disse que os escritores locais são amadores porque eles não entendem que com 70-80% de precisão a proporção Sharp será superior a 20, e eles não estão fazendo sentido.
apagou a minha mensagem onde eu respondi ao Sr. Terenyv. Terentiev sobre os testes das séries cronológicas e disse que os escritores de artigos locais são apenas amadores porque não entendem que com 70-80% de precisão a razão Sharp será superior a 20, e eles têm alguns disparates
ah, ok )
Eu tenho me perguntado sobre o lerning da re-informação, então eu encontrei um artigo interessante e estou tentando comprá-lo e talvez adicioná-lo ao bot.
https://hackernoon.com/the-self-learning-quant-d3329fcc9915
Estou tentando comprar o bot, mas é meio idiota, ele só aprende a comprar no final por alguma razão.