Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
IMHO, não vale a pena andar a vapor com redes :)
Aprender NS está na verdade otimizando uma função com um grande número de parâmetros (centenas e milhares).
Eu não sei o que fazer para evitar o excesso de treinamento neste caso,
A única solução é colher uma amostra de treinamento de 1-100 milhões de amostras.
Mas não há garantias...
Pergunta para os matemáticos:
A idéia de aplicar uma distribuição normal multivariada dos parâmetros a serem otimizados é igual ao princípio das redes neurais?
Por favor, explique isso claramente.
Explique a pergunta.
EXPLAINAR:
Agora penso que é necessário comercializar não com parâmetros ajustados específicos, mas com o espectro de cada parâmetro no sistema.
A maneira mais fácil é colocar vários EAs idênticos, mas com diferentes conjuntos de parâmetros - em diferentes faixas do espectro de parâmetros.
Cada um desses Conselheiros Especialistas deve receber uma certa % do depósito, mas todos eles devem ser iguais ao valor percentual do depósito, quando comercializados usando apenas um Conselheiro Especialista (sem espectro).
Então, se na média móvel três Conselheiros Especialistas abrem três posições, respectivamente no início do movimento no meio e no final.
Ainda não posso decidir como usar esta idéia em uma EA para testes.
Perguntei ao Posh sobre este problema, mas ainda não obtive resposta.
A tarefa de distribuição normal multivariada (gaussiana) e redes neurais do tipo aX+bY+...=Z são as mesmas (para negociação), ou estou confuso e confuso na minha cabeça?
Pergunta para os matemáticos:
A idéia de aplicar uma distribuição normal multivariada dos parâmetros a serem otimizados é igual ao princípio das redes neurais?
Por favor, explique isso claramente.
Explique a pergunta.
EXPLAINAR:
Agora penso que é necessário comercializar não com parâmetros ajustados específicos, mas com o espectro de cada parâmetro no sistema.
A maneira mais fácil é colocar vários EAs idênticos, mas com diferentes conjuntos de parâmetros - em diferentes faixas do espectro de parâmetros.
Cada um desses Conselheiros Especialistas deve receber uma certa % do depósito, mas todos eles devem ser iguais ao valor percentual do depósito, quando comercializados usando apenas um Conselheiro Especialista (sem espectro).
Então, se na média móvel três Conselheiros Especialistas abrem três posições, respectivamente no início do movimento no meio e no final.
Ainda não posso decidir como usar esta idéia em uma EA para testes.
Perguntei ao Posh sobre este problema, mas ainda não obtive resposta.
O problema da distribuição normal multivariada (Gaussiana) e das redes neurais do tipo aX+bY+...=Z são os mesmos (para negociação), ou estou confuso e confuso na minha cabeça?
https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D0%B5_%D1%81%D0%B5%D1%82%D0%B8 - está no wiki e está tudo nos traços gerais.
http://users.kpi.kharkov.ua/mahotilo/Docs/Diss/diss_ch1_intr.html - há um artigo sobre a ANN, e no meio do artigo há uma discussão sobre de onde é e do que se trata, com diagramas e fórmulas.
http://www.robo-planet.ru/library.php?parent_id=324&PHPSESSID=82aafc8cb3c043ecbe043fa11dd50943 - este é um link para "Fundamentals of Artificial Neural Networks", um bom site, há uma "árvore" inteira sobre o tema das ANNs - não apenas o que eu escrevi.
Mas sobre os "espectros", você está errado.
Eu não sou um proFessor, é claro - mas há um ponto racional aí.
Pessoal, ninguém me respondeu, é necessário pensar através do algoritmo de esquecer, ou é, afinal, uma propriedade natural da ANN?
Se você limitar seu treinamento a um número finito de barras (ou não barras, o que quer que seja usado), o esquecimento será um processo natural. O mercado está mudando, e o que funcionou há cinco anos pode não funcionar agora. Mas já surgiram novas condições, e se você não ensinar, isso vai passar.
Cabe a todos decidir.
Mak, você está claramente exagerando alguma coisa. Em vez de excedê-la centenas ou milhares de vezes, como você diz, pela teoria ANN 10 é suficiente. E os critérios de reciclagem (encaixe) são conhecidos: é um erro mínimo global na área de testes.
Outra coisa é a arquitetura de rede. Melhor classificar as malhas do que interpolar as malhas.
Bem, sim, nas estatísticas acredita-se que se pode tirar algumas conclusões se o número de amostras for 10 vezes o número de parâmetros desconhecidos. Mas os erros ao fazer isso estão no limite da razoabilidade.
Mas você deve concordar que NS é essencialmente apenas uma função de algum tipo de vetor de entradas e conjunto de pesos.
Este conjunto de pesos contém de centenas (nos casos mais simples) a dezenas e centenas de milhares de parâmetros (pesos).
O aprendizado de NS não é outra coisa senão otimizar esta função por estas centenas - centenas de milhares de parâmetros.
Todos sabem o que acontece em tais casos.
É por isso que sou um cético ...
IMHO, não vale a pena vaporizar com redes :)
Aprender NS está realmente otimizando uma função com um grande número de parâmetros (centenas e milhares).
Eu não sei o que fazer para evitar o excesso de treinamento neste caso,
A única solução é colher uma amostra de treinamento de 1-100 milhões de amostras.
Mas não há garantias...
Ela ocorre quando há muitos parâmetros de otimização e poucos dados.
IMHO, não vale a pena vaporizar com redes :)
Aprender NS está realmente otimizando uma função com um grande número de parâmetros (centenas e milhares).
Eu não sei o que fazer para evitar o excesso de treinamento neste caso,
A única solução é colher uma amostra de treinamento de 1-100 milhões de amostras.
Mas não há garantias...
Ela ocorre quando há muitos parâmetros de otimização e poucos dados.
Mas isto levanta a questão do tamanho da rede. O que uma rede pode armazenar depende de seu tamanho e de sua arquitetura. Se você colocar demasiadas amostras para serem treinadas que a rede não consegue lembrar, isso causará o efeito de aprendizado excessivo - a rede deixará de reconhecer o que sabe.