Discussão do artigo "Técnicas do MQL5 Wizard que você deve conhecer (Parte 18): Pesquisa de Arquitetura Neural com Vetores Próprios"
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Novo artigo Técnicas do MQL5 Wizard que você deve conhecer (Parte 18): Pesquisa de Arquitetura Neural com Vetores Próprios foi publicado:
Pesquisa de Arquitetura Neural, uma abordagem automatizada para determinar as configurações ideais de uma rede neural, pode ser um diferencial ao enfrentar muitas opções e grandes conjuntos de dados de teste. Examinamos como, quando emparelhado com Vetores Próprios, esse processo pode se tornar ainda mais eficiente.
Se optarmos por usar redes neurais para definir a relação entre um conjunto de dados de treinamento e seu alvo, como é o caso deste artigo, então teremos que lidar com a questão de quais configurações essa rede usará? Existem vários tipos de redes, o que implica que os designs e configurações aplicáveis também são muitos. Para este artigo, consideramos um caso muito básico, frequentemente chamado de perceptron multicamadas. Com esse tipo, as configurações nas quais nos aprofundaremos serão apenas o número de camadas ocultas e o tamanho de cada camada oculta.
A Pesquisa de Arquitetura Neural (NAS) pode, em geral, ajudar a identificar essas duas configurações e muito mais. Por exemplo, mesmo com MLPs simples, a questão de qual tipo de ativação usar, os pesos iniciais, bem como os vieses iniciais, são todos fatores sensíveis ao desempenho e à precisão da rede. Esses fatores, no entanto, serão resumidos aqui, pois o espaço de busca é muito extenso, e os recursos computacionais necessários para a propagação direta e reversa em um conjunto de dados de tamanho moderado seriam proibitivos.
Autor: Stephen Njuki