Discussão do artigo "Redes neurais de maneira fácil (Parte 21): Autocodificadores variacionais (VAE)"

 

Novo artigo Redes neurais de maneira fácil (Parte 21): Autocodificadores variacionais (VAE) foi publicado:

No último artigo, analisamos o algoritmo do autocodificador. Como qualquer outro algoritmo, tem suas vantagens e desvantagens. Na implementação original, o autocodificador executa a tarefa de separar os objetos da amostra de treinamento o máximo possível. E falaremos sobre como lidar com algumas de suas deficiências neste artigo.

Para testar o funcionamento do nosso autocodificador variacional, peguei o modelo do artigo anterior e salvei-o novamente em um novo arquivo "vae.mq5". Nesse modelo, o codificador retornou 2 valores na 5ª camada neural. Para elaborar adequadamente a operação do autocodificador variacional, aumentei o tamanho da camada no resultado gerado pelo codificador para 4 neurônios. E inserimos a nossa 6ª nova camada neural de trabalho com o estado latente do autocodificador variacional. O modelo foi treinado com o instrumento EURUSD e com o timeframe H1 sem alterar os parâmetros. O período de tempo para o treinamento do modelo foi escolhido como os últimos 15 anos. O gráfico comparativo da dinâmica de aprendizado de autocodificadores multicamadas e variacionais é mostrado na figura abaixo.

Resultados de aprendizagem comparativos

 

Como você pode ver, de acordo com os resultados do treinamento do modelo, o autocodificador variacional apresentou um erro de recuperação de dados significativamente menor durante todo o período de treinamento. Além disso, a dinâmica de redução de erro no autocodificador variacional é maior.

Com base nos resultados dos testes, podemos concluir que para resolver os problemas de extração de características de séries temporais usando o exemplo da dinâmica de preços EURUSD, os autocodificadores variacionais têm grande potencial na extração de características individuais de descrições de padrões.

Autor: Dmitriy Gizlyk