Redes neurais, como dominá-las, por onde começar? - página 8

 
Mathemat писал(а) >>
Parece haver alguma conexão com o teorema provado por Kolmogorov de que qualquer função de qualquer número de variáveis pode ser exatamente expressa em termos de funções de duas variáveis. Posso não tê-lo expresso com exatidão, mas ele é freqüentemente mencionado em artigos sobre NS.

Sim, sim. As raízes do problema remontam a 1958.

 
Neutron >> :

Eu não uso nenhuma TF.

A razão é que os castiçais são usados em todos os períodos de tempo, portanto, os BPs baseados em preços abertos (ou fechados) estão mais próximos dos BPs aleatórios integrados do que os BPs baseados no original usando outros métodos (por exemplo, tempo instrumental, etc.).

De que tempo instrumental estamos falando?

 
Neutron >> :

É complicado.

Eu sei que dois teoremas foram provados não há muito tempo. Segundo a primeira, um NS não linear de três camadas (aquele que consiste de três camadas de neurônios, com não linearidade na saída de cada uma) é um aproximador universal e, aumentando ainda mais o número de camadas, não acrescenta energia à rede. Segundo o segundo teorema, o poder computacional da rede não depende do tipo específico de não-linearidade nas saídas de seus neurônios. É importante que haja não-linearidade em princípio e não importa exatamente o que é - sigmóide ou arctangente. Isto nos poupa de tentar encontrar o melhor do igual.

OK, eu entendi. A frase "poder de rede" era confusa.


Não decorre de forma alguma destes dois teoremas que 4 camadas não são mais eficientes do que 3.

Tudo o que diz é que onde 4 camadas são treinadas, 3 podem ser treinadas. Não diz nada sobre a eficiência do treinamento.


Digamos que é sempre possível treinar 3 camadas primeiro. E então você pode tentar melhorar a eficiência com outras arquiteturas, em particular aumentando as camadas.


Sobre a não-linearidade. Tudo legal, mas ainda não importa quais sejam as provas, cada FA tem seus méritos e deméritos. É por isso que eu inventei o meu. Embora os tenha também.

A prova, tenho certeza, não diz nada sobre a eficiência.


Portanto, acho que a discussão está encerrada.

 
registred писал(а) >>

De que tempo instrumental estamos falando?

Isto é quando as velas não são construídas pelo tempo, mas por peça (ver busca no fórum).

TheXpert escreveu >>

Digamos que você sempre pode aprender 3 camadas primeiro. E então você pode tentar melhorar a eficiência com outras arquiteturas, em particular aumentando as camadas.

Isso é verdade, mas você terá que pagar um super preço por uma camada extra (não é nada crucial) - a complexidade do aprendizado cresce como P^3!

 
Neutron писал(а) >>

Isso é verdade, mas você terá que pagar um super preço por uma camada extra (nada fundamental) - a complexidade do aprendizado cresce como P^3!

E isto, naturalmente, levará a resultados alternativos de rede, mas se eles serão melhores é uma questão. Se uma rede aprendeu a ganhar por 3 camadas, a quarta pode fazer muito mal..... Então a escolha da arquitetura não é bem o mesmo que aumentar as camadas. A arquitetura é o tipo de rede e cada tipo pode ter várias camadas e a qualidade do aprendizado é fortemente influenciada pela qualidade da entrada, portanto, redes de duas camadas também funcionam perfeitamente.....

 

Concordo plenamente.

 
Integer >> :

Não se preocupe em programar redes neurais você mesmo, existem programas já prontos. O único programa para o qual existe um livro em russo é o Statistica Neural Networks, e este livro dá a impressão de que foi escrito por especialistas em redes neurais, e tem uma introdução bastante decente e uma visão geral das técnicas de redes neurais e dos tipos existentes de redes neurais. O programa permite exportar redes treinadas como um dll que pode ser usado no MT Expert Advisors (não tentei eu mesmo, desculpe se estou errado). Os programas de comércio especializado com redes não-rede não são tão fáceis de anexar à MT e, se for possível, são tortuosos ou muito caros. Existem terminais de corretagem que exportam dados para meta arquivos, não é tão fácil implementar software especializado para trabalhar com redes não agrícolas. Eh! Por que os desenvolvedores da MT não oferecem a possibilidade de exportar dados para poder utilizar quaisquer outros programas do mercado sem mudanças desnecessárias?

Eu discordo totalmente... os produtos prontos são como xampu 3 em 1. um pouco de shampoo, um pouco de condicionador, um pouco de bálsamo...

Mas nem na qualidade normal...


A rede é muito influenciada por muitos fatores que são desconhecidos de como são implementados neste programa...

O desenvolvimento de sua própria implementação aumenta sua compreensão do trabalho em rede e cria uma ferramenta muito flexível...


Como posso mudar o cálculo de erro da rede no treinamento? RMS padrão para algo mais?

Você não pode... Você tem que mudar o algoritmo... e ele não está disponível...

E não há maneira de corrigir erros... imagine que após um ano de tentativas você descobrirá que há um erro no programa que não pode ser corrigido ?

Eu acho que isso seria legal... :)


É indiferente para estudantes ou pessoas NÃO PROFISSIONAIS, ou seja, não ganhar dinheiro fazendo redes neurais...


Quando se trata de dinheiro, você precisa controlar todo o processo do começo ao fim.


Portanto, minha opinião é que, se possível, você deve fazer tudo sozinho, ou pelo menos usar ferramentas que você possa controlar...

 
Solver.it писал(а) >>

Imagine que depois de um ano de tentativas, você descobre que há um bug no software que não pode ser corrigido ?

Eu acho que seria legal... :)

Portanto, você precisa usar programas populares como nerosel nerosolushin etc. para ler opiniões e coisas do gênero. Mas se seu programa não for conhecido zilipupkin, é claro que sim, use-o com cautela.

 
Solver.it писал(а) >>
O que têm os profissionais? Em que os profissionais atuam? Como eles negociam?
 
Solver.it писал(а) >>

Discordo totalmente...

Se você estivesse fazendo gráficos e animação 3D, você estaria escrevendo seu próprio 3DStudioMAX?