Redes neurais, como dominá-las, por onde começar? - página 11

 
Integer >> :

Se você estivesse fazendo gráficos e animação 3D, você estaria escrevendo seu próprio 3DStudioMAX?

Estas são coisas diferentes...


Dei-lhes um exemplo concreto... tente mudar a função de erro em seu programa de rede neural preferido...


Suavemente falando, você quer dizer que o 2DMAX é igual ao Neuroshell em termos de funções e tamanho de código ????

bem, bem...

 
Solver.it писал(а) >> tente mudar a função de erro em seu programa de rede neural preferido...
E você não permite a seguinte idéia - a fim de obter lucro com este programa, você não precisa mudar esta função de erro nele?
 
LeoV писал(а) >>
E você não permite a seguinte idéia - para ter lucro com este programa, você não precisa modificar esta função de erro nele?

Graças a esta sua graciosa declaração, sabemos agora que você não tem nenhum ou nenhum conceito de otimização em suas inspeções parentais por parte dos melhores especialistas da NS.
E você, por sua vez, não permite a seguinte idéia - que você vive em um país um pouco diferente de nós,
e, portanto, você não deve ter um software para otimizar totalmente a criação e o uso do NN?

 
Korey писал(а) >>

Graças a esta sua graciosa declaração, sabemos agora que você não tem nenhum e nenhum conceito de otimização em suas inspeções parentais dos melhores da NS.

:-)

 
Korey писал(а) >>

Você entendeu o que você escreveu? )))

 

Não importa como você torce o NS, o que quer que você dê aos insumos, não há milagres, é claro!

Então, o que acontece: por um lado, quanto mais a camada de NS, maior seu poder de previsão, mas é insensato construir mais de três camadas - a grade de três camadas já é um aproximador universal. Por outro lado, tudo o que a caixa preta chamada NS faz é encontrar e explorar processos quase estacionários no mercado. Não há outra forma de contornar isto. Exatamente, quase estacionários, não estacionários (simplesmente não existem tais processos no mercado) e não não-estacionários (tais processos não podem, em princípio, ser explorados). Dei acima um link para obter a relação ideal entre o número de sinapses NS - w, dimensão de sua entrada - d e a duração ideal da amostra de treinamento P (4 ou 5 páginas do tópico): w^2=P*d

Portanto, quanto maior for a complexidade do NS, maior será o comprimento da amostra de treinamento a ser utilizada para seu treinamento. Não só a complexidade do treinamento aumenta como P^3, mas os dados também podem ser insuficientes! Mas a maior armadilha está onde você não espera - processos quase estacionários (aqueles que nosso NS identifica no cotier e depois explora) têm uma vida útil característica (diferente de zero e menor do que alguns). É evidente que em uma grande amostra de treinamento, há uma maior probabilidade de mudança do processo selecionado... você vê? Quanto menor a amostra de treinamento, melhor - menos chances de ser ferrado por uma mudança no sentimento de mercado! Aqui, parece que a resposta à pergunta "Qual é melhor - uma NS de 2 camadas com uma pequena amostra de treinamento, ou uma poderosa 3 com três universidades por trás dela (enquanto aprendia, tudo se tornava desnecessário)...", será dada por uma simples experiência.

Para isso, joguei três grades - 1,2 e 3 no Mathcad, e comparei os resultados de prever um sinal de incrementos de kotier uma conta à frente (reuni estatísticas de 100 experimentos independentes). Os resultados são os seguintes:

1 - p=10% de sinais adivinhados corretamente (probabilidade=1/2+p).

2 - 15-16%

3 - 12%

Há alguns parâmetros livres aqui: dimensão da entrada e número de neurônios na(s) camada(s). O primeiro parâmetro foi o mesmo para todas as arquiteturas, o segundo foi escolhido pessoalmente. Vemos que a rede de 3 camadas NS não é uma panacéia, e talvez para nós como comerciantes, a melhor opção para a unidade analítica MTS é uma rede de duas camadas - do ponto de vista da máxima precisão de previsão e requisitos mínimos para a complexidade do treinamento (poder do RS, grande história e seu não crescimento).

 
Neutron писал(а) >>

Não importa como você torce o NS, o que quer que você dê aos insumos, não há milagres, é claro!

Então, o que acontece: por um lado, quanto mais a camada de NS, maior seu poder de previsão, mas é insensato construir mais de três camadas - a grade de três camadas já é um aproximador universal. Por outro lado, tudo o que a caixa preta chamada NS faz é encontrar e explorar processos quase estacionários no mercado. Não há outra forma de contornar isto. Exatamente, quase estacionários, não estacionários (simplesmente não existem tais processos no mercado) e não não-estacionários (tais processos não podem, em princípio, ser explorados). Dei acima um link para obter a relação ideal entre o número de sinapses NS - w, dimensão de sua entrada - d e a duração ideal da amostra de treinamento P (4 ou 5 páginas do tópico): w^2=P*d

Portanto, quanto maior for a complexidade do NS, maior será o comprimento da amostra de treinamento a ser utilizada para seu treinamento. Não só a complexidade do treinamento aumenta como P^3, mas os dados também podem ser insuficientes! Mas a maior armadilha está onde você não espera - processos quase estacionários (aqueles que nosso NS detecta no cotier e depois explora) têm uma vida útil característica (diferente de zero e menor do que uma certa). É claro que em uma grande amostra de treinamento, há uma maior probabilidade de mudança do processo selecionado... você vê? Quanto menor a amostra de treinamento, melhor - menos chances de ser ferrado por uma mudança no sentimento de mercado! Aqui, parece que a resposta à pergunta "Qual é melhor - uma NS de 2 camadas com uma pequena amostra de treinamento, ou uma poderosa 3 com três universidades por trás dela (enquanto aprendia, tudo se tornava desnecessário)...", será dada por uma simples experiência.

Para isso, joguei três grades - 1,2 e 3 no Mathcad, e comparei os resultados da previsão de um sinal de incrementos de cotier uma conta à frente (reuni estatísticas de 100 experimentos independentes). Os resultados são os seguintes:

1 - p=10% de sinais adivinhados corretamente (probabilidade=1/2+p).

2 - 15-16%

3 - 12%

Há alguns parâmetros livres aqui: dimensão da entrada e número de neurônios na(s) camada(s). O primeiro parâmetro foi o mesmo para todas as arquiteturas, o segundo foi escolhido pessoalmente. É claro que a rede de 3 camadas NS não é uma panacéia, e talvez para nós como comerciantes a melhor opção para a unidade analítica MTS seja uma rede de duas camadas - do ponto de vista da máxima precisão de previsão e requisitos mínimos para a complexidade do treinamento (poder do RS, grande história e seu não crescimento).

Será que alguém tentou usar NS para a previsão do número da loteria?

 

gpwr, você está fazendo troça de todos! - trata-se de prever o número da loteria. E, por favor, retire a citação do meu posto - isso adicionará ainda mais localismo ao seu posto :-)

 
Neutron писал(а) >>

Já dei acima um link para a conclusão da relação ideal entre o número de sinapses NS - w, sua dimensão de entrada - d e o comprimento ideal da amostra de treinamento P (4 ou 5 páginas do tópico): w^2=P*d

O tamanho da rede, a aprendizagem e a capacidade de reconhecimento dependem fortemente da arquitetura da rede. A qual deles você está se referindo? Word, recurrence, VNS ou talvez MSUA?
 
Estamos falando de um perseptron clássico de várias camadas, não linear, de produção única (compra e venda).