Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Se você estivesse fazendo gráficos e animação 3D, você estaria escrevendo seu próprio 3DStudioMAX?
Estas são coisas diferentes...
Dei-lhes um exemplo concreto... tente mudar a função de erro em seu programa de rede neural preferido...
Suavemente falando, você quer dizer que o 2DMAX é igual ao Neuroshell em termos de funções e tamanho de código ????
bem, bem...
E você não permite a seguinte idéia - para ter lucro com este programa, você não precisa modificar esta função de erro nele?
Graças a esta sua graciosa declaração, sabemos agora que você não tem nenhum ou nenhum conceito de otimização em suas inspeções parentais por parte dos melhores especialistas da NS.
E você, por sua vez, não permite a seguinte idéia - que você vive em um país um pouco diferente de nós,
e, portanto, você não deve ter um software para otimizar totalmente a criação e o uso do NN?
Graças a esta sua graciosa declaração, sabemos agora que você não tem nenhum e nenhum conceito de otimização em suas inspeções parentais dos melhores da NS.
:-)
Você entendeu o que você escreveu? )))
Não importa como você torce o NS, o que quer que você dê aos insumos, não há milagres, é claro!
Então, o que acontece: por um lado, quanto mais a camada de NS, maior seu poder de previsão, mas é insensato construir mais de três camadas - a grade de três camadas já é um aproximador universal. Por outro lado, tudo o que a caixa preta chamada NS faz é encontrar e explorar processos quase estacionários no mercado. Não há outra forma de contornar isto. Exatamente, quase estacionários, não estacionários (simplesmente não existem tais processos no mercado) e não não-estacionários (tais processos não podem, em princípio, ser explorados). Dei acima um link para obter a relação ideal entre o número de sinapses NS - w, dimensão de sua entrada - d e a duração ideal da amostra de treinamento P (4 ou 5 páginas do tópico): w^2=P*d
Portanto, quanto maior for a complexidade do NS, maior será o comprimento da amostra de treinamento a ser utilizada para seu treinamento. Não só a complexidade do treinamento aumenta como P^3, mas os dados também podem ser insuficientes! Mas a maior armadilha está onde você não espera - processos quase estacionários (aqueles que nosso NS identifica no cotier e depois explora) têm uma vida útil característica (diferente de zero e menor do que alguns). É evidente que em uma grande amostra de treinamento, há uma maior probabilidade de mudança do processo selecionado... você vê? Quanto menor a amostra de treinamento, melhor - menos chances de ser ferrado por uma mudança no sentimento de mercado! Aqui, parece que a resposta à pergunta "Qual é melhor - uma NS de 2 camadas com uma pequena amostra de treinamento, ou uma poderosa 3 com três universidades por trás dela (enquanto aprendia, tudo se tornava desnecessário)...", será dada por uma simples experiência.
Para isso, joguei três grades - 1,2 e 3 no Mathcad, e comparei os resultados de prever um sinal de incrementos de kotier uma conta à frente (reuni estatísticas de 100 experimentos independentes). Os resultados são os seguintes:
1 - p=10% de sinais adivinhados corretamente (probabilidade=1/2+p).
2 - 15-16%
3 - 12%
Há alguns parâmetros livres aqui: dimensão da entrada e número de neurônios na(s) camada(s). O primeiro parâmetro foi o mesmo para todas as arquiteturas, o segundo foi escolhido pessoalmente. Vemos que a rede de 3 camadas NS não é uma panacéia, e talvez para nós como comerciantes, a melhor opção para a unidade analítica MTS é uma rede de duas camadas - do ponto de vista da máxima precisão de previsão e requisitos mínimos para a complexidade do treinamento (poder do RS, grande história e seu não crescimento).
Não importa como você torce o NS, o que quer que você dê aos insumos, não há milagres, é claro!
Então, o que acontece: por um lado, quanto mais a camada de NS, maior seu poder de previsão, mas é insensato construir mais de três camadas - a grade de três camadas já é um aproximador universal. Por outro lado, tudo o que a caixa preta chamada NS faz é encontrar e explorar processos quase estacionários no mercado. Não há outra forma de contornar isto. Exatamente, quase estacionários, não estacionários (simplesmente não existem tais processos no mercado) e não não-estacionários (tais processos não podem, em princípio, ser explorados). Dei acima um link para obter a relação ideal entre o número de sinapses NS - w, dimensão de sua entrada - d e a duração ideal da amostra de treinamento P (4 ou 5 páginas do tópico): w^2=P*d
Portanto, quanto maior for a complexidade do NS, maior será o comprimento da amostra de treinamento a ser utilizada para seu treinamento. Não só a complexidade do treinamento aumenta como P^3, mas os dados também podem ser insuficientes! Mas a maior armadilha está onde você não espera - processos quase estacionários (aqueles que nosso NS detecta no cotier e depois explora) têm uma vida útil característica (diferente de zero e menor do que uma certa). É claro que em uma grande amostra de treinamento, há uma maior probabilidade de mudança do processo selecionado... você vê? Quanto menor a amostra de treinamento, melhor - menos chances de ser ferrado por uma mudança no sentimento de mercado! Aqui, parece que a resposta à pergunta "Qual é melhor - uma NS de 2 camadas com uma pequena amostra de treinamento, ou uma poderosa 3 com três universidades por trás dela (enquanto aprendia, tudo se tornava desnecessário)...", será dada por uma simples experiência.
Para isso, joguei três grades - 1,2 e 3 no Mathcad, e comparei os resultados da previsão de um sinal de incrementos de cotier uma conta à frente (reuni estatísticas de 100 experimentos independentes). Os resultados são os seguintes:
1 - p=10% de sinais adivinhados corretamente (probabilidade=1/2+p).
2 - 15-16%
3 - 12%
Há alguns parâmetros livres aqui: dimensão da entrada e número de neurônios na(s) camada(s). O primeiro parâmetro foi o mesmo para todas as arquiteturas, o segundo foi escolhido pessoalmente. É claro que a rede de 3 camadas NS não é uma panacéia, e talvez para nós como comerciantes a melhor opção para a unidade analítica MTS seja uma rede de duas camadas - do ponto de vista da máxima precisão de previsão e requisitos mínimos para a complexidade do treinamento (poder do RS, grande história e seu não crescimento).
Será que alguém tentou usar NS para a previsão do número da loteria?
gpwr, você está fazendo troça de todos! - trata-se de prever o número da loteria. E, por favor, retire a citação do meu posto - isso adicionará ainda mais localismo ao seu posto :-)
Já dei acima um link para a conclusão da relação ideal entre o número de sinapses NS - w, sua dimensão de entrada - d e o comprimento ideal da amostra de treinamento P (4 ou 5 páginas do tópico): w^2=P*d