Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Não importa como você gire o NS, não importa o que você coloque em seus insumos, certamente não há milagres!
Assim, o que obtemos: por um lado, quanto mais o NS é estratificado, maior é seu poder de previsão, mas não faz sentido construir mais de três camadas - a grade de três camadas já é um aproximador universal.
Em geral, não, eu não vou discutir - estou entediado.
Segue-se que quanto mais camadas o NS for, mais tempo a amostra de treinamento terá que ser usada para seu treinamento. Não apenas a complexidade do treinamento cresce como P^3, mas também podemos ficar sem dados!
É a segunda vez que eu vejo esse grau. Vamos fazer as contas.
Tomemos como exemplo uma rede m - n - k -- as letras representam o número de neurônios respectivamente na camada de entrada, oculta e de saída.
A complexidade da propagação do sinal é O(m*n + n*k) para sinapses totalmente acopladas.
A complexidade da propagação para trás é semelhante.
Agora vamos introduzir uma camada oculta adicional do mesmo tamanho.
A complexidade é O(m*n + n*n + n*k).
Tomemos a proporção -- obtemos (m + n + k)/(m + k).
Além disso, a introdução da 2ª camada oculta permite reduzir especificamente o tamanho da 1ª camada.
Para este fim, fiz três malhas - 1, 2 e 3 no Mathcad e comparei os resultados da previsão de um sinal de incrementos de cotier uma conta à frente (reuni estatísticas de 100 experimentos independentes). Os resultados são os seguintes:
1 - p=10% de sinais adivinhados corretamente (probabilidade=1/2+p).
2 - 15-16%
3 - 12%
Há alguns parâmetros livres aqui: dimensão da entrada e número de neurônios na(s) camada(s). O primeiro parâmetro foi o mesmo para todas as arquiteturas, o segundo foi escolhido pessoalmente. Vemos que a rede de 3 camadas NS não é uma panacéia, e talvez para nós como comerciantes, a melhor opção para o bloco analítico MTS é uma rede de duas camadas - do ponto de vista da máxima precisão de previsão e requisitos mínimos para a complexidade do treinamento (potência do RS, grande história e seu não crescimento).
É hora de pensar em NS fractal com número fracionário de camadas :)) . 2,5 seria justo.
maneira hipotética de dominar a tecnologia NS
passo 1.
construir um NS em NS com uma saída de compra/venda, alimentá-lo com Close[x], olhar a tabela, ver - a grade é barulhenta!
passo 2.
Agora alimentamos algo mais suave do que a citação inicial, mas NS é barulhento de qualquer forma.
Por quê? Porque o professor é desigual. Eu sou preguiçoso demais para fazer à mão. (Você precisa de um espiralador aqui)
passo 3.
Leia o artigo do Reshetov, envie NS, treine-o no testador e notifique - sem nenhuma função de erro definida explicitamente.
Então, o Strategy Tester rumbles, developer purrs, diz que Reshetov é inteligente, ele descobriu tudo, inventou um professor de verdade.
Entretanto, Reshetov é inteligente, mas meu computador não está funcionando bem com o MT-4, então onde está o MT-5?
E para 4 entradas, este "NS" é novamente barulhento. Agora os dados históricos se revelam desiguais - contém diferentes tipos de mercados e não sabemos quais)
.... repetimos os passos 1-3 no loop.
passo 4.
percebemos que estamos presos - não podemos fazer crescer a rede, a MQL é lenta e o treinamento de neuropatas está um pouco longe de ser comercializado.
passo 5.
Pensando numa encruzilhada - agora que começamos a trabalhar com NS, sabemos que NS não é tanto matemática. como a tecnologia,
pode ser salva por NS Trader, tem um testador melhor.
bem e...
para que serve tudo isso?
passo 6
Se inventamos uma rede e a treinamos, neste processo, torna-se mais claro o que realmente precisamos e o real é realizado sem NS,
sem NS de todo.
acontece
O NS só é necessário para entender o que pode ser explicado enquanto você o explica a uma pessoa burra))))
Vamos fazer as contas.
Na página 7 do tópico que coloquei no arquivo com o artigo, há uma estimativa da complexidade do treinamento (p.65-66): C=P*w^2=d*P^2=(w^4)/d, o que sugere que eu estraguei um pouco (um pouco grávida) e a complexidade é proporcional a d*P^2 ou através do número de sinapses: (w^4)/d
Além disso, a introdução de uma segunda camada oculta permite reduzir especificamente o tamanho da primeira.
De onde vem?
Se não estritamente, então indiretamente a partir do número de parâmetros ajustáveis. Estritamente nyahsil. Eu não sou bom em provas.
E se eu acrescentar minha própria idéia, eu realmente penso por algum tempo que a melhor estrutura de convergência de velocidade não-linear do perseptron é a espinha de peixe, mas eu ainda não a verifiquei.
Quando chegar a ele, eu o desenharei.
Algumas idéias para o Ano Novo :)) .
>>) enquanto ele lhe explica algo, ele deve entender o que está explicando).
Há um ponto importante que você não quis fazer - você terá que explicar o NS uma vez (e você também o entenderá, como você observou corretamente), e então, como um torno, ele funcionará no mundo em transformação (cotier), não se importando que você entenda completamente o que ele significa!
estrutura perseptron -- espinha de peixe
O que você está fumando?
Ah, entendi! Bem, com certeza parece uma árvore de Natal. Eu tenho a mesma coisa em um nível intuitivo.
...
De onde vem isso?leia haykin -------> ponto 4.15. Métodos de simplificação da rede
Não faz nenhuma diferença qual o algoritmo que você leva para aprender . O resultado é o mesmo). Não é preciso escavar na rede neural, é preciso procurar por insumos.
leia haykin -------> ponto 4.15. Métodos de simplificação da rede
Não há problema. >> Vamos lê-lo!
Abeto! A intuição não tem nada a ver com isso, NS é um codificador piramidal, + é semelhante ao FFT.
Por exemplo, com base no modelo de codificador piramidal, é elementar calcular o número mínimo de neurônios.
ou seja, o codificador piramidal é a cobertura mínima do NS projetado.
O que você está fumando?
Desistir :)
Ah, entendi! Bem, com certeza parece uma árvore de Natal. Eu tenho a mesma coisa no nível do intestino.