Etiqueta de mercado ou boas maneiras em um campo minado - página 37
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
OK, acho que já descobri qual é o meu erro. Na verdade, percebo que o comprimento do vetor de treinamento é igual ao número de pesos! Porque eu acumulo correções ao comparar a saída de um neurônio com cada amostra do vetor de treinamento, enquanto eu preciso compará-la apenas com a n+1ª amostra. Estou escrevendo um novo código.
É por isso que os gráficos são tão anormais.
Aqui, dê uma olhada:
Azul é a amostra de treinamento, vermelho é a amostra de teste. Os valores tangentes estão no canto superior esquerdo da imagem.
Estranhamente, eu tive que remover a inicialização da balança por completo. Somente então os resultados se tornaram repetíveis. Ainda há algumas perguntas, mas já terminei... -:)
Estou anexando a listagem. Desculpe, sem comentários ainda, mas é feito de forma muito simples, sem um monte de funções diferentes - tudo em um procedimento, exceto tangentes e mnc.
Parece-me que você tem uma lógica muito complicada de numeração do vetor luuch...
Talvez o erro seja uma mistura trivial de índices, ou você está zerando pesos apenas uma vez durante todo o procedimento do conjunto estatístico(W[i]<-0):
Observe que seu vetor D, que é a entrada para o NS, não é recalculado com o conjunto de estatísticas (índice i). Talvez eu esteja errado, porque não estou totalmente familiarizado com isso. Foi mais fácil para mim inserir numeração consecutiva em seu código, e foi o que eu consegui:
Agora, sua garota sente a randomização inicial dos pesos e aprende adequadamente (ambas as linhas passam pela origem). Vermelho é a amostra de treinamento, azul é o exame. Um arquivo com a versão afinada é anexado abaixo.
Conhecendo...
Diga-me, Sergey, por que seu neurônio de duas camadas (e você tem dito isso desde o início) não tem função de ativação? E então como mudaria a derivada? Isto é, foi (para o) (1-OUT^2)
e se torna (1-OUT) ?
P.S. Obrigado por sua ajuda
Aha! Finalmente entendo como esta coisa funciona. As entradas únicas não são necessárias apenas para o período de aprendizagem, e depois são utilizadas como todas as outras - para dados?
Eu nem pensei em tal coisa! Além disso, as entradas são todas simples - sem hipertangentes. É porque a BP é uma função regular, ou apenas para dar o exemplo?
E outra pergunta: se a menina está ligeiramente subtreinada - bem, dê-lhe apenas 5-7 épocas - então as tangentes de ambos os mncs serão maiores do que a unidade, isso não indica que a menina está olhando para o futuro (não estou falando do seno)?
Pode ser rigorosamente demonstrado (citando o trabalho dos matemáticos) que, para uma única camada NS, a ativação da saída por uma função não linear não acrescenta a sua potência computacional em comparação com a saída linear. Portanto, um único neurônio com FA não-linear é um disparate.
Para o bilayer NS, a ativação do neurônio de saída não acrescenta potência computacional (esta arquitetura já tem potência computacional máxima ou igual de todas as arquiteturas possíveis - 3, 4, etc.), portanto, a ativação do neurônio de saída por hipertangente é razoável de se usar se a saída for interpretada como probabilidade de previsão precisa.
No caso de saída linear, a derivada não é (1-OUT) mas simplesmente 1 - é a derivada da função linear y(x)=1*x.
Quanto às entradas individuais, elas são naturalmente utilizadas tanto durante o treinamento quanto durante a operação. Muito bem feito para detectar! Eu perdi este bug. A maneira correta de representar um neurônio é esta:
W[0] é um peso que é sempre alimentado com 1. No caso de um único neurônio, o efeito do uso de uma compensação não é muito perceptível. Embora não seja difícil simular uma situação em que ela teria um papel importante na aceleração do processo de aprendizagem também neste caso.
если девушку слегка недообучить - ну дать её всего 5-7 эпох - то тангенсы обеих мнк будут больше единицы, не говорит ли это о том, что девушка заглядывает в будущее(я не об синусе)?
Não, isso indica apenas uma pequena quantidade de material estatístico e um aprendizado deficiente. Julgue por si mesmo: você não pode saber algo melhor do que realmente é. Este caso limite corresponde a tg()=1 e só pode ser maior que 1 por causa da variação estatística dos dados.
...cite o trabalho dos matemáticos
-:) Espero que perceba como isso é inútil... pelo menos no meu caso.
Vou ter outra oportunidade neste único neurônio. Preciso ter tudo resolvido na minha cabeça, e quero quebrar o código em blocos simples, e amanhã vou tentar acrescentar outra camada à minha namorada. Mas tenho uma pergunta um tanto tola: ao reescrever o código de Matkad para MQL, como você verifica o que foi feito? Você não pode reescrevê-lo diretamente - o Matcad é um ambiente diferente e sua lógica de programa não é a mesma que na MQL.
É aí que as coisas se complicam!
Por exemplo, eu produzo a tangente de inclinação (no caso de entradas válidas) como uma característica integral do desempenho de NS ou porcentagem de sinais corretamente adivinhados (no caso de sinais binários) e a comparo com os do Matcad. No entanto, até este ponto, é preciso peripiscar NS-ka pelo padrão MCL, é quando a contagem zero é a última e mais profunda (em Matkadeck vice versa). Além disso, é necessário verificar a correção da NS no processo de vinificação, que é quando a BP é obtida pela integração de uma variável aleatória. Aqui sua garota deve obter um "D" de ferro nos exames, e ele lhe dirá que ela não está trapaceando, ou seja, a tangente do ângulo de inclinação deve tender a zero com um número de experimentos tendendo ao infinito como 1/n.
Este é o gerador de uma série Wiener:
É sobre o vinaire:
Vou só tirar um momento: nada sobrou do meu último gráfico, onde eu ia procurar a causa do "milagre" - iFractals me enganou sem vergonha novamente. Assim que escrevi meus próprios iFractals, tudo se esclareceu, ou seja, o milagre desapareceu :)
Boa sorte, colegas