Não é assunto do Mashka! - página 5

 
Neutron:

Isso é o que você recebe se as entradas da víbora não se molharem nos mashups atrasados, mas a si mesmas :-) ou seja, à primeira derivada do MA ideal.

A única coisa que resta é encontrar um MA ideal. Experimente o verdadeiro Djuric. Não é o ideal, mas ainda está perto dele. E também é bastante suave.

 
Neutron:

Oh, que interessante!

Isso é o que você obtém, se você mergulhar as entradas do víbora não nos mashes de retardamento, mas em si mesmo :-) ou seja, na primeira derivada do MA ideal.

E por que ninguém pede para especificar? :) Está tudo claro para todos?

Não há mash-ups perfeitos na barra atual. Poderia realmente haver suas previsões. Estamos falando sobre eles?

 
Neutron:

para Vinin

Dê-me seus pensamentos - haverá uma seqüência!


Há muito tempo, infelizmente, eu sou leitor. É por isso que não posso lhe oferecer nada. Mas o tema é realmente interessante. Peço desculpas.

 
lna01:
Neutron:

Oh, que interessante!

Isso é o que você obtém, se você mergulhar as entradas do viciador não nos mashes retardados, mas em si mesmo :-) ou seja, na primeira derivada do MA ideal.

E por que ninguém pede para especificar? :) Está tudo claro para todos?

Não há Ma's ideais no bar atual. Pode haver, de fato, suas previsões. Estamos falando sobre eles?

Não, estou falando da previsão da largura da janela de alisamento para a onda perfeita. Deixe-me lembrá-lo que está realmente oscilando na borda direita da BP com uma zona de suavização típica, exatamente na largura daquela mesma janela.


Encontrei um erro no código - perdi uma linha sem corrigir o índice, como resultado a previsão foi construída usando pesos contados para a janela para trás multiplicados pelo valor atual do Ma ideal. Aqui está o resultado corrigido (ver fig.). Os pesos são multiplicados pelo МАWA (quero dizer, seu derivado) uma janela antes.


Esta é uma previsão para 5 barras à frente. Como seria de se esperar, a curva de previsão já se desmoronou com sucesso no início. Aumentar o número de equações acima de 2 (eu verifiquei até cem) não traz melhorias significativas.


P.S. Estou aliviado!


para Vinin

Eu, infelizmente, me tornei um leitor há muito tempo. É por isso que não posso lhe oferecer nada. E o assunto é realmente interessante. Peço desculpas.

Bem, como carregar a neurônica para este caso. Isso não é fraco?

De repente, a não-linearidade a priori dos NS nascidos em pelo menos duas camadas ocultas fará um milagre...

 
Neutron:

para Vinin.

Há muito tempo, infelizmente, eu sou leitor. É por isso que não posso lhe oferecer nada. Mas o assunto é realmente interessante. Perdoe-me.

Bem, como carregar a neurônica para este caso. Isso não é fraco?

E se a não-linearidade a priori dos NS, nascidos em pelo menos duas camadas ocultas, pudesse fazer um milagre...

É claro que é possível fazer um neurônio. Mas não se trata apenas de uma questão de neurônica. É necessário definir os insumos, e ainda não o vejo.

 

Não há nada de errado com as entradas. O principal é determinar o intervalo de confiança para o comércio.

Às vezes, o sistema opera por seis meses e depois perde dinheiro abruptamente, mas às vezes até mais cedo....

 
Neutron:

Encontrei um erro no código - falhei uma linha sem corrigir o índice, como resultado, a previsão foi baseada nos pesos calculados há uma janela atrás, multiplicada pelo valor atual do MA ideal. Aqui está o resultado corrigido (ver fig.). Os pesos são multiplicados pelo МАWA (quero dizer, seu derivado) uma janela antes.


Esta é uma previsão para 5 barras à frente. Como seria de se esperar, a curva de previsão já se desmoronou com sucesso no início. Aumentar o número de equações acima de 2 (eu verifiquei até cem) não traz nenhuma melhoria significativa.


Seryoga, esta é uma previsão muito ruim, os métodos autocorr-i fazem uma previsão um pouco melhor. Você terá grandes erros quando for à BP

 
grasn:

Seryoga, esta é uma previsão muito ruim, os métodos autocorr-i fazem uma previsão um pouco melhor. Você terá enormes erros quando for à BP

Se você estiver se referindo a modelos autoregressivos lineares do formulário:

então eu discordo. A questão é que estou resolvendo quase o mesmo problema (compare: x[n+1]=SUM{w[i]*x[n-i]}, onde i=0...P-1), a única diferença é que os pesos sob o sinal de soma são determinados de forma adaptativa na profundidade P, enquanto na forma clássica - integralmente em uma escala maior (para conjunto estatístico ao calcular os coeficientes de correlação). O fato de não haver resultado, por isso, só reforça meu desejo de passar à análise por métodos não lineares, especialmente usando NS.

Com relação ao caso da extrapolação perfeita de Mach (você citou um gráfico), eu acho que se pode aumentar significativamente o horizonte de previsão através da conservação de derivados de n ordem de LPF, onde n deve ser maior que 2. No meu caso apenas a primeira derivada foi armazenada, por isso quando o horizonte foi aumentado para além de 2-3 barras, a série começou a desmoronar.

 
Neutron:
grasn:

Seryoga, esta é uma previsão muito ruim, os métodos autocorr-i fazem uma previsão um pouco melhor. Você terá enormes erros quando for à BP

Se você estiver se referindo a modelos autoregressivos lineares do formulário:

então eu discordo. A questão é que estou resolvendo quase o mesmo problema (compare: x[n+1]=SUM{w[i]*x[n-i]}, onde i=0...P-1), a única diferença é que os pesos sob o sinal de soma são determinados de forma adaptativa na profundidade P, enquanto na forma clássica - integralmente em uma escala maior (para conjunto estatístico ao calcular os coeficientes de correlação). O fato de não haver resultado, por isso, só reforça meu desejo de passar à análise por métodos não lineares, especialmente usando NS.

Com relação ao caso da extrapolação perfeita de Mach (você citou um gráfico), eu acho que se pode aumentar significativamente o horizonte de previsão através da conservação de derivados de n ordem de LPF, onde n deve ser maior que 2. No meu caso apenas a primeira derivada é conservada, por isso quando o horizonte fica mais alto que 2-3 barras, a série começa a desmoronar.




Serega, e onde apenas a víbora com coeficientes não é utilizada. Portanto, pode-se argumentar que você tem uma rede neural, embora pequena. Vamos comparar seu modelo com o meu, só precisamos pensar nos critérios. Eu usarei predict() no MatCAD, e você usará seu sistema. Temos o mesmo ambiente de desenvolvimento, então vamos definir o arquivo de dados (cotação, processo em teste - próximo, médio ou o que quer que seja ..., área de teste). Testamos apenas a previsão de MA, a própria MA é selecionada de forma adaptável - não importa como, apenas o resultado final é importante. Testamos em cada amostra, aumentando assim a validade estatística (parece haver dados suficientes)


Mas meu horizonte de previsão é selecionado de forma adaptável e leva valores dentro dos limites previamente especificados. Aqui está um exemplo da minha previsão de mestrado para quatro leituras à frente:


[sem erros].


Vamos tentar comparar? E se assim for, quais são suas sugestões de critérios, de preferência deve ser um número correspondente a uma contagem, então acho que será mais fácil de comparar.


PS: Vamos definir o tempo para o teste não muito rígido, acho que você tem muitas coisas diferentes para fazer também.

PS2: Para o teste, você pode trocar arquivos pelo correio, ou você pode acreditar em minha palavra :o)

 

Ok!

Será que acertei ao imprimir um arquivo relativamente à curva suave (MA) e fazer uma previsão para N leituras à frente? Se assim for, podemos avaliar o resultado da seguinte forma: reunir estatísticas de previsões (1000 resultados) para 10 leituras à frente (por exemplo) e construir um campo de previsão em coordenadas cartesianas, colocando o valor verdadeiro de MA no eixo de abcissas e a previsão no eixo de ordenadas.


Na nuvem obtida pelo método dos mínimos quadrados traçamos uma linha reta e esse método com a tangente da inclinação dessa linha será mais próximo de 1 - mais íngreme!


P.S. E sobre o pequeno neurônio que você atinge o olho do touro como de costume :-)