Filtros digitais adaptativos - página 4

 

Prival

Peço desculpas, não fui cuidadoso em minhas observações. Pessoalmente, nunca pensei em expressar qualquer dúvida sobre sua competência em questões de DSP. Acho que o mesmo é verdade para o grasn (espero que o grasn me perdoe por "assinar" em seu nome). É sobre a própria idéia e metodologia de pesquisa. Nada pessoal. A todos os autores que ativamente "escavam métodos matemáticos" neste fórum, eu trato estritamente positivamente, tendo em vista a singularidade desta comunidade. E tendo em vista as perspectivas que ela (a comunidade) tem. Mas não posso concordar com sua sugestão porque não acredito completamente nos polinômios como uma ferramenta que tem algum tipo de "poder preditivo". Estamos falando de intervalos de tempo de menos de um dia, e você quer explorar sua idéia precisamente em pequenos intervalos. Só não vejo a razão, que forçará o polinômio - de fato, absolutamente adaptado à função do sinal (de acordo com algum critério), a fazer uma previsão do comportamento do preço. Porque a previsão será sempre de cerca de 50\50. Isto se deve tanto aos processos que ocorrem no "mercado" quanto à forma de representação do sinal, o que em sua essência distorce completamente o quadro. Se você quiser usar DSP no comércio - você é bem-vindo, mas primeiro prepare dados adequados para DSP. O "sinal" em si está certamente presente no preço, mas. Mas o nível desse sinal (como o Mathemat parece ter apontado corretamente) é muitas vezes menor que o "ruído" (embora não haja "ruído" no "mercado"). A sobreposição disto é a não-estacionariedade do próprio sinal. Como resultado, quase nenhum dos métodos tradicionais funciona. Eu não acho que isso seja porque a teoria do DSP está errada - é claro que está, é só que o sinal aqui é completamente diferente. Um sinal no qual uma grande parte das informações é simplesmente perdida. E, paradoxalmente, uma grande quantidade de informações é simplesmente desnecessária. Você disse que é um homem militar, então tome isso como uma indicação de que todos os seus dispositivos estão obstruídos com interferência, o que o impede de ver o sinal da aeronave inimiga. E essa interferência é de uma qualidade muito alta. Mas se você for lá fora e olhar para o céu, você verá tudo imediatamente. Mas apontar e atirar do quadril não é a melhor solução. :)

E obrigado pelo presente, definitivamente vou encontrar tempo para me familiarizar com ele.

 
Sugiro que mudemos para outra tarefa: precisamos converter a representação gráfica usual (baseada em barras com intervalos de tempo astronômicos iguais) para uma com o menor número possível de catástrofes (de preferência com retornos p.d.f. estacionários). Este, a propósito, pode ser um dos desafios da preparação adequada dos dados para DSP, como mencionado pela NorthernWind. Catástrofes (especialmente micro-catástrofes dentro de apartamentos) quebram praticamente todos os indiretos tradicionais conhecidos. A conversão, a propósito, não precisa ser de forma alguma mutuamente inequívoca (muitos indiretos não são operações mutuamente inequívocas sobre dados, e isso não nos incomoda).

Se houver argumentos válidos contra ela, por favor, junte-se aos críticos.
 
NorthernWind:

Prival

Peço desculpas, não fui cuidadoso em minhas observações. Pessoalmente, nunca pensei em expressar qualquer dúvida sobre sua competência em assuntos de DSP. Acho que o mesmo é verdade para o grasn (espero que o grasn me perdoe por "assinar" em seu nome). É sobre a própria idéia e metodologia de pesquisa. Nada pessoal. A todos os autores que ativamente "escavam métodos matemáticos" neste fórum, eu trato estritamente positivamente, tendo em vista a singularidade desta comunidade. E tendo em vista as perspectivas que ela (a comunidade) tem. Mas não posso concordar com sua sugestão porque não acredito completamente nos polinômios como uma ferramenta que tem algum tipo de "poder preditivo". Estamos falando de intervalos de tempo de menos de um dia, e você quer explorar sua idéia precisamente em pequenos intervalos. Só não vejo a razão, que forçará o polinômio - de fato, absolutamente adaptado à função do sinal (de acordo com algum critério), a fazer uma previsão do comportamento do preço. Porque a previsão será sempre de cerca de 50\50. Isto se deve tanto aos processos que ocorrem no "mercado" quanto à forma de representação do sinal, o que de fato distorce completamente o quadro. Você quer usar DSP no comércio - vá em frente, mas primeiro prepare dados adequados para DSP. O "sinal" em si está certamente presente no preço, mas. Mas o nível desse sinal (como o Mathemat parece ter apontado corretamente) é muitas vezes menor que o "ruído" (embora não haja "ruído" no "mercado"). A sobreposição disto é a não-estacionariedade do próprio sinal. Como resultado, quase nenhum dos métodos tradicionais funciona. Eu não acho que isso seja porque a teoria do DSP está errada - é claro que está, é só que o sinal aqui é completamente diferente. Um sinal no qual uma grande parte das informações é simplesmente perdida. E, paradoxalmente, uma grande quantidade de informações é simplesmente desnecessária. Você disse que é um homem militar, então trate como um fato que todos os seus dispositivos estão entupidos de interferência, atrás dos quais você não pode ver o sinal da aeronave inimiga. E essa interferência é de uma qualidade muito alta. Mas se você for lá fora e olhar para o céu, você verá tudo imediatamente. Mas apontar e atirar do quadril não é a melhor solução. :)

Obrigado pelo presente, com certeza vou encontrar tempo para dar uma olhada.

Você já pensou que as linhas de apoio (resistência) são polinômios de primeiro grau (equação de linha reta) y(x)=a*x+b? Quando o preço se recupera no nível de alguma resistência ou correção forte começa e neste ponto a curva pode ser descrita pelo polinômio do segundo grau y(x)=c*x^2+a*x+b. Para algumas oscilações estáveis no canal, você pode usar MNC para encontrar um polinômio de maior grau. Isto é, é necessário escolher um grau de polinômio de acordo com algum critério (ensinar o computador a fazê-lo, como um humano faz) + muitas pessoas já chegaram à conclusão que se soubessem (soubessem) quando começar a formar, digamos, PriceCannel (profundidade de amostragem), poderiam construir um TS muito bom.

Mas a idéia proposta tem isso, podemos definir o grau de polinômio + profundidade N, digamos, uma semana, e o algoritmo em si escolherá se usaremos toda a amostra N ou apenas sua parte, ele também pode escolher qualquer quantidade de dados (dígitos) para análise dos últimos 2 dígitos para N e selecionar um polinômio. E digamos que a diferença é a variação máxima, portanto o algoritmo deve selecionar os últimos 2 pontos e apenas uma linha reta passando por 2 pontos, defasagem = 0. Algo parecido com isto.

É uma idéia tão simples, há muitas delas, talvez algo de bom venha à tona. Tentei deixar o mais claro possível para mostrar àqueles que querem construir algo adaptativo, como fazê-lo, sem recorrer a termos complexos. E sobre isto"mas primeiro preparar dados adequados para DSP", sim, de fato eu faço, porque acredito que o eixo X também é um número aleatório e isto não deve ser esquecido. No eixo Y já inventámos muita coisa, mas no eixo X ainda estamos construindo barras há 100 anos (com um intervalo constante). Eu escrevi sobre isso aqui ('Construtores de carrapatos. Otimização. DDE em VB (VBA)'), até Renata me deu um presente. Estou pensando agora em como prepará-lo corretamente para o DSP :-) + também o tempo todo pensando, qual é o sinal (componente útil, o que move esta curva), e se há ruído aqui.

P.S. E o fato de se argumentar e discordar é bom. Nas disputas (correto) às vezes nasce a verdade. E com vocês estou pronto para discutir e não apenas dar presentes na forma de livros, mas entregá-los. Eu também teria derramado aguardente, mas não posso afixá-la :-).

 
Mathemat:
Sugiro que mudemos para outra tarefa: precisamos converter a representação gráfica usual (baseada em barras com intervalos de tempo astronômicos iguais) para uma com o menor número possível de catástrofes (de preferência com retornos p.d.f. estacionários). Este, a propósito, pode ser um dos desafios da preparação adequada dos dados para DSP, como mencionado pela NorthernWind. Catástrofes (especialmente micro-catástrofes dentro de apartamentos) quebram praticamente todos os indiretos tradicionais conhecidos. A conversão, a propósito, não precisa ser de forma alguma mutuamente inequívoca (muitos indiretos não são operações mutuamente inequívocas sobre dados, e isso não nos incomoda).

Se você tem um argumento bem fundamentado contra isso, por favor, junte-se aos críticos.

Quando eu estava escrevendo, o Mathemat já havia se tornado um telepata :-). Eu sou a favor. Mas sugiro que comecemos por minimizar as "catástrofes", e depois lidar com elas. E não apenas os indicadores se quebram, o bom velho Fourier está voando para longe, e como comê-lo se não soubermos qual a taxa de amostragem que é muito difícil.
 
Mathemat:
Sugiro que mudemos para um problema diferente: precisamos converter a representação gráfica usual (baseada em barras com intervalos de tempo astronômicos iguais) para uma com o menor número possível de catástrofes (de preferência com retornos p.d.f. estacionários). Este, a propósito, pode ser um dos desafios da preparação adequada dos dados para DSP, como mencionado pela NorthernWind. Catástrofes (especialmente micro-catástrofes dentro de apartamentos) quebram praticamente todos os indiretos tradicionais conhecidos. A conversão, a propósito, não precisa ser de forma alguma mutuamente inequívoca (muitos indiretos não são operações mutuamente inequívocas sobre dados, e isso não nos incomoda).

Se houver argumentos válidos contra ela, por favor, junte-se aos críticos.

Aqui, não faz muito tempo, houve uma batida de impacientes m0tematistas-maximalistas, em um dos fios vizinhos. Embora a conversa com eles não tenha corrido muito bem, apesar disso eu gostaria de dizer que eles falam muito corretamente, praticamente "pensam o que eu penso". A coisa mais importante que foi dita e à qual exorto todas as partes interessadas a prestar atenção. Você tem que trabalhar no mercado real e não em uma corretora de Forex. Então você terá informações não apenas sobre preço, mas também sobre volumes, juros, estacas, fluxo de cotações e assim por diante. Sem dúvida, a troca é mais complicada do que o processo de adivinhação nas varreduras do CD, mas também muito mais próxima do conceito de um mercado vivo, onde o preço é ditado pelo equilíbrio entre oferta e demanda e pelo humor dos participantes. É claro que Quick e similares são lixo em comparação com Metatrader, mas as pessoas também trabalham nisso. A propósito, se as metaquotas não pensarem em dominar esta miséria, seu destino será o mesmo que é agora.

O que estou dizendo aqui é que você pode se aprofundar muito em citações de DTs, e você pode até encontrar algo, mas será um pouco instável. Peço-lhes que entendam corretamente, não há críticas a centavos ou ao processo de formação de centavos. Eles fazem tudo certo e, em sua maioria (aqueles que são mais respeitáveis), não enganam ninguém. Mas se você olhar para os dados provenientes do "mercado" através das corretoras para o cliente, então você não pode deixar de pensar que as corretoras estão filtrando e renderizando máquinas. Já disse o que acontece se um processo aleatório for aplicado a um determinado processo significativo - o processo resultante será o mesmo aleatório.

A fim de evitar a pergunta "Eu acredito que você pode ganhar no comércio de corretagem Forex", eu deveria dizer imediatamente - sim, eu acho que você pode. Mas não muito e não por muito tempo e não para todos. Na verdade, com risco não muito alto você pode jogar por um dia ou mais, mas a renda será, se você jogar corretamente, a mesma que a mudança de preço ao longo do dia, que não é muito alta.

Esta é a minha opinião. Voltando ao assunto em discussão, a conversão do gráfico tradicional no outro, posso dizer que eu pessoalmente, esta conversão me ajudou na minha busca. Mas não muito. Praticamente não há escolha, de todas as possibilidades que temos em mãos, apenas o preço não é claro. Há também uma noção de taxa de carrapato que de alguma forma corresponde à atividade dos mercados mundiais, mas o grau desta correspondência é ilusório e efêmero. O que pode ser feito com ele? Bem, primeiro, considere apenas a história até 2004-2003 anos, não procure mais por "o mercado era diferente naquela época". Considere cada semana/dia separadamente. Considere a transição de uma semana para outra, ou seja, fins de semana, separadamente. Ao menos considere o tempo de atividade dos principais intercâmbios. Ao menos considere essas poucas notícias em um ano, às quais o mercado realmente reagiu. Substituir OHLC como uma relíquia do passado sombrio. Não considere os extremos locais (ziguezague, kagirenko) como a verdade final, estes extremos são muito improváveis. E assim por diante. Praticamente tudo isso resulta em ter que formar seus próprios dados, em sua própria representação, a partir de um fluxo inicial de carrapatos (ou minutos).

Uma última coisa. Note que eu nunca digo que sempre sei tudo corretamente. Portanto, aqui também, posso estar errado.

 

Prival 13.01.2008 03:08

Você já pensou que as linhas de apoio (resistência) são polinômios de primeiro grau (equação de linha reta) y(x)=a*x+b. E pode e parece funcionar não apenas dentro do dia. Quando o preço se recupera ao se aproximar de um forte nível de resistência ou, por exemplo, uma correção está ocorrendo e neste ponto a curva da curva pode ser descrita pelo polinômio do segundo grau (parábola) y(x)=c*x^2+a*x+b. Para algumas oscilações estáveis no canal, você pode usar MNC para encontrar um polinômio de maior grau. Isto é, é necessário escolher um grau de polinômio de acordo com algum critério (ensinar o computador a fazê-lo, como um humano faz) + muitas pessoas já chegaram à conclusão de que se soubessem (soubessem) quando começar a construir, digamos, o PriceCannel (profundidade de amostragem), eles poderiam construir um TS muito bom.

Se estamos falando das chamadas estratégias de "canal", cuja essência é identificar algumas tendências, mesmo que sejam descritas não por simples regressão linear, mas por polinômios, então eu geralmente acredito nelas. Além disso, eu acho que o mercado tem apenas uma coisa - tendências em canais ascendentes e descendentes. Mas as linhas tradicionais de apoio/resistência não têm muita relação com elas. O problema com estes canais é que, tradicionalmente, eles não mostram muito resultado nos dados tradicionais. Pelo menos foi assim que funcionou para mim. Há muitos dados que "dificultam" a construção de uma tendência de preço máximo usando o ISC. Na maioria das vezes temos uma tendência

de mudanças no caráter de "ruído".

Mas a idéia sugerida a contém, podemos definir o grau de polinômio + profundidade N por uma semana, e o algoritmo decidirá se usaremos toda a amostra N ou apenas uma parte dela, ele também pode escolher qualquer quantidade de dados (dígitos) para análise dos últimos 2 dígitos até o N e selecionar um polinômio. E digamos que a diferença é a variação máxima, portanto o algoritmo deve selecionar os últimos 2 pontos e apenas uma linha reta passando por 2 pontos, defasagem = 0. Algo parecido com isto.

Sim, isto vem sendo discutido há muito tempo tanto neste fórum como no "fio condutor". Foi praticamente onde a comunidade local começou. Mas me parece que isso não se aplica realmente aos filtros adaptativos tradicionais.

É apenas uma idéia de muitos deles, talvez algo de bom venha à tona. Tentei mostrar o mais claro possível àqueles que querem construir algo adaptativo, como fazê-lo, sem recorrer a termos complexos. E sobre isto"mas primeiro preparar dados adequados para DSP", sim, de fato eu o faço, porque acredito que no eixo X também há um número aleatório e não deve ser esquecido. No eixo Y já inventámos muita coisa, mas no eixo X ainda estamos construindo barras há 100 anos (com um intervalo constante). Eu escrevi sobre isso aqui ('Construtores de carrapatos. Otimização. DDE em VB (VBA)'), até Renata me deu um presente. Estou pensando agora em como prepará-lo corretamente para o DSP :-) + também o tempo todo pensando qual é o sinal (componente útil que move esta curva), e se há ruído aqui.

As barras são uma tradição baseada na capacidade. De fato, a tecnologia que permite a você se livrar das barras e passar para outras formas de representação de informações apareceu não há muito tempo. Contando durante anos, portanto, não sejamos muito duros com eles.

P.S. E o fato de se argumentar, não se concordar, é bom. Nas disputas (as corretas), às vezes nasce a verdade. E com você pronto para discutir e não apenas presentes em forma de livros, entregue-os. Eu teria derramado conhaque, mas não posso anexá-lo :-).

:)

O terrível motor de fórum ZS não é conveniente.

 

para Prival

Prival, não vou pedir desculpas por meu posto, ele diz tudo corretamente. E não há uma palavra que você não entenda nada em DSP, mas há apenas uma atitude em relação a uma proposta particular de "filtragem adaptativa".

Parece-me que ao escrever sobre minha proposta e alegar que não há filtragem adaptável ali, o entendimento está errado.

Não há nada de errado em nenhum ponto.

E não será capaz de responder onde, quando e por que razão, digamos, é necessário aplicar uma janela de Hemming, e quando sua aplicação só prejudica. Qual é a diferença entre o filtro adaptável Wiener do filtro Widrow-Hopf ao analisar seu FFC ou Butterworth do Chebyshev, quando você precisa e pode aplicar o primeiro filtro, e quando o segundo.

Você se divertiu com isso? Em geral, é claro, feito corretamente, mas qual é o objetivo? Além de vários gigabytes de lixo eletrônico em DSP, tenho em minha prateleira mais cinco livros, que, podem imaginar, eu li (embora não se tenham tornado minhas recomendações de mesa). E às suas perguntas, Sr. professor, é claro que posso respondê-las. Prival, eu escrevi que sou autodidata, mas isso não significa que eu seja um completo idiota.

PS1: Eu servi apenas nas Forças Aéreas de Defesa, para poder ler minha posição do parágrafo 27 de minha identificação militar (para torná-la mais sólida :o): "comandante do departamento de instalações de controle de rádio de mísseis antiaéreos". E eu sei mais do que bem (como eles normalmente escrevem - não por boatos :o) que nossos famosos complexos (e não apenas os nossos) não apenas abatam, eles nem mesmo VÊem os alvos. Prival, tenha cuidado com os radares forex... e especialmente com a freqüência Nyquist que governa o mundo. :о)

PS2: Prival, você não tem muita sorte comigo - o fato de você ter ensinado DSP não significa nada além de respeito a mim. E se eu vejo algum lixo, eu escrevo assim, independentemente das posições e posições :o)

aoVento Norte

É bom ver!!!! Também deixei praticamente de participar do fórum, embora ocasionalmente eu brigasse com Prival. Tenho uma pergunta para você. Lembro que você investigou usando ziguezague, e o descreveu como muito simples, inventado por alguém quase um século antes da última vez, ou mesmo mais tarde. Quero usá-la para uma pequena experiência na seqüência da "Ressonância Estocástica " (post grasn 28.10.2007 13:26).
Você poderia descrevê-lo com mais detalhes ou fornecer um link? Necessidade de testar alguma reflexão.

 
NorthernWind:

Prival 13.01.2008 03:08

Sim, há muito tempo é discutido tanto neste fórum como no "fio condutor". Foi praticamente onde a comunidade local começou. Mas me parece que não é muito relevante para os filtros adaptativos tradicionais.


Portanto, você não deve cavar muito (embora a ligação neste tópico já tenha sido a uma palestra sobre DSP). Aqui está um pedaço dele. Que existem filtros que são construídos pelo ANC e a profundidade de amostragem é importante, para quase todos os tipos de filtros, e para o ANC especialmente.

Para entender você mesmo deu um link para este material, e o que dizer disto (Assunto nº 3)? Que, independentemente das fileiras, etc., isso é bom. E para o radar, já relatei por escrito pelo que escrevi aqui :-( É uma pena que eu tenha ficado sem 13, esses tolos punem primeiro e depois resolvem isso.

Arquivos anexados:
filtr_mnk.zip  87 kb
 
Prival:
NorthernWind:

Prival 13.01.2008 03:08

Sim, há muito tempo é discutido tanto neste fórum como no "fio condutor". Foi praticamente onde a comunidade local começou. Mas me parece que não é muito relevante para os filtros adaptativos tradicionais.


Só para não cavar muito (embora o link neste tópico já estivesse na palestra do DSP). Aqui está um pouco disso. Que existem filtros que são construídos por ANC e a profundidade de amostragem é importante, para quase todos os tipos de filtros, e especialmente para ANC.

Para entender você mesmo deu um link para este material, mas e quanto a isto (Assunto nº 3)? Que independentemente das fileiras, etc., isso é bom. E pelo radar que já relatei por escrito, pelo que escrevi aqui :-( É uma pena que eu esteja sem 13, esses tolos punem primeiro e depois resolvem isso.

Prival, um mínimo de quadrados ligeiramente diferente e um filtro ligeiramente diferente que eu pelo menos tinha em mente. seção "Algoritmo de mínimos quadrados adaptativo Widrow-Hopf" Tópico 11, não 3
Consegui anexá-lo.

PS: Prival, estou um pouco confuso, você foi despojado de seu bônus por escrever a palavra "radiolocalização" no fórum de comerciantes?

Arquivos anexados:
dsp11.zip  124 kb
 

grasn 13.01.2008 14:14

É bom ver!!!! Eu praticamente parei de participar do fórum, embora ocasionalmente eu brigasse com Prival. Tenho uma pergunta para você. Lembro que você conduziu algumas pesquisas usando ziguezagues e as descreveu como muito simples, inventadas por alguém antes do século passado ou mesmo mais tarde. Quero usá-lo para uma pequena experiência na continuação para 'Стохастический резонанс' (post grasn 28.10.2007 13:26).
Você poderia descrevê-lo com mais detalhes ou me dar um link? Preciso verificar uma idéia.

É bom ver você também e feliz em tentar responder às suas perguntas.

No ziguezague. No livro em que vi pela primeira vez sua definição, certamente não foi chamado de ziguezague (acho que Kendall e Stewart). Era uma questão de encontrar pontos de extremos locais da primeira ordem. Eles não disseram nada de especial sobre isso, apenas disseram que um extremo local é quando os pontos à esquerda e à direita do gráfico em questão são ambos menores ou maiores. Isso é tudo. Também foi relacionado com os extremos locais de segunda ordem quando os extremos da primeira ordem à esquerda e à direita são ambos menores ou maiores. Somente neste caso não se deve olhar para o extremo vizinho, mas através de um, pois o extremo vizinho será, em qualquer caso, menor ou maior. A terceira ordem é semelhante à segunda ordem, mas é construída com base nos extremos da segunda ordem. E assim por diante. A construção Kagi não é estranha para explorar a mesma idéia, apenas "menos que H"/"mais que H" é usado em vez de "menos que H"/"mais que H". Isso é tudo o que há. O algoritmo é adequado para pontos e é inadequado para OHLC, devido ao fato de que existem 4 valores em um ponto. Há um truque, quando um dos pontos é igual ao vizinho, então você tem que tomar uma decisão, - os anciãos sábios não dizem o quê. Pessoalmente, acabei de converter todos os pontos vizinhos com valores iguais para um. Eu vi como as pessoas implementaram ziguezagues, é muito complicado, algum tipo de arrays temporários, etc. Para mim foi suficiente usar várias variáveis e um passe. Tudo que preciso é armazenar o último extremo identificado (que pode variar) e o extremo anterior identificado para comparação. Ou seja, analisará três pontos: o ponto atual, o último extremo identificado que ainda está incompleto e o penúltimo extremo. Isto é para o caso do kaga.

Referindo-se ao link. Partilho esta frase: "O sinal, entretanto, leva em conta a "estrutura energética" dos dados de entrada e é de certa forma melhor do que um clássico ziguezague cuja validade de extrema é muito duvidosa para mim". Eu mesmo me dediquei a tais construções - procurava mínimos e máximos por algumas médias (funções). Infelizmente, o problema acabou se tornando um pouco mais complicado. Pelo menos para mim. A idéia de que estes extremos caracterizam de alguma forma o estado de espírito de comprar/vender para trocadores e comerciantes é uma idéia empolgante em si mesma. E em algum modelo matemático simples de multidões comprando e vendendo era exatamente o mesmo. Mas a realidade é diferente e muitos extremos marcados dessa forma não mostraram nada de útil. Por isso, coloco a idéia de lado, mas não me esqueço dela. É muito simples e claro. Mas esse sou eu, outros podem ser mais afortunados.

Prival 13.01.2008 14:24

Portanto, você não precisa cavar muito (embora o link neste tópico já estivesse em uma palestra sobre DSP). Aqui está um pedaço dele. Que existem filtros que são construídos pela LOC, enquanto a profundidade da amostragem é importante para quase todos os tipos de filtros, e especialmente para a LOC.

Ahh! Então é disso que estamos falando! Vou lhes contar um segredo, eu uso estes mesmos filtros que estão descritos no link. Somente não os vejo como um "filtro", mas como uma função que dá uma melhor estimativa em termos de probabilidade e uma determinada lei. Embora, é claro, você possa considerá-los como filtros. Infelizmente, essas fórmulas dão uma estimativa para o ponto médio, então as utilizo como uma ferramenta de pesquisa, mas não como uma ferramenta de previsão. Francamente falando, é claro que eu deveria ter deduzido um formulário para estimar o ponto extremo, mas sou preguiçoso demais para fazer isso.

A propósito, além do que você tem em mãos, sobre este assunto, você pode olhar a "Análise Estatística das Séries Temporais" de T. Anderson. Capítulo 3.3.1 "Procedimentos de alisamento".

E a propósito, há um tipo especial de estrias com propriedades similares, onde uma curva é construída com base nas funções mais simples para dar alguma melhor estimativa em termos de MNC.