Filtros digitales adaptativos - página 4

 

Privado

Pido disculpas, no fui cuidadoso en mis comentarios. Personalmente, nunca pensé en expresar ninguna duda sobre su competencia en materia de DSP. Creo que lo mismo ocurre con grasn (espero que grasn me perdone por "firmar" en su nombre). Se trata de la propia idea y la metodología de investigación. Nada personal. Todos los autores que activamente "cavan métodos matemáticos" en este foro, trato estrictamente positivo, en vista de la singularidad de esta comunidad. Y en vista de las perspectivas que tiene (la comunidad). Pero no puedo estar de acuerdo con tu sugerencia porque descreo completamente de los polinomios como herramienta que tiene algún tipo de "poder predictivo". Estamos hablando de intervalos de tiempo inferiores a un día, y usted quiere explotar su idea precisamente en intervalos pequeños. Simplemente no veo la razón, que obligará a la función polinómica - de hecho, absolutamente adaptada a la señal (según algún criterio), a hacer una previsión del comportamiento de los precios. Porque la predicción siempre será de 50\50. Esto se debe tanto a los procesos que ocurren en el "mercado" como a la forma de representación de la señal, que en su esencia distorsiona completamente la imagen. Si quieres utilizar el DSP en el comercio, eres bienvenido, pero primero prepara los datos adecuados para el DSP. La "señal" en sí está ciertamente presente en el precio, pero. Pero el nivel de esa señal (como parece haber señalado correctamente Mathemat ) es muchas veces menor que el "ruido" (aunque no hay "ruido" en el "mercado"). A esto se suma la no estacionalidad de la propia señal. En consecuencia, casi ninguno de los métodos tradicionales funciona. No creo que esto se deba a que la teoría del DSP sea errónea, por supuesto que sí, es sólo que la señal aquí es completamente diferente. Una señal en la que una gran parte de la información simplemente se pierde. Y, paradójicamente, una gran cantidad de información es simplemente innecesaria. Has dicho que eres militar, así que da por hecho que todos tus aparatos están obstruidos por las interferencias, tras las cuales no puedes ver la señal de los aviones enemigos. Y esa interferencia es de muy alta calidad. Pero si sales a la calle y miras al cielo, enseguida lo verás todo. Pero apuntar y disparar desde la cadera no es la mejor solución. :)

Y gracias por el regalo, sin duda encontraré tiempo para conocerlo.

 
Sugiero que pasemos a otra tarea: tenemos que convertir la representación gráfica habitual (basada en barras con intervalos de tiempo astronómicos iguales) en una con el menor número posible de catástrofes (preferiblemente con retornos p.d.f. estacionarios). Esto, por cierto, puede ser uno de los retos de la preparación adecuada de los datos para el DSP, como menciona NorthernWind. Las catástrofes (especialmente las micro-catástrofes dentro de los pisos) rompen prácticamente todos los indirectores tradicionales conocidos. La conversión, por cierto, no tiene que ser mutuamente inequívoca en absoluto (muchos indirectores no son operaciones mutuamente inequívocas sobre los datos, y eso no nos molesta).

Si hay argumentos válidos en contra, por favor, únanse a las críticas.
 
NorthernWind:

Privado

Pido disculpas, no fui cuidadoso en mis comentarios. Personalmente, nunca pensé en expresar ninguna duda sobre su competencia en materia de DSP. Creo que lo mismo ocurre con grasn (espero que grasn me perdone por "firmar" en su nombre). Se trata de la propia idea y la metodología de investigación. Nada personal. Todos los autores que activamente "cavan métodos matemáticos" en este foro, trato estrictamente positivo, en vista de la singularidad de esta comunidad. Y en vista de las perspectivas que tiene (la comunidad). Pero no puedo estar de acuerdo con tu sugerencia porque descreo completamente de los polinomios como herramienta que tiene algún tipo de "poder predictivo". Estamos hablando de intervalos de tiempo inferiores a un día, y usted quiere explotar su idea precisamente en intervalos pequeños. Simplemente no veo la razón, que obligará a la función polinómica - de hecho, absolutamente adaptada a la señal (según algún criterio), a hacer una previsión del comportamiento de los precios. Porque la predicción siempre será de 50\50. Esto se debe tanto a los procesos que ocurren en el "mercado" como a la forma de representación de la señal, que de hecho distorsiona completamente la imagen. Si quiere utilizar el DSP en el comercio, adelante, pero primero prepare los datos adecuados para el DSP. La "señal" en sí está ciertamente presente en el precio, pero. Pero el nivel de esa señal (como parece haber señalado correctamente Mathemat ) es muchas veces menor que el "ruido" (aunque no hay "ruido" en el "mercado"). A esto se suma la no estacionalidad de la propia señal. En consecuencia, casi ninguno de los métodos tradicionales funciona. No creo que esto se deba a que la teoría del DSP sea errónea, por supuesto que sí, es sólo que la señal aquí es completamente diferente. Una señal en la que una gran parte de la información simplemente se pierde. Y, paradójicamente, una gran cantidad de información es simplemente innecesaria. Usted ha dicho que es un militar, así que considere como un hecho que todos sus dispositivos están obstruidos con interferencias, detrás de las cuales no puede ver la señal de los aviones enemigos. Y esa interferencia es de muy alta calidad. Pero si sales a la calle y miras al cielo, enseguida lo verás todo. Pero apuntar y disparar desde la cadera no es la mejor solución. :)

Gracias por el regalo, sin duda encontraré tiempo para echarle un vistazo.

¿Has pensado alguna vez que las líneas de soporte (resistencia) son polinomios de primer grado (ecuación de la recta) y(x)=a*x+b? Cuando el precio rebota en el nivel de alguna resistencia fuerte o comienza la corrección y en este punto la curva puede ser descrita por el polinomio de segundo grado y(x)=c*x^2+a*x+b. Para algunas oscilaciones estables en el canal, se puede utilizar el MNC para encontrar un polinomio de mayor grado. Es decir, es necesario elegir un grado de un polinomio según algún criterio (enseñar al ordenador a hacerlo, como hace un humano) + mucha gente ya ha llegado a la conclusión de que si supiera (conoce) cuándo empezar a formar, digamos, PriceCannel (profundidad de muestreo), podría construir un TS bastante bueno.

Pero la idea propuesta lo tiene, podemos establecer el grado del polinomio + la profundidad N, digamos, una semana, y el propio algoritmo elegirá si utilizar toda la muestra N o sólo su parte, también puede elegir cualquier cantidad de datos (dígitos) para el análisis de los últimos 2 dígitos a N y seleccionar un polinomio. Y digamos que la brecha es la varianza máxima, por lo que el algoritmo debe seleccionar los últimos 2 puntos y sólo una línea recta a través de 2 puntos, lag = 0. Algo así.

Es una idea muy simple, hay muchas, quizás salga algo bueno. He intentado dejarlo lo más claro posible para mostrar a los que quieran construir algo adaptativo, cómo hacerlo, sin recurrir a términos complejos. Y sobre eso de"pero primero preparar los datos adecuados para el DSP", pues sí, porque creo que el eje X también es un número aleatorio y eso no hay que olvidarlo. En el eje Y ya hemos inventado mucho, pero en el eje X seguimos construyendo barras hace 100 años (con un intervalo constante). He escrito sobre ello aquí ('Tick builders. Optimización. DDE en VB (VBA)'), incluso Renata me hizo un regalo. Ahora estoy pensando en cómo prepararlo correctamente para el DSP :-) + también todo el tiempo pensando, cuál es la señal (componente útil, qué mueve esta curva), y si hay ruido aquí.

P.D. Y el hecho de que se discuta y se discrepe es bueno. En las disputas (correctas) a veces nace la verdad. Y contigo estoy dispuesto a discutir y no sólo a hacer regalos en forma de libros, a entregarlos. Yo también habría echado coñac pero no puedo adjuntarlo :-).

 
Mathemat:
Sugiero que pasemos a otra tarea: tenemos que convertir la representación gráfica habitual (basada en barras con intervalos de tiempo astronómicos iguales) en una con el menor número posible de catástrofes (preferiblemente con retornos p.d.f. estacionarios). Esto, por cierto, puede ser uno de los retos de la preparación adecuada de los datos para el DSP, como menciona NorthernWind. Las catástrofes (especialmente las micro-catástrofes dentro de los pisos) rompen prácticamente todos los indirectores tradicionales conocidos. La conversión, por cierto, no tiene que ser mutuamente inequívoca en absoluto (muchos indirectores no son operaciones mutuamente inequívocas sobre los datos, y eso no nos molesta).

Si tiene un argumento bien fundado en contra, por favor, únase a las críticas.

Cuando escribía, Mathemat ya se había convertido en telépata :-). Estoy a favor. Propongo que empecemos por minimizar las "catástrofes", y luego nos ocupemos de ellas. Y no sólo se rompen los indicadores, el bueno de Fourier está volando, y cómo comerlo si no sabemos qué frecuencia de muestreo es muy difícil.
 
Mathemat:
Sugiero que pasemos a un problema diferente: tenemos que convertir la representación gráfica habitual (basada en barras con intervalos de tiempo astronómicos iguales) en una con el menor número posible de catástrofes (preferiblemente con rendimientos estacionarios de f.d.p.). Esto, por cierto, puede ser uno de los retos de la preparación adecuada de los datos para el DSP, como menciona NorthernWind. Las catástrofes (especialmente las micro-catástrofes dentro de los pisos) rompen prácticamente todos los indirectores tradicionales conocidos. La conversión, por cierto, no tiene que ser mutuamente inequívoca en absoluto (muchos indirectores no son operaciones mutuamente inequívocas sobre los datos, y eso no nos molesta).

Si hay argumentos válidos en contra, por favor, únanse a las críticas.

Aquí, no hace mucho tiempo, hubo una incursión de impacientes m0thematistas-maximalistas, en uno de los hilos vecinos. Aunque la conversación con ellos no salió muy bien, a pesar de esto me gustaría decir que hablan muy correctamente, prácticamente "piensan mis pensamientos". Lo más importante que se ha dicho y a lo que insto a todas las partes interesadas a prestar atención. Hay que trabajar en el mercado real y no en una casa de corretaje de Forex. Entonces tendrá información no sólo sobre el precio, sino también sobre los volúmenes, el interés, las apuestas, el flujo de cotizaciones, etc. Sin duda, el intercambio es más complicado que el proceso de adivinar en el sorteo de DC la dirección de los números en la pantalla, pero también mucho más cercano al concepto de un mercado en vivo, donde el precio lo dicta el equilibrio de la oferta y la demanda y el estado de ánimo de los participantes. Por supuesto que Quick y similares son una basura comparados con Metatrader, pero la gente también trabaja en eso. Por cierto, si los metacotizaciones no piensan en dominar esta escualidez, su destino será el mismo que ahora.

Lo que digo aquí es que se puede profundizar mucho en las citas del DT, y puede que incluso se encuentre algo, pero será bastante inestable. Te pido que entiendas bien, no hay ninguna crítica a los céntimos o al proceso de formación de los mismos. Lo hacen todo bien y en su mayoría (los más respetables) no engañan a nadie. Pero si se observan los datos que llegan del "mercado" a través de las empresas de corretaje al cliente, no se puede evitar pensar que las empresas de corretaje son máquinas de filtrar y renderizar. Ya he dicho lo que ocurre si se aplica un proceso aleatorio a un determinado proceso con sentido: el proceso resultante será el mismo aleatorio.

Para evitar la pregunta "¿Creo que se puede ganar en el comercio de corretaje de Forex?" debo decir de inmediato - sí, creo que se puede. Pero no mucho y no durante mucho tiempo y no para todos. De hecho, con un riesgo no muy alto puedes jugar durante un día o más, pero los ingresos serán, si juegas bien, los mismos que la variación del precio a lo largo del día, que no es muy alta.

Esa es mi opinión. Volviendo al tema que nos ocupa, la conversión de la carta tradicional en la otra, puedo decir que a mí personalmente, esta conversión me ha ayudado en mi búsqueda. Pero no mucho. Prácticamente no hay elección, de todas las posibilidades que tenemos a mano, sólo el precio no está claro. También existe una noción de tipo de cambio que se corresponde de alguna manera con la actividad de los mercados mundiales, pero el grado de esta correspondencia es ilusorio y efímero. ¿Qué se puede hacer con él? Bueno, primero, considera la historia hasta los años 2004-2003 solamente, no busques más allá "el mercado era diferente entonces". Considere cada semana/día por separado. Considere la transición de una semana a otra, es decir, los fines de semana, por separado. Al menos considere el tiempo de actividad de las principales bolsas. Al menos considere esas pocas noticias en un año, a las que el mercado ha reaccionado realmente. Reemplaza a OHLC como una reliquia del oscuro pasado. No considere los extremos locales (zigzag, kagirenko) como la verdad final, estos extremos son muy poco probables. Y así sucesivamente. Prácticamente, todo resulta en tener que formar los propios datos, en la propia representación, a partir de un flujo inicial de ticks (o minutos).

Una última cosa. Tenga en cuenta que nunca digo que siempre lo sepa todo correctamente. Así que aquí también puedo estar equivocado.

 

Privado 13.01.2008 03:08

¿Has pensado alguna vez que las líneas de soporte (resistencia) son polinomios de primer grado (ecuación de la recta) y(x)=a*x+b. Y puede y parece funcionar no sólo dentro del día. Cuando el precio rebota al acercarse a un nivel de resistencia fuerte o, por ejemplo, se está produciendo una corrección y en este punto la curva de la curva se puede describir por el polinomio de segundo grado (parábola) y(x)=c*x^2+a*x+b. Para algunas oscilaciones estables en el canal, se puede utilizar MNC para encontrar un polinomio de mayor grado. Es decir, es necesario elegir un grado de un polinomio según algún criterio (enseñar al ordenador a hacerlo, como hace un humano) + mucha gente ya ha llegado a la conclusión de que si supiera (conoce) cuándo empezar a construir, digamos, PriceCannel (profundidad de muestreo), puede construir un TS bastante bueno.

Si hablamos de las estrategias llamadas "de canal", cuya esencia es identificar algunas tendencias, aunque no se describan mediante una simple regresión lineal, sino mediante polinomios, entonces generalmente creo en ellas. Además, creo que el mercado sólo tiene una cosa: tendencias en canales ascendentes y descendentes. El problema con estos canales es que tradicionalmente no muestran mucho resultado en los datos tradicionales. Al menos, así es como me ha funcionado a mí. Hay muchos datos que "dificultan" la construcción de una tendencia de precios máximos utilizando el ISC. La mayoría de las veces tenemos una tendencia

de los cambios en el carácter del "ruido".

Pero la idea sugerida lo contiene, podemos establecer el grado del polinomio + la profundidad N para una semana, y el algoritmo decidirá si utilizar toda la muestra N o sólo una parte de ella, también puede elegir cualquier cantidad de datos (dígitos) para el análisis de los últimos 2 dígitos hasta N y seleccionar un polinomio. Y digamos que la brecha es la varianza máxima, por lo que el algoritmo debe seleccionar los últimos 2 puntos y sólo una línea recta a través de 2 puntos, lag = 0. Algo así.

Sí, esto se ha discutido durante mucho tiempo tanto en este foro como en el "hilo paralelo". Es prácticamente el lugar donde comenzó la comunidad local. Pero me parece que no se aplica realmente a los filtros adaptativos tradicionales.

Es sólo una idea de muchos de ellos, quizás salga algo bueno. Traté de mostrar lo más claro posible a los que quiere construir algo adaptativo, cómo hacerlo, sin recurrir a términos complejos. Y sobre este"pero primero preparar los datos adecuados para DSP", sí, de hecho, porque creo que en el eje X también número aleatorio y no debe ser olvidado. En el eje Y ya hemos inventado mucho, pero en el eje X seguimos construyendo barras hace 100 años (con un intervalo constante). He escrito sobre ello aquí ('Tick builders. Optimización. DDE en VB (VBA)'), incluso Renata me hizo un regalo. Ahora estoy pensando en cómo prepararlo correctamente para el DSP :-) + también todo el tiempo me pregunto cuál es la señal (componente útil que mueve esta curva), y si hay ruido aquí.

Los bares son una tradición basada en la capacidad. De hecho, la tecnología que permite deshacerse de las barras y pasar a otras formas de representar la información apareció no hace mucho. Contando desde hace años, así que no seamos demasiado duros con ellos.

P.D. Y el hecho de que uno discuta, no esté de acuerdo es bueno. En las disputas (correctas) a veces nace la verdad. Y con usted listo para discutir y no sólo los regalos en forma de libros, entregar. Me habría servido coñac, pero no puedo adjuntarlo :-).

:)

ZS terrible no conveniente motor del foro.

 

a Prival

Prival, no me voy a disculpar por mi post, lo dice todo correctamente. Y no hay una palabra que no entienda nada de DSP, sino que sólo hay una actitud ante una propuesta particular de "filtrado adaptativo".

Me parece que al escribir sobre mi propuesta y afirmar que no hay filtro adaptativo ahí, grasn se equivoca.

No se equivoca en ningún punto.

Y no será capaz de responder dónde, cuándo y por qué razón, por ejemplo, es necesario aplicar una ventana Hemming, y cuando su aplicación sólo perjudica. ¿Cuál es la diferencia entre el filtro adaptativo de Wiener del filtro Widrow-Hopf al analizar su FFC o filtro Butterworth de Chebyshev, cuando se necesita y se puede aplicar el primer filtro, y cuando el segundo.

¿Te ha gustado? En general, por supuesto, correctamente hecho, pero ¿qué sentido tiene? Además de varios gigabytes de basura electrónica sobre DSP, tengo en mi estantería cinco libros más, que, imagínate, he leído (aunque no se han convertido en mis recomendaciones de escritorio). Y a sus preguntas, señor profesor, por supuesto que puedo responderlas. Prival, escribí que soy autodidacta, pero eso no significa que sea un completo idiota.

PD1: Sólo serví en las Fuerzas de Defensa Aérea, así que puedo leer mi cargo en el párrafo 27 de mi cartilla militar (para que sea más sólido :o): "comandante del departamento de instalaciones de control de radio de misiles antiaéreos". Y sé más que bien (como suelen escribir - no de oídas :o) que nuestros afamados complejos (y no sólo los nuestros) no sólo derriban, sino que ni siquiera ven realmente los objetivos. Prival, ten cuidado con los radares de forex... y sobre todo con la frecuencia Nyquist que rige el mundo. :о)

PS2: Prival, no tienes mucha suerte conmigo - el hecho de que hayas enseñado DSP no significa nada más que respeto para mí. Y si veo alguna tontería, lo escribo, independientemente de las posiciones y los rangos :o)

aViento del Norte

¡¡¡¡Me alegro de verlos!!!! También he dejado prácticamente de participar en el foro, aunque de vez en cuando discuto con Prival. Tengo una pregunta para usted. Recuerdo que investigó el uso del zigzag, y lo describió como algo muy simple, inventado por alguien casi un siglo antes del pasado, o incluso más tarde. Quiero usarlo para un pequeño experimento en una secuela de 'Resonancia Estocástica' (post grasn 28.10.2007 13:26).
¿Podría describirlo con más detalle o proporcionar un enlace? Hay que probar algo de pensamiento.

 
NorthernWind:

Privado 13.01.2008 03:08

Sí, se ha discutido durante mucho tiempo tanto en este foro como en el "hilo paralelo". Es prácticamente el lugar donde comenzó la comunidad local. Pero me parece que no es muy relevante para los filtros adaptativos tradicionales.


Así que no hay que escarbar demasiado (aunque el enlace en este hilo ya ha sido a una conferencia sobre DSP). Aquí tienes un trozo. Que hay filtros que se construyen por CNA y la profundidad de muestreo es importante, para casi todos los tipos de filtro, y para el CNA especialmente.

A grasn tú mismo le diste un enlace a este material, y ¿qué hay de esto (Tema #3)? Que independientemente de los rangos, etc., eso es bueno. Y para el radar, ya he denunciado por escrito por lo que escribí aquí :-( Es una pena que me hayan dejado sin 13, esos tontos castigan primero y luego lo solucionan.

Archivos adjuntos:
filtr_mnk.zip  87 kb
 
Prival:
NorthernWind:

Privado 13.01.2008 03:08

Sí, se ha discutido durante mucho tiempo tanto en este foro como en el "hilo paralelo". Es prácticamente el lugar donde comenzó la comunidad local. Pero me parece que no es muy relevante para los filtros adaptativos tradicionales.


Sólo para que no indagues demasiado (aunque el enlace de este hilo ya estaba en la conferencia de DSP). Aquí hay un poco de eso. Que hay filtros que se construyen por OLS y la profundidad de muestreo es importante, para casi todos los tipos de filtro, y especialmente para OLS.

A grasn tú mismo diste un enlace a este material, pero ¿qué hay de esto (Tema #3)? Que independientemente de los rangos, etc., eso es bueno. Y para el radar ya he denunciado por escrito, por lo que escribí aquí :-( Es una pena que esté sin 13, esos tontos castigan primero y luego lo solucionan.

Prival, un mínimo cuadrado ligeramente diferente y un filtro ligeramente diferente que al menos tenía en mente. sección "Algoritmo de mínimos cuadrados adaptativos de Widrow-Hopf" Tema 11, no del todo 3
Pude adjuntarlo.

PD: Prival, estoy un poco confundido, ¿te han quitado la bonificación por escribir la palabra "radiolocalización" en el foro de comerciantes?

Archivos adjuntos:
dsp11.zip  124 kb
 

grasn 13.01.2008 14:14

¡¡¡¡Me alegro de verlos!!!! También he dejado prácticamente de participar en el foro, aunque de vez en cuando discuto con Prival. Tengo una pregunta para usted. Recuerdo que realizó una investigación con zigzags y los describió como muy simples, inventados por alguien antes del siglo pasado o incluso después. Quiero usarlo para un pequeño experimento en continuación a 'Стохастический резонанс' (post grasn 28.10.2007 13:26).
¿Podría describirlo con más detalle o darme un enlace? Necesito comprobar alguna idea.

Yo también me alegro de verte y me alegro de intentar responder a las preguntas.

En el zigzag. En el libro en el que vi por primera vez su definición no se llamaba ciertamente zigzag (creo que Kendall y Stewart). Se trataba de encontrar puntos de extremos locales de primer orden. No dijeron nada especial al respecto, sólo que un extremo local es cuando los puntos de la izquierda y de la derecha de la gráfica en cuestión son ambos menores o mayores. Eso es todo. También se relacionó con los extremos locales de segundo orden cuando los extremos de primer orden a la izquierda y a la derecha son ambos menores o mayores. Sólo que en este caso no hay que mirar los extremos vecinos sino a través de uno, ya que los extremos vecinos serán en todo caso menores o mayores. El tercer orden es similar al segundo, pero se construye a partir de los extremos del segundo orden. Y así sucesivamente. La construcción Kagi, a la que no eres ajeno, explota la misma idea, sólo que se utiliza "menos que H"/"más que H" en lugar de "menos que H"/"más que H". Eso es todo. El algoritmo es adecuado para los puntos y es poco adecuado para OHLC, debido a que hay 4 valores en un punto. Hay un truco, cuando uno de los puntos es igual al vecino, entonces hay que tomar una decisión, - los sabios ancianos no dicen cuál. Personalmente, acabo de convertir todos los puntos vecinos con valores iguales en uno. He mirado como la gente implementa los zigzags, es muy complicado, algún tipo de arrays temporales, etc. Para mi fue suficiente usar varias variables y una pasada. Todo lo que necesito es almacenar el último extremo identificado (que puede variar) y el extremo anterior identificado para comparar. Es decir, analizará tres puntos: el punto actual, el último extremo identificado que aún está incompleto y el penúltimo extremo. Esto es para el caso de kaga.

Refiriéndose al enlace. Comparto esta frase: "La señal, sin embargo, tiene en cuenta la "estructura energética" de los datos de entrada y es en cierto sentido mejor que un zigzag clásico cuya validez de los extremos me resulta muy dudosa". Yo mismo he incursionado en este tipo de construcciones - buscaba mínimos y máximos mediante algunos promedios (funciones). Por desgracia, el problema resultó ser un poco más complicado. Al menos para mí. La idea de que estos extremos caracterizan de alguna manera el estado de ánimo para comprar/vender de los cambiadores y comerciantes es una idea emocionante en sí misma. Y en algún modelo matemático simple de compra y venta de multitudes era exactamente lo mismo. Pero la realidad es diferente y muchos extremos marcados de esa manera no mostraron nada útil en absoluto. Así que dejo de lado la idea, pero no me olvido de ella. Es muy sencillo y claro. Pero ese soy yo, otros pueden ser más afortunados.

Privado 13.01.2008 14:24

Así que no hay que escarbar demasiado (aunque el enlace de este hilo ya estaba en una conferencia sobre DSP). Aquí hay un trozo de ella. Que hay filtros que se construyen por LOC, mientras que la profundidad de muestreo es importante para casi todos los tipos de filtros, y especialmente para LOC.

¡Ahhh! ¡Así que de eso estamos hablando! Te voy a contar un secreto, yo uso estos mismos filtros que se describen en el enlace. Sólo que no los tomo como un "filtro", sino como una función que da alguna estimación óptima en términos de probabilidad y una ley dada. Aunque, por supuesto, puedes considerarlos como filtros. Desgraciadamente, esas fórmulas dan una estimación del punto medio, por lo que las utilizo como herramienta de investigación, pero no de predicción. Francamente, debería haber deducido una forma de estimar el punto extremo, pero me da pereza hacerlo.

Por cierto, además de lo que tienes a mano, sobre este tema, puedes mirar "Statistical Analysis of Time Series" de T. Anderson. Capítulo 3.3.1 "Procedimientos de alisado".

Y por cierto, hay un tipo especial de splines con propiedades similares, donde se construye una curva basada en las funciones más simples para dar alguna estimación mejor en términos de MNC.