Filtri digitali adattivi - pagina 4

 

Privato

Mi scuso, non sono stato attento nelle mie osservazioni. Personalmente, non ho mai pensato di esprimere dubbi sulla sua competenza in materia di DSP. Penso che lo stesso sia vero per grasn (spero che grasn mi perdoni per aver "firmato" a suo nome). Si tratta dell'idea stessa e della metodologia di ricerca. Niente di personale. Tutti gli autori che attivamente "scavano metodi matematici" su questo forum, tratto rigorosamente in modo positivo, in considerazione dell'unicità di questa comunità. E in vista delle prospettive che essa (la comunità) ha. Ma non posso essere d'accordo con il tuo suggerimento perché non credo assolutamente nei polinomi come strumento che ha una sorta di "potere predittivo". Stiamo parlando di intervalli di tempo inferiori a un giorno, e vuoi sfruttare la tua idea proprio a piccoli intervalli. Non vedo proprio la ragione, che costringerà la funzione polinomiale - in effetti, assolutamente adattata al segnale (secondo qualche criterio) - a fare una previsione del comportamento del prezzo. Perché la previsione sarà sempre circa 50\50. Questo è dovuto sia ai processi che avvengono nel "mercato" sia alla forma della rappresentazione del segnale, che nella sua essenza distorce completamente il quadro. Se vuoi usare DSP nel trading - sei il benvenuto, ma prima prepara dati adeguati per DSP. Il "segnale" stesso è certamente presente nel prezzo, ma. Ma il livello di quel segnale (come Mathemat sembra aver sottolineato correttamente) è molte volte inferiore al "rumore" (anche se non c'è "rumore" nel "mercato"). A questo si sovrappone la non stazionarietà del segnale stesso. Di conseguenza, quasi nessuno dei metodi tradizionali funziona. Non penso che questo sia dovuto al fatto che la teoria del DSP sia sbagliata - certo che lo è, è solo che il segnale qui è completamente diverso. Un segnale in cui un'enorme parte dell'informazione è semplicemente persa. E paradossalmente, una grande quantità di informazioni è semplicemente inutile. Lei ha detto che è un militare, quindi consideri come un fatto che tutti i suoi dispositivi sono intasati da interferenze, dietro le quali non può vedere il segnale dell'aereo nemico. E quell'interferenza è di altissima qualità. Ma se andate fuori e guardate il cielo, vedrete subito tutto. È vero che mirare e sparare dal fianco non è la soluzione migliore. :)

E grazie per il regalo, troverò sicuramente il tempo di conoscerlo.

 
Suggerisco di passare a un altro compito: dobbiamo convertire la solita rappresentazione grafica (basata su barre con intervalli di tempo astronomici uguali) in una con meno catastrofi possibili (preferibilmente con rendimenti p.d.f. stazionari). Questo, per inciso, può essere una delle sfide di un'adeguata preparazione dei dati per DSP, come menzionato da NorthernWind. Le catastrofi (specialmente le micro-catastrofi all'interno degli appartamenti) rompono praticamente tutti gli indiretti tradizionali conosciuti. La conversione, tra l'altro, non deve affatto essere reciprocamente univoca (molti indirettori non sono operazioni reciprocamente univoche sui dati, e questo non ci preoccupa).

Se ci sono argomenti validi contro di esso, per favore unitevi alla critica.
 
NorthernWind:

Privato

Mi scuso, non sono stato attento nelle mie osservazioni. Personalmente, non ho mai pensato di esprimere dubbi sulla sua competenza in materia di DSP. Penso che lo stesso valga per grasn (spero che grasn mi perdoni per aver "firmato" a suo nome). Si tratta dell'idea stessa e della metodologia di ricerca. Niente di personale. Tutti gli autori che attivamente "scavano metodi matematici" su questo forum, tratto rigorosamente in modo positivo, in considerazione dell'unicità di questa comunità. E in vista delle prospettive che essa (la comunità) ha. Ma non posso essere d'accordo con il tuo suggerimento perché non credo assolutamente nei polinomi come strumento che ha una sorta di "potere predittivo". Stiamo parlando di intervalli di tempo inferiori a un giorno, e vuoi sfruttare la tua idea proprio a piccoli intervalli. Non vedo proprio la ragione, che costringerà la funzione polinomiale - in effetti, assolutamente adattata al segnale (secondo qualche criterio) - a fare una previsione del comportamento del prezzo. Perché la previsione sarà sempre circa 50\50. Questo è dovuto sia ai processi che avvengono nel "mercato" sia alla forma di rappresentazione del segnale, che di fatto distorce completamente il quadro. Vuoi usare DSP nel trading - vai avanti, ma prima prepara dati adeguati per DSP. Il "segnale" stesso è certamente presente nel prezzo, ma. Ma il livello di quel segnale (come Mathemat sembra aver sottolineato correttamente) è molte volte inferiore al "rumore" (anche se non c'è "rumore" nel "mercato"). A questo si sovrappone la non stazionarietà del segnale stesso. Di conseguenza, quasi nessuno dei metodi tradizionali funziona. Non penso che questo sia dovuto al fatto che la teoria del DSP sia sbagliata - certo che lo è, è solo che il segnale qui è completamente diverso. Un segnale in cui un'enorme parte dell'informazione è semplicemente persa. E paradossalmente, una grande quantità di informazioni è semplicemente inutile. Lei ha detto che è un militare, quindi consideri come un fatto che tutti i suoi dispositivi sono intasati da interferenze, dietro le quali non può vedere il segnale dell'aereo nemico. E quell'interferenza è di altissima qualità. Ma se andate fuori e guardate il cielo, vedrete subito tutto. Ma mirare e sparare dall'anca non è la soluzione migliore. :)

Grazie per il regalo, troverò sicuramente il tempo di guardarlo.

Avete mai pensato che le linee di supporto (resistenza) sono polinomi di primo grado (equazione della linea retta) y(x)=a*x+b? Quando il prezzo rimbalza sul livello di qualche forte resistenza o inizia la correzione e a questo punto la curva può essere descritta dal polinomio di secondo grado y(x)=c*x^2+a*x+b. Per alcune oscillazioni stabili nel canale, è possibile utilizzare MNC per trovare un polinomio di grado superiore. Cioè è necessario scegliere un grado di un polinomio secondo qualche criterio (insegnare al computer a farlo, come fa un umano) + molte persone sono già arrivate alla conclusione che se sapessero (sanno) quando iniziare a formare, diciamo, PriceCannel (profondità di campionamento), potrebbero costruire un TS abbastanza buono.

Ma l'idea proposta ce l'ha, possiamo impostare il grado del polinomio + profondità N, diciamo, una settimana, e l'algoritmo stesso sceglierà se usare l'intero campione N o solo la sua parte, può anche scegliere qualsiasi quantità di dati (cifre) per l'analisi dalle ultime 2 cifre a N e selezionare un polinomio. E diciamo che il divario è la massima varianza, quindi l'algoritmo dovrebbe selezionare gli ultimi 2 punti e solo una linea retta attraverso 2 punti, lag = 0. Qualcosa del genere.

È un'idea così semplice, ce ne sono molte, forse verrà fuori qualcosa di buono. Ho cercato di renderlo il più chiaro possibile per mostrare a chi vuole costruire qualcosa di adattivo, come farlo, senza ricorrere a termini complessi. E a proposito di questo"ma prima preparate dati adeguati per il DSP", sì in effetti lo faccio, perché credo che l'asse X sia anche un numero casuale e questo non va dimenticato. Sull'asse Y abbiamo già inventato molto, ma sull'asse X stiamo ancora costruendo barre di 100 anni fa (con un intervallo costante). Ne ho scritto qui ('Tick builders. Ottimizzazione. DDE in VB (VBA)'), anche Renata mi ha fatto un regalo. Sto pensando ora a come prepararlo correttamente per il DSP :-) + anche tutto il tempo pensando, qual è il segnale (componente utile, cosa muove questa curva), e se c'è del rumore qui.

P.S. E il fatto che uno discuta e non sia d'accordo è buono. Nelle dispute (corrette) a volte nasce la verità. E con te sono pronto a discutere e non solo a fare regali sotto forma di libri, a consegnarli. Avrei versato anche del brandy ma non posso allegarlo :-).

 
Mathemat:
Suggerisco di passare a un altro compito: dobbiamo convertire la solita rappresentazione grafica (basata su barre con intervalli di tempo astronomici uguali) in una con meno catastrofi possibili (preferibilmente con rendimenti p.d.f. stazionari). Questo, tra l'altro, può essere una delle sfide di un'adeguata preparazione dei dati per DSP, come menzionato da NorthernWind. Le catastrofi (specialmente le micro-catastrofi all'interno degli appartamenti) rompono praticamente tutti gli indiziatori tradizionali conosciuti. La conversione, tra l'altro, non deve affatto essere reciprocamente univoca (molti indirettori non sono operazioni reciprocamente univoche sui dati, e questo non ci preoccupa).

Se avete un argomento fondato contro di esso, per favore unitevi alle critiche.

Nel momento in cui scrivevo, Mathemat era già diventato un telepate :-). Sono a favore. Suggerisco di iniziare a minimizzare le "catastrofi", per poi affrontarle. E non solo gli indicatori si rompono, il buon vecchio Fourier sta volando via, e come mangiarlo se non sappiamo quale frequenza di campionamento è troppo difficile.
 
Mathemat:
Suggerisco di passare a un problema diverso: dobbiamo convertire la solita rappresentazione grafica (basata su barre con intervalli di tempo astronomici uguali) in una con meno catastrofi possibili (preferibilmente con rendimenti p.d.f. stazionari). Questo, tra l'altro, può essere una delle sfide di un'adeguata preparazione dei dati per DSP, come menzionato da NorthernWind. Le catastrofi (specialmente le micro-catastrofi all'interno degli appartamenti) rompono praticamente tutti gli indiziatori tradizionali conosciuti. La conversione, tra l'altro, non deve affatto essere reciprocamente univoca (molti indirettori non sono operazioni reciprocamente univoche sui dati, e questo non ci preoccupa).

Se ci sono argomenti validi contro di esso, per favore unitevi alla critica.

Qui, non molto tempo fa, c'è stata un'incursione di m0thematist-maximalisti impazienti, in uno dei thread vicini. Anche se la conversazione con loro non è andata molto bene, nonostante questo vorrei dire che parlano molto correttamente, praticamente "pensano i miei pensieri". La cosa più importante che è stata detta e che invito tutti gli interessati a prestare attenzione. Devi lavorare sul mercato reale e non su una casa di intermediazione Forex. Allora avrete informazioni non solo sul prezzo, ma anche sui volumi, l'interesse, le puntate, il flusso delle quotazioni e così via. Senza dubbio, lo scambio è più complicato del processo di indovinare la direzione delle cifre sullo schermo nelle lotterie DC, ma anche molto più vicino al concetto di un mercato dal vivo, dove il prezzo è dettato dall'equilibrio di domanda e offerta e dall'umore dei partecipanti. Naturalmente Quick e simili sono spazzatura rispetto a Metatrader, ma la gente lavora anche su questo. A proposito, se i meta-citi non pensano a dominare questo squallore, il loro destino sarà lo stesso di adesso.

Quello che sto dicendo qui è che si può scavare molto profondamente nelle citazioni di DT, e si può anche trovare qualcosa, ma sarà piuttosto traballante. Vi chiedo di capire bene, non c'è nessuna critica ai centesimi o al processo di formazione dei centesimi. Fanno tutto bene e per la maggior parte (quelli che sono più rispettabili) non imbrogliano nessuno. Ma se si guardano i dati che arrivano dal "mercato" attraverso le società di intermediazione al cliente, allora non si può fare a meno di pensare che le società di intermediazione sono macchine che filtrano e rendono. Ho già detto cosa succede se un processo casuale viene applicato a un certo processo significativo - il processo risultante sarà lo stesso casuale.

Per evitare la domanda "Credo che si possa guadagnare sul commercio di intermediazione Forex" dovrei dire subito - sì, credo che si possa. Ma non molto, non per molto tempo e non per tutti. Infatti, con un rischio non molto alto si può giocare per un giorno o più, ma il reddito sarà, se si gioca correttamente, lo stesso della variazione del prezzo nel corso della giornata, che non è molto alto.

Questa è la mia opinione. Tornando all'argomento in discussione, la conversione della carta tradizionale nell'altra, posso dire che personalmente, questa conversione mi ha aiutato nella mia ricerca. Ma non molto. Praticamente non c'è scelta, tra tutte le possibilità che abbiamo a disposizione, solo il prezzo non è chiaro. C'è anche una nozione di tick rate che in qualche modo corrisponde all'attività dei mercati mondiali, ma il grado di questa corrispondenza è illusorio ed effimero. Cosa ci si può fare? Beh, per prima cosa, considerate la storia fino agli anni 2004-2003 solo, non cercate oltre "il mercato era diverso allora". Considera ogni settimana/giorno separatamente. Considerate il passaggio da una settimana all'altra, cioè i fine settimana, separatamente. Considera almeno il tempo di attività delle principali borse. Per considerare almeno quelle poche notizie in un anno, alle quali il mercato ha davvero reagito. Sostituire OHLC come una reliquia del passato oscuro. Non considerare gli estremi locali (zigzag, kagirenko) come la verità finale, questi estremi sono molto improbabili. E così via. In pratica tutto si traduce nel dover formare i propri dati, nella propria rappresentazione, a partire da un flusso iniziale di tick (o minuti).

Un'ultima cosa. Da notare che non dico mai di sapere sempre tutto correttamente. Quindi, anche qui, potrei sbagliarmi.

 

Prival 13.01.2008 03:08

Avete mai pensato che le linee di supporto (resistenza) sono polinomi di primo grado (equazione della linea retta) y(x)=a*x+b. E può e sembra funzionare non solo nell'arco della giornata. Quando il prezzo rimbalza quando si avvicina a un forte livello di resistenza o, per esempio, è in corso una correzione e a questo punto la curva della curva può essere descritta dal polinomio di secondo grado (parabola) y(x)=c*x^2+a*x+b. Per alcune oscillazioni stabili nel canale, è possibile utilizzare MNC per trovare un polinomio di grado superiore. Cioè si dovrebbe scegliere un grado di un polinomio secondo qualche criterio (insegnare al computer a farlo, come fa un umano) + molte persone sono già arrivate alla conclusione che se sapessero (sanno) quando iniziare a costruire, diciamo, PriceCannel (profondità di campionamento), possono costruire un TS abbastanza buono.

Se stiamo parlando delle cosiddette strategie di "canale", la cui essenza è quella di identificare alcune tendenze, anche se sono descritte non da una semplice regressione lineare, ma da polinomi, allora generalmente credo in loro. Inoltre, penso che il mercato abbia solo una cosa - tendenze in canali ascendenti e discendenti. Ma le linee di supporto/resistenza tradizionali non hanno molta relazione con loro. Il problema con questi canali è che tradizionalmente non mostrano molti risultati sui dati tradizionali. Almeno questo è il modo in cui ha funzionato per me. Ci sono molti dati che "ostacolano" la costruzione di un trend di prezzo massimo utilizzando ISC. Il più delle volte abbiamo una tendenza

di cambiamenti nel carattere del "rumore".

Ma l'idea suggerita la contiene, possiamo impostare il grado del polinomio + la profondità N per una settimana, e l'algoritmo deciderà se usare l'intero campione N o solo una parte di esso, può anche scegliere qualsiasi quantità di dati (cifre) per l'analisi dalle ultime 2 cifre fino a N e selezionare un polinomio. E diciamo che il divario è la massima varianza, quindi l'algoritmo dovrebbe selezionare gli ultimi 2 punti e solo una linea retta attraverso 2 punti, lag = 0. Qualcosa del genere.

Sì, questo è stato discusso a lungo sia su questo forum che nel "thread parallelo". È praticamente dove la comunità locale ha iniziato. Ma mi sembra che non si applichi realmente ai filtri adattativi tradizionali.

È solo un'idea di molti di loro, forse verrà fuori qualcosa di buono. Ho cercato di mostrare il più chiaro possibile a chi vuole costruire qualcosa di adattivo, come farlo, senza ricorrere a termini complessi. E su questo"ma prima preparare dati adeguati per DSP", sì infatti lo faccio, perché credo che sull'asse X anche numero casuale e non dovrebbe essere dimenticato. Sull'asse Y abbiamo già inventato molto, ma sull'asse X stiamo ancora costruendo barre di 100 anni fa (con un intervallo costante). Ne ho scritto qui ('Tick builders. Ottimizzazione. DDE in VB (VBA)'), anche Renata mi ha fatto un regalo. Sto pensando ora a come prepararlo correttamente per il DSP :-) + anche tutto il tempo a pensare qual è il segnale (componente utile che muove questa curva), e se c'è rumore qui.

I bar sono una tradizione basata sulla capacità. In effetti, la tecnologia che permette di sbarazzarsi delle barre e passare ad altre forme di rappresentazione delle informazioni è apparsa non molto tempo fa. Contando per anni, non siamo troppo duri con loro.

P.S. E il fatto che uno discuta, non sia d'accordo è buono. Nelle controversie (quelle corrette) a volte nasce la verità. E con te pronto a discutere e non solo regali sotto forma di libri, consegnare. Avrei versato il cognac, ma non posso allegarlo :-).

:)

ZS terribile non conveniente motore di forum.

 

a Prival

Prival, non mi scuso per il mio post, dice tutto correttamente. E non c'è una parola che non capisca nulla di DSP, ma c'è solo un atteggiamento verso un particolare "filtraggio adattivo" proposto.

Mi sembra che scrivendo della mia proposta e sostenendo che non c'è un filtraggio adattivo, grasn si sbaglia.

Non ha torto su nessun punto.

E non sarà in grado di rispondere dove, quando e per quale motivo, diciamo, è necessario applicare una finestra di Hemming, e quando la sua applicazione danneggia solo. Qual è la differenza tra il filtro adattivo Wiener dal filtro Widrow-Hopf quando si analizza il loro FFC o filtro Butterworth da Chebyshev, quando è necessario e può applicare il primo filtro, e quando il secondo.

Ti sei divertito? In generale, naturalmente, fatto correttamente, ma qual è il punto? Oltre a diversi gigabyte di spazzatura elettronica su DSP, ho sul mio scaffale altri cinque libri, che, potete immaginare, ho letto (anche se non sono diventati le mie raccomandazioni sul desktop). E alle sue domande, signor professore, naturalmente posso rispondere. Prival, ho scritto che sono autodidatta, ma questo non significa che sono un completo idiota.

PS1: ho servito solo nelle Forze di Difesa Aerea, quindi posso leggere la mia posizione dal paragrafo 27 della mia carta d'identità militare (per renderla più solida :o): "comandante del dipartimento degli impianti di controllo radio dei missili antiaerei". E so più che bene (come scrivono di solito - non per sentito dire :o) che i nostri famosi complessi (e non solo i nostri) non solo sparano verso il basso, non vedono nemmeno veramente i bersagli. Prival, fai attenzione ai radar forex... e soprattutto alla frequenza di Nyquist che governa il mondo. :о)

PS2: Prival, non sei molto fortunato con me - il fatto che tu abbia insegnato DSP non significa altro che rispetto per me. E se vedo delle vere e proprie sciocchezze, lo scrivo, indipendentemente dalle posizioni e dai gradi :o)

aVento del Nord

Bello da vedere!!!! Ho anche praticamente smesso di partecipare al forum, anche se ogni tanto litigo con Prival. Ho una domanda per voi. Ricordo che hai indagato sull'uso dello zigzag, e l'hai descritto come molto semplice, inventato da qualcuno quasi un secolo prima dell'ultimo, o anche più tardi. Voglio usarlo per un piccolo esperimento in un seguito di 'Stochastic Resonance' (post grasn 28.10.2007 13:26).
Potresti descriverlo più dettagliatamente o fornire un link? Bisogno di testare qualche pensiero.

 
NorthernWind:

Prival 13.01.2008 03:08

Sì, è stato discusso a lungo sia su questo forum che nel "thread parallelo". È praticamente dove la comunità locale ha iniziato. Ma mi sembra che non sia molto rilevante per i filtri adattativi tradizionali.


Quindi non si dovrebbe scavare troppo (anche se il link in questo thread è già stato a una lezione sul DSP). Eccone un pezzo. Che ci siano filtri costruiti da ANC e la profondità di campionamento è importante, per quasi tutti i tipi di filtro, e per ANC specialmente.

A grasn lei stesso ha dato un link a questo materiale, e che dire di questo (Oggetto #3)? Che indipendentemente dai gradi, ecc. E per il radar, ho già denunciato per iscritto quello che ho scritto qui :-( È un peccato che sono rimasto senza 13, quei pazzi prima puniscono e poi sistemano.

File:
filtr_mnk.zip  87 kb
 
Prival:
NorthernWind:

Prival 13.01.2008 03:08

Sì, è stato discusso a lungo sia su questo forum che nel "thread parallelo". È praticamente dove la comunità locale ha iniziato. Ma mi sembra che non sia molto rilevante per i filtri adattativi tradizionali.


Solo per non scavare troppo (anche se il link in questo thread era già sulla lezione di DSP). Eccone un po'. Che ci siano filtri costruiti da OLS e la profondità di campionamento è importante, per quasi tutti i tipi di filtro, e specialmente per OLS.

A grasn tu stesso hai dato un link a questo materiale, ma che dire di questo (Oggetto #3)? Che indipendentemente dai gradi ecc. E per il radar che ho già segnalato per iscritto, per quello che ho scritto qui :-( È un peccato che io sia senza 13, quei pazzi puniscono prima e poi risolvono.

Prival, un minimo diverso e un filtro leggermente diverso che avevo almeno in mente. sezione "Widrow-Hopf Adaptive Least Squares Algorithm" Argomento 11, per niente 3
Sono stato in grado di attaccarlo.

PS: Prival, sono un po' confuso, ti hanno tolto il bonus per aver scritto la parola "radiolocalizzazione" sul forum dei commercianti?

File:
dsp11.zip  124 kb
 

grasn 13.01.2008 14:14

Bello da vedere!!!! Ho praticamente smesso di partecipare al forum, anche se ogni tanto litigo con Prival. Ho una domanda per voi. Ricordo che hai condotto alcune ricerche utilizzando gli zigzag e li hai descritti come molto semplici, inventati da qualcuno prima del secolo scorso o anche dopo. Voglio usarlo per un piccolo esperimento in continuità con 'Стохастический резонанс' (post grasn 28.10.2007 13:26).
Potresti descriverlo più dettagliatamente o darmi un link? Ho bisogno di controllare qualche idea.

Anche per me è un piacere vederti e sono felice di provare a rispondere alle domande.

Sullo zigzag. Nel libro in cui ho visto per la prima volta la sua definizione non era certo chiamato zigzag (credo Kendall e Stewart). Si trattava di trovare punti di estremi locali del primo ordine. Non hanno detto niente di speciale, hanno solo detto che un estremo locale è quando i punti a sinistra e a destra del grafico in questione sono entrambi più piccoli o più grandi. Questo è tutto. È stato anche correlato agli estremi locali del secondo ordine quando gli estremi del primo ordine a sinistra e a destra sono entrambi più piccoli o più grandi. Solo che in questo caso non si devono guardare gli estremi vicini ma attraverso uno, poiché gli estremi vicini saranno in ogni caso minori o maggiori. Il terzo ordine è simile al secondo ordine, ma è costruito sulla base degli estremi del secondo ordine. E così via. La costruzione Kagi a cui non sei estraneo sfrutta la stessa idea, solo che "meno di H"/"più di H" è usato al posto di "meno di H"/"più di H". Non c'è altro da dire. L'algoritmo è adatto per i punti ed è poco adatto per OHLC, a causa del fatto che ci sono 4 valori in un punto. C'è un trucco, quando uno dei punti è uguale al vicino, allora bisogna prendere una decisione, - gli anziani saggi non dicono cosa. Personalmente ho semplicemente convertito tutti i punti vicini con valori uguali a uno. Ho guardato come la gente ha implementato gli zigzag, è molto complicato, qualche tipo di array temporaneo, ecc. Per me era sufficiente usare diverse variabili e un passaggio. Ho solo bisogno di memorizzare l'ultimo estremo identificato (che può variare) e l'estremo precedente identificato per il confronto. Cioè, analizzerà tre punti: il punto attuale, l'ultimo estremo identificato che è ancora incompleto e il penultimo estremo. Questo è per il caso di kaga.

Facendo riferimento al link. Condivido questa frase: "Il segnale, tuttavia, tiene conto della "struttura energetica" dei dati di ingresso ed è in un certo senso migliore di uno zigzag classico la cui validità degli estremi è per me molto dubbia". Io stesso mi sono dilettato in tali costruzioni - stavo cercando i minimi e i massimi con alcune medie (funzioni). Purtroppo il problema si è rivelato un po' più complicato. Almeno per me. L'idea che questi estremi caratterizzino in qualche modo lo stato d'animo di comprare/vendere per i cambiatori e i commercianti è un'idea eccitante in sé. E su qualche semplice modello matematico di acquisto e vendita delle folle era esattamente lo stesso. Ma la realtà è diversa e molti estremi marcati in questo modo non hanno mostrato nulla di utile. Così ho messo da parte l'idea, ma non l'ho dimenticata. È troppo semplice e chiaro. Ma questo sono io, altri possono essere più fortunati.

Prival 13.01.2008 14:24

Quindi non devi scavare troppo (anche se il link in questo thread era già su una lezione sul DSP). Eccone un pezzo. Che ci sono filtri che sono costruiti da LOC, mentre la profondità di campionamento è importante per quasi tutti i tipi di filtri, e soprattutto per LOC.

Ahh! Allora è di questo che stiamo parlando! Ti dirò un segreto, io uso proprio questi filtri che sono descritti nel link. Solo che io li prendo non come un "filtro", ma come una funzione che dà qualche stima migliore in termini di probabilità e di una legge data. Anche se, naturalmente, si possono guardare come filtri. Sfortunatamente, queste formule danno una stima del punto medio, quindi le uso come strumento di ricerca, ma non come strumento di previsione. Francamente parlando, ovviamente avrei dovuto dedurre una forma per stimare il punto estremo, ma sono troppo pigro per farlo.

A proposito, oltre a quello che avete a portata di mano, su questo argomento, potete guardare "Statistical Analysis of Time Series" di T. Anderson. Capitolo 3.3.1 "Procedure di lisciatura".

E a proposito, c'è un tipo speciale di spline con proprietà simili, dove una curva è costruita sulla base delle funzioni più semplici per dare una stima migliore in termini di MNC.