Adaptive digitale Filter - Seite 4

 

Privater

Ich entschuldige mich, ich war nicht vorsichtig in meinen Bemerkungen. Ich persönlich habe nie daran gedacht, irgendwelche Zweifel an Ihrer Kompetenz in Sachen DSP zu äußern. Ich denke, das gilt auch für grasn (ich hoffe, grasn verzeiht mir, dass ich mich in seinem Namen "abgemeldet" habe). Es geht um die Idee und die Forschungsmethodik selbst. Nichts Persönliches. Alle Autoren, die in diesem Forum aktiv "nach mathematischen Methoden graben", behandle ich im Hinblick auf die Einzigartigkeit dieser Gemeinschaft streng positiv. Und in Anbetracht der Perspektiven, die sie (die Gemeinschaft) hat. Aber ich kann Ihrem Vorschlag nicht zustimmen, denn ich glaube nicht an Polynome als Werkzeug, das eine Art "Vorhersagekraft" hat. Es geht um Zeitintervalle von weniger als einem Tag, und Sie wollen Ihre Idee in kleinen Abständen genau ausnutzen. Ich sehe einfach nicht den Grund, der das Polynom - das ja absolut an die Signalfunktion (nach irgendeinem Kriterium) angepasst ist - dazu zwingt, eine Prognose des Preisverhaltens zu erstellen. Denn die Vorhersage wird immer etwa 50\50 betragen. Dies liegt sowohl an den Vorgängen auf dem "Markt" als auch an der Form der Signaldarstellung, die in ihrem Wesen das Bild völlig verzerrt. Wenn Sie DSP im Handel einsetzen wollen, können Sie das gerne tun, aber bereiten Sie zunächst geeignete Daten für DSP vor. Das "Signal" selbst ist sicherlich im Preis enthalten, aber. Aber der Pegel dieses Signals ist (wie Mathemat richtig bemerkt zu haben scheint) um ein Vielfaches geringer als das "Rauschen" (obwohl es auf dem "Markt" kein "Rauschen" gibt). Überlagert wird dies durch die Nicht-Stationarität des Signals selbst. Infolgedessen funktioniert fast keine der traditionellen Methoden. Ich glaube nicht, dass dies daran liegt, dass die DSP-Theorie falsch ist - natürlich ist sie das, nur ist das Signal hier völlig anders. Ein Signal, bei dem ein großer Teil der Informationen einfach verloren geht. Und paradoxerweise sind viele Informationen einfach unnötig. Sie sagten, Sie seien ein Mann des Militärs, also sehen Sie es als Tatsache an, dass alle Ihre Geräte mit Interferenzen verstopft sind, hinter denen Sie das Signal des feindlichen Flugzeugs nicht sehen können. Und diese Störungen sind von sehr hoher Qualität. Aber wenn Sie nach draußen gehen und in den Himmel schauen, werden Sie sofort alles sehen. Aber aus der Hüfte zu zielen und zu schießen ist nicht die beste Lösung. :)

Und danke für das Geschenk, ich werde auf jeden Fall Zeit finden, mich damit vertraut zu machen.

 
Ich schlage vor, dass wir uns einer anderen Aufgabe zuwenden: Wir müssen die übliche Diagrammdarstellung (basierend auf Balken mit gleichen astronomischen Zeitintervallen) in eine Darstellung mit möglichst wenigen Katastrophen umwandeln (vorzugsweise mit stationären p.d.f.-Renditen). Dies könnte übrigens eine der von NorthernWind erwähnten Herausforderungen einer angemessenen Datenaufbereitung für DSP sein. Katastrophen (insbesondere Mikrokatastrophen innerhalb von Wohnungen) brechen praktisch alle bekannten traditionellen Indirektoren. Die Umwandlung muss übrigens überhaupt nicht eindeutig sein (viele Indirektoren sind nicht eindeutige Operationen auf Daten, und das stört uns nicht).

Wenn es stichhaltige Argumente dagegen gibt, schließen Sie sich bitte den Kritikern an.
 
NorthernWind:

Privater

Es tut mir leid, ich war nicht vorsichtig in meinen Bemerkungen. Ich persönlich habe nie daran gedacht, irgendwelche Zweifel an Ihrer Kompetenz in Sachen DSP zu äußern. Ich denke, dasselbe gilt auch für grasn (ich hoffe, grasn wird mir verzeihen, dass ich mich in seinem Namen "abmelde"). Es geht um die Idee und die Methodik der Forschung selbst. Nichts Persönliches. Alle Autoren, die in diesem Forum aktiv "nach mathematischen Methoden graben", behandle ich im Hinblick auf die Einzigartigkeit dieser Gemeinschaft streng positiv. Und in Anbetracht der Perspektiven, die sie (die Gemeinschaft) hat. Aber ich kann Ihrem Vorschlag nicht zustimmen, denn ich glaube nicht an Polynome als Instrument, das eine Art "Vorhersagekraft" hat. Es geht um Zeitintervalle von weniger als einem Tag, und Sie wollen Ihre Idee in kleinen Abständen genau ausnutzen. Ich sehe einfach nicht den Grund, der das Polynom - das ja absolut an die Signalfunktion (nach irgendeinem Kriterium) angepasst ist - dazu zwingt, eine Prognose des Preisverhaltens zu erstellen. Denn die Vorhersage wird immer etwa 50\50 betragen. Das liegt zum einen an den Vorgängen im "Markt", zum anderen an der Darstellungsform des Signals, die das Bild faktisch völlig verzerrt. Sie wollen DSP im Handel einsetzen - nur zu, aber bereiten Sie vorher entsprechende Daten für DSP vor. Das "Signal" selbst ist sicherlich im Preis enthalten, aber. Aber der Pegel dieses Signals ist (wie Mathemat richtig bemerkt zu haben scheint) um ein Vielfaches geringer als das "Rauschen" (obwohl es auf dem "Markt" kein "Rauschen" gibt). Überlagert wird dies durch die Nicht-Stationarität des Signals selbst. Infolgedessen funktioniert fast keine der traditionellen Methoden. Ich glaube nicht, dass dies daran liegt, dass die DSP-Theorie falsch ist - natürlich ist sie das, nur ist das Signal hier völlig anders. Ein Signal, bei dem ein großer Teil der Informationen einfach verloren geht. Und paradoxerweise sind viele Informationen einfach unnötig. Sie sagten, Sie seien vom Militär, also sehen Sie es als Tatsache an, dass alle Ihre Geräte mit Interferenzen verstopft sind, hinter denen Sie das Signal des feindlichen Flugzeugs nicht sehen können. Und diese Störungen sind von sehr hoher Qualität. Aber wenn Sie nach draußen gehen und in den Himmel schauen, werden Sie sofort alles sehen. Aber aus der Hüfte zu zielen und zu schießen ist nicht die beste Lösung. :)

Danke für das Geschenk, ich werde auf jeden Fall Zeit finden, es mir anzusehen.

Haben Sie schon einmal daran gedacht, dass Unterstützungs- (Widerstands-) Linien Polynome ersten Grades sind (Geradengleichung) y(x)=a*x+b? Wenn der Preis auf dem Niveau eines starken Widerstands abprallt oder eine Korrektur beginnt, kann die Kurve durch das Polynom zweiten Grades y(x)=c*x^2+a*x+b beschrieben werden. Für einige stabile Schwingungen im Kanal können Sie MNC verwenden, um ein Polynom höheren Grades zu finden. D.h. es ist notwendig, den Grad eines Polynoms nach einem bestimmten Kriterium zu wählen (dem Computer beizubringen, dies zu tun, wie es ein Mensch tut) + viele Leute sind bereits zu dem Schluss gekommen, dass sie, wenn sie wüssten (wissen), wann sie mit der Bildung von, sagen wir, PriceCannel (Abtasttiefe) beginnen sollten, einen ziemlich guten TS bauen könnten.

Aber die vorgeschlagene Idee hat es, können wir das Polynom Grad + Tiefe N, sagen wir, eine Woche, und der Algorithmus selbst wählen, ob die gesamte Stichprobe N oder nur seinen Teil zu verwenden, kann es auch wählen, eine beliebige Menge von Daten (Ziffern) für die Analyse von den letzten 2 Ziffern zu N und wählen Sie ein Polynom. Und nehmen wir an, der Abstand ist die maximale Varianz, so sollte der Algorithmus die letzten 2 Punkte und nur eine gerade Linie durch 2 Punkte auswählen, lag = 0. Etwa so.

Es ist so eine einfache Idee, es gibt viele davon, vielleicht kommt etwas Gutes dabei heraus. Ich habe versucht, es so klar wie möglich zu machen, um denjenigen, die etwas Adaptives bauen wollen, zu zeigen, wie man es macht, ohne auf komplexe Begriffe zurückzugreifen. Und zu diesem"aber erst einmal geeignete Daten für den DSP vorbereiten", ja, das tue ich, denn ich glaube, dass die X-Achse auch eine Zufallszahl ist und das sollte nicht vergessen werden. Auf der Y-Achse haben wir schon viel erfunden, aber auf der X-Achse bauen wir immer noch Balken wie vor 100 Jahren (mit einem konstanten Abstand). Ich habe hier darüber geschrieben ('Tick builders. Optimierung. DDE in VB (VBA)'), hat mir sogar Renata ein Geschenk gemacht. Ich überlege jetzt, wie ich es richtig für DSP vorbereite :-) + auch die ganze Zeit überlegen, was ist das Signal (Nutzkomponente, was bewegt diese Kurve), und ob es hier Rauschen gibt.

P.S. Und die Tatsache, dass man streitet und anderer Meinung ist, ist gut. In Streitigkeiten (richtig) wird manchmal die Wahrheit geboren. Und mit Ihnen bin ich bereit zu streiten und nicht nur Geschenke in Form von Büchern zu machen, sondern sie zu übergeben. Ich hätte auch Brandy eingeschenkt, aber ich kann ihn nicht anbringen :-).

 
Mathemat:
Ich schlage vor, dass wir uns einer anderen Aufgabe zuwenden: Wir müssen die übliche Diagrammdarstellung (basierend auf Balken mit gleichen astronomischen Zeitintervallen) in eine Darstellung mit möglichst wenigen Katastrophen umwandeln (vorzugsweise mit stationären p.d.f.-Renditen). Dies könnte übrigens eine der von NorthernWind erwähnten Herausforderungen bei der angemessenen Datenaufbereitung für DSP sein. Katastrophen (insbesondere Mikrokatastrophen innerhalb von Wohnungen) brechen praktisch alle bekannten traditionellen Indirektoren. Die Umwandlung muss übrigens überhaupt nicht eindeutig sein (viele Indirektoren sind nicht eindeutige Operationen auf Daten, und das stört uns nicht).

Wenn Sie ein stichhaltiges Argument dagegen haben, schließen Sie sich bitte den Kritikern an.

Zu dem Zeitpunkt, als ich schrieb, war Mathemat bereits zum Telepathen geworden :-). Ich bin dafür. Ich schlage vor, dass wir damit beginnen, die "Katastrophen" zu minimieren und uns dann mit ihnen auseinandersetzen. Und nicht nur Indikatoren brechen, ist der gute alte Fourier fliegen weg, und wie es zu essen, wenn wir nicht wissen, welche Abtastrate es zu schwierig ist.
 
Mathemat:
Ich schlage vor, dass wir uns einem anderen Problem zuwenden: Wir müssen die übliche Diagrammdarstellung (basierend auf Balken mit gleichen astronomischen Zeitintervallen) in eine Darstellung mit möglichst wenigen Katastrophen umwandeln (vorzugsweise mit stationären p.d.f.-Renditen). Dies könnte übrigens eine der von NorthernWind erwähnten Herausforderungen bei der angemessenen Datenaufbereitung für DSP sein. Katastrophen (insbesondere Mikrokatastrophen innerhalb von Wohnungen) brechen praktisch alle bekannten traditionellen Indirektoren. Die Umwandlung muss übrigens überhaupt nicht eindeutig sein (viele Indirektoren sind nicht eindeutige Operationen auf Daten, und das stört uns nicht).

Wenn es stichhaltige Argumente dagegen gibt, schließen Sie sich bitte den Kritikern an.

Vor nicht allzu langer Zeit gab es hier in einem der benachbarten Threads einen Überfall von ungeduldigen m0thematist-maximalists. Obwohl das Gespräch mit ihnen nicht sehr gut verlaufen ist, möchte ich trotzdem sagen, dass sie sehr korrekt sprechen, praktisch "meine Gedanken denken". Das Wichtigste, was hier gesagt wurde und was ich allen Interessierten ans Herz lege, ist, dass sie es beachten. Sie müssen auf dem realen Markt arbeiten und nicht auf einem Forex-Brokerage-Haus. Dann haben Sie nicht nur Informationen über den Preis, sondern auch über das Volumen, das Interesse, die Einsätze, den Kursverlauf und so weiter. Zweifellos ist der Austausch komplizierter als das Erraten der Richtung der Zahlen auf dem Bildschirm beim DC-Gewinnspiel, aber auch viel näher am Konzept eines Live-Marktes, wo der Preis durch das Gleichgewicht von Angebot und Nachfrage und die Stimmung der Teilnehmer bestimmt wird. Natürlich sind Quick und Co. im Vergleich zu Metatrader Schrott, aber auch daran wird gearbeitet. Übrigens, wenn die Metaquotes nicht daran denken, dieses Elend zu meistern, wird ihr Schicksal dasselbe sein wie jetzt.

Was ich damit sagen will, ist, dass man sehr tief in Zitaten von DTs graben kann und vielleicht sogar etwas findet, aber es wird ziemlich wackelig sein. Ich bitte Sie, richtig zu verstehen, dass es keine Kritik an den Cents oder dem Prozess der Centbildung gibt. Sie machen alles richtig und betrügen in den meisten Fällen (die seriöseren unter ihnen) niemanden. Wenn man sich jedoch die Daten ansieht, die vom "Markt" über die Maklerfirmen zum Kunden gelangen, dann kann man sich des Eindrucks nicht erwehren, dass die Maklerfirmen Filter- und Rendering-Maschinen sind. Ich habe bereits gesagt, was passiert, wenn man einen Zufallsprozess auf einen bestimmten sinnvollen Prozess anwendet - der resultierende Prozess wird derselbe Zufall sein.

Um die Frage "Glaube ich, dass man am Forex-Brokerage-Handel verdienen kann" zu vermeiden, sollte ich sofort sagen - ja, ich glaube, man kann. Aber nicht viel und nicht für lange Zeit und nicht für jeden. In der Tat, mit nicht sehr hohes Risiko können Sie für einen Tag oder mehr zu spielen, aber das Einkommen wird, wenn Sie richtig spielen, das gleiche wie die Preisänderung im Laufe des Tages, das ist nicht sehr hoch sein.

Das ist meine Meinung. Um auf das Thema zurückzukommen, um das es hier geht, die Umwandlung der traditionellen Karte in die andere, kann ich sagen, dass mir persönlich diese Umwandlung bei meiner Suche geholfen hat. Aber nicht viel. Praktisch gibt es keine Wahl, von allen Möglichkeiten, die wir haben, ist nur der Preis nicht klar. Es gibt auch eine Vorstellung von der Tickrate, die in gewisser Weise mit der Aktivität der Weltmärkte korrespondiert, aber der Grad dieser Korrespondenz ist illusorisch und flüchtig. Was kann man damit machen? Betrachten Sie zunächst nur die Geschichte bis zu den Jahren 2004-2003, suchen Sie nicht weiter nach "der Markt war damals anders". Betrachten Sie jede Woche/jeden Tag einzeln. Betrachten Sie den Übergang von einer Woche zur anderen, d. h. die Wochenenden, getrennt. Berücksichtigen Sie zumindest die Aktivitätszeiten der großen Börsen. Um wenigstens die wenigen Nachrichten im Jahr zu berücksichtigen, auf die der Markt wirklich reagiert hat. Ersetzen Sie OHLC als ein Relikt aus der dunklen Vergangenheit. Betrachten Sie lokale Extrema (Zickzack, Kagirenko) nicht als die endgültige Wahrheit, diese Extrema sind sehr unwahrscheinlich. Und so weiter. In der Praxis läuft alles darauf hinaus, dass man seine eigenen Daten in seiner eigenen Darstellung aus einem anfänglichen Strom von Ticks (oder Minuten) bilden muss.

Eine letzte Sache. Wohlgemerkt, ich behaupte nicht, dass ich immer alles richtig weiß. Auch hier kann ich also falsch liegen.

 

Privatperson 13.01.2008 03:08

Haben Sie schon einmal darüber nachgedacht, dass Unterstützungs- (Widerstands-) Linien Polynome ersten Grades sind (Geradengleichung) y(x)=a*x+b. Und es kann und scheint nicht nur innerhalb des Tages zu funktionieren. Wenn der Kurs bei der Annäherung an einen starken Widerstand abprallt oder z.B. eine Korrektur stattfindet und an diesem Punkt der Kurvenverlauf durch das Polynom zweiten Grades (Parabel) y(x)=c*x^2+a*x+b beschrieben werden kann. Für einige stabile Schwingungen im Kanal können Sie MNC verwenden, um ein Polynom höheren Grades zu finden. D.h. nach irgendeinem Kriterium sollte der Polynomgrad ausgewählt werden (um dem Computer beizubringen, es zu tun, wie ein Mensch es tut) + viele Leute sind bereits zu dem Schluss gekommen, dass sie, wenn sie wissen (wissen), wann sie mit dem Aufbau von, sagen wir, PriceCannel (Abtasttiefe) beginnen, einen ziemlich guten TS bauen können.

Wenn es sich um die so genannten "Channel"-Strategien handelt, bei denen es im Wesentlichen darum geht, bestimmte Trends zu erkennen, auch wenn sie nicht durch einfache lineare Regression, sondern durch Polynome beschrieben werden, dann glaube ich im Allgemeinen an sie. Außerdem denke ich, dass der Markt nur eines hat - Trends in auf- und absteigenden Kanälen. Das Problem mit diesen Kanälen ist, dass sie bei den traditionellen Daten keine großen Ergebnisse zeigen. Zumindest hat es bei mir so funktioniert. Es gibt eine Menge Daten, die die Konstruktion eines maximalen Preistrends mit ISC "behindern". Meistens gibt es einen Trend

der Veränderung des Charakters von "Lärm".

Aber die vorgeschlagene Idee beinhaltet es, wir können den Polynomgrad + Tiefe N für eine Woche einstellen, und der Algorithmus wird entscheiden, ob er die gesamte Stichprobe N oder nur einen Teil davon verwendet, er kann auch eine beliebige Menge von Daten (Ziffern) für die Analyse von den letzten 2 Ziffern bis zu N wählen und ein Polynom auswählen. Und nehmen wir an, der Abstand ist die maximale Varianz, so sollte der Algorithmus die letzten 2 Punkte und nur eine gerade Linie durch 2 Punkte auswählen, lag = 0. Etwa so.

Ja, das wird schon seit langem sowohl in diesem Forum als auch im "Parallelthread" diskutiert. Das ist praktisch der Ausgangspunkt der lokalen Gemeinschaft. Aber ich habe den Eindruck, dass dies nicht wirklich auf traditionelle adaptive Filter zutrifft.

Es ist nur eine Idee von vielen von ihnen, vielleicht kommt etwas Gutes dabei heraus. Ich habe versucht, denjenigen, die etwas Adaptives bauen wollen, so klar wie möglich zu zeigen, wie man es macht, ohne auf komplexe Begriffe zurückzugreifen. Und zu diesem"aber erst einmal geeignete Daten für den DSP vorbereiten", ja, das tue ich, denn ich glaube, dass auf der Achse X auch eine Zufallszahl liegt und die sollte man nicht vergessen. Auf der Y-Achse haben wir schon viel erfunden, aber auf der X-Achse bauen wir immer noch Balken wie vor 100 Jahren (mit einem konstanten Abstand). Ich habe hier darüber geschrieben ('Tick builders. Optimierung. DDE in VB (VBA)'), hat mir sogar Renata ein Geschenk gemacht. Ich überlege jetzt, wie ich es richtig für DSP vorbereite :-) + auch die ganze Zeit denken, was ist das Signal (nützliche Komponente, die diese Kurve bewegt), und ob es Rauschen hier.

Bars sind eine Tradition, die auf Fähigkeiten beruht. Die Technologie, die es ermöglicht, die Balken abzuschaffen und zu anderen Formen der Informationsdarstellung überzugehen, ist noch nicht lange her. Wir zählen seit Jahren, also seien wir nicht zu streng mit ihnen.

P.S. Und die Tatsache, dass man argumentiert, ist nicht gut. In (richtigen) Streitigkeiten wird manchmal die Wahrheit geboren. Und mit Ihnen bereit zu streiten und nicht nur Geschenke in Form von Büchern zu überreichen. Ich hätte Cognac eingeschenkt, aber ich kann ihn nicht anbringen :-).

:)

ZS schrecklich nicht bequem Forum Motor.

 

zum Privaten

Prival, ich werde mich nicht für meinen Beitrag entschuldigen, er sagt alles richtig. Und es gibt kein Wort dafür, dass du nichts von DSP verstehst, sondern es gibt nur eine Einstellung zu einer bestimmten vorgeschlagenen "adaptiven Filterung".

Es scheint mir, dass grasn falsch liegt, wenn er über meinen Vorschlag schreibt und behauptet, dass es dort keine adaptive Filterung gibt.

Das ist in keinem Punkt falsch.

Und wird nicht in der Lage sein, zu beantworten, wo, wann und aus welchem Grund, sagen wir, ist es notwendig, ein Hemming-Fenster gelten, und wenn seine Anwendung nur schadet. Was ist der Unterschied zwischen Wiener adaptive Filter von Widrow-Hopf-Filter bei der Analyse ihrer FFC oder Butterworth-Filter von Tschebyscheff, wenn Sie brauchen und können die erste Filter, und wenn die zweite.

Hat es Ihnen Spaß gemacht? Im Allgemeinen natürlich richtig gemacht, aber was soll das bringen? Neben mehreren Gigabyte elektronischem Müll über DSP habe ich noch fünf weitere Bücher in meinem Regal stehen, die ich, wie Sie sich vorstellen können, gelesen habe (auch wenn sie nicht zu meinen Schreibtischempfehlungen geworden sind). Und auf Ihre Fragen, Herr Professor, kann ich natürlich antworten. Ich habe geschrieben, dass ich Autodidakt bin, aber das bedeutet nicht, dass ich ein kompletter Idiot bin.

PS1: Ich habe nur in den Luftverteidigungsstreitkräften gedient, daher kann ich meine Position aus Paragraph 27 meines Militärausweises vorlesen (um ihn zu verfestigen :o): "Kommandeur der Abteilung für Flugabwehrraketen-Funksteuerungseinrichtungen". Und ich weiß mehr als gut (wie sie normalerweise schreiben - nicht vom Hörensagen :o), dass unsere berühmten Komplexe (und nicht nur unsere) nicht nur abschießen, sondern die Ziele nicht einmal wirklich sehen. Prival, seien Sie vorsichtig mit Forex-Radaren... und insbesondere mit Nyquist-Frequenzen, die die Welt beherrschen. :о)

PS2: Prival, du hast kein Glück mit mir - die Tatsache, dass du DSP unterrichtet hast, bedeutet für mich nichts als Respekt. Und wenn ich völligen Unsinn sehe, schreibe ich das, unabhängig von Position und Rang :o)

nachNordwind

Gut zu sehen!!!! Ich habe auch praktisch aufgehört, mich am Forum zu beteiligen, obwohl ich gelegentlich mit Prival streite. Ich habe eine Frage an Sie. Ich erinnere mich, dass Sie die Verwendung von Zickzack untersuchten und es als ein sehr einfaches Verfahren beschrieben, das von jemandem fast ein Jahrhundert vor dem letzten erfunden wurde, oder sogar noch später. Ich möchte sie für ein kleines Experiment in einer Fortsetzung von 'Stochastische Resonanz' (post grasn 28.10.2007 13:26) verwenden.
Könnten Sie es genauer beschreiben oder einen Link angeben? Ich muss einige Gedanken testen.

 
NorthernWind:

Privatperson 13.01.2008 03:08

Ja, darüber wird schon seit langem sowohl in diesem Forum als auch im "Parallelthread" diskutiert. Das ist praktisch der Ausgangspunkt der lokalen Gemeinschaft. Aber ich habe den Eindruck, dass dies für traditionelle adaptive Filter nicht sehr relevant ist.


Sie sollten also nicht zu viel suchen (obwohl der Link in diesem Thread bereits zu einem Vortrag über DSP führte). Hier ist ein Teil davon. Dass es Filter gibt, die durch ANC konstruiert werden, und dass die Abtasttiefe wichtig ist, gilt für fast alle Arten von Filtern und insbesondere für ANC.

Zu grasn haben Sie selbst einen Link zu diesem Material angegeben, und was ist damit (Thema #3)? Das ist gut, unabhängig von Dienstgrad usw. Und für Radar habe ich mich schon schriftlich gemeldet, für das, was ich hier geschrieben habe :-( Schade, dass ich ohne 13 übrig geblieben bin, diese Dummköpfe bestrafen erst und klären es dann.

Dateien:
filtr_mnk.zip  87 kb
 
Prival:
NorthernWind:

Privatperson 13.01.2008 03:08

Ja, darüber wird schon seit langem sowohl in diesem Forum als auch im "Parallelthread" diskutiert. Das ist praktisch der Ausgangspunkt der lokalen Gemeinschaft. Aber ich habe den Eindruck, dass dies für traditionelle adaptive Filter nicht sehr relevant ist.


Nur damit Sie nicht zu lange suchen müssen (obwohl der Link in diesem Thread schon auf der DSP-Vorlesung war). Hier ist ein Teil davon. Dass es Filter gibt, die durch ANC konstruiert werden, und dass die Abtasttiefe wichtig ist, gilt für fast alle Arten von Filtern, insbesondere aber für ANC.

Zu grasn haben Sie selbst einen Link zu diesem Material angegeben, aber was ist damit (Thema #3)? Das ist unabhängig von den Rängen usw., das ist gut. Und für das Radar habe ich mich schon schriftlich gemeldet, für das, was ich hier geschrieben habe :-( Schade, dass ich ohne 13 bin, diese Dummköpfe bestrafen erst und sortieren dann aus.

Prival, eine etwas andere Methode der kleinsten Quadrate und ein etwas anderer Filter, den ich zumindest im Sinn hatte. Abschnitt "Widrow-Hopf Adaptive Least Squares Algorithm" Thema 11, überhaupt nicht 3
Ich konnte sie anbringen.

PS: Prival, ich bin etwas verwirrt. Wurde Ihnen Ihr Bonus gestrichen, weil Sie das Wort "Funkortung" im Händlerforum geschrieben haben?

Dateien:
dsp11.zip  124 kb
 

grasn 13.01.2008 14:14

Gut zu sehen!!!! Ich habe auch praktisch aufgehört, mich am Forum zu beteiligen, obwohl ich gelegentlich mit Prival streite. Ich habe eine Frage an Sie. Ich erinnere mich, dass Sie einige Untersuchungen mit Zickzacklinien durchgeführt und sie als sehr einfach beschrieben haben, die von jemandem vor dem letzten Jahrhundert oder sogar später erfunden wurden. Ich möchte es für ein kleines Experiment in Fortsetzung von 'Стохастический резонанс' (post grasn 28.10.2007 13:26) verwenden.
Könnten Sie es genauer beschreiben oder mir einen Link geben? Ich muss eine Idee überprüfen.

Ich freue mich auch, Sie zu sehen und versuche gerne, Ihre Fragen zu beantworten.

Im Zickzack. In dem Buch, in dem ich die Definition zum ersten Mal gesehen habe, wurde es nicht als Zickzack bezeichnet (ich glaube, Kendall und Stewart). Es war eine Frage der Suche nach Punkten der lokalen Extremwerte der ersten Ordnung. Sie haben nichts Besonderes dazu gesagt, sondern nur, dass ein lokales Extremum dann vorliegt, wenn die Punkte links und rechts des betreffenden Diagramms kleiner oder größer sind. Das ist alles. Sie wurde auch mit den lokalen Extrema zweiter Ordnung in Verbindung gebracht, wenn die Extrema erster Ordnung auf der linken und rechten Seite kleiner oder größer sind. Nur sollte man in diesem Fall nicht auf die benachbarten Extrema schauen, sondern durch eines hindurch, da die benachbarten Extrema auf jeden Fall kleiner oder größer sein werden. Die dritte Ordnung ähnelt der zweiten Ordnung, basiert aber auf den Extrema der zweiten Ordnung. Und so weiter. Die Kagi-Konstruktion, die Ihnen nicht unbekannt ist, nutzt dieselbe Idee, nur dass "weniger als H"/"mehr als H" anstelle von "weniger als H"/"mehr als H" verwendet wird. Mehr gibt es nicht zu sagen. Der Algorithmus eignet sich für Punkte und ist für OHLC schlecht geeignet, da es in einem Punkt 4 Werte gibt. Es gibt einen Trick, wenn einer der Punkte gleich dem Nachbarn ist, dann muss man eine Entscheidung treffen, - die weisen Ältesten sagen nicht was. Ich persönlich habe einfach alle benachbarten Punkte mit gleichen Werten in einen Punkt umgewandelt. Ich habe mir angeschaut, wie die Leute Zickzack implementiert haben, es ist sehr kompliziert, irgendeine Art von temporären Arrays, usw. Für mich war es genug, mehrere Variablen und einen Durchgang zu verwenden. Alles, was ich brauche, ist die Speicherung des letzten ermittelten Extremwerts (der variieren kann) und des vorherigen Extremwerts, der zum Vergleich ermittelt wurde. Das heißt, es werden drei Punkte analysiert: der aktuelle Punkt, das letzte ermittelte Extremum, das noch nicht vollständig ist, und das vorletzte Extremum. Dies gilt für den Fall von kaga.

Bezugnehmend auf den Link. Ich teile diesen Satz: "Das Signal berücksichtigt jedoch die "Energiestruktur" der Eingabedaten und ist in gewissem Sinne besser als ein klassisches Zickzack, dessen Gültigkeit der Extrema mir sehr zweifelhaft erscheint". Ich selbst habe mich mit solchen Konstruktionen beschäftigt - ich habe nach Minima und Maxima durch Mittelwertbildung (Funktionen) gesucht. Leider erwies sich das Problem als etwas komplizierter. Zumindest für mich. Der Gedanke, dass diese Extrema in gewisser Weise den Zustand der Kauf-/Verkaufslaune von Wechslern und Händlern charakterisieren, ist an sich schon eine spannende Idee. Und bei einem einfachen mathematischen Modell für den Kauf und Verkauf von Menschenmengen war es genau dasselbe. Die Realität sieht jedoch anders aus, und viele auf diese Weise markierte Extrema haben überhaupt nichts Brauchbares ergeben. Also lege ich die Idee beiseite, aber ich vergesse sie nicht. Es ist zu einfach und klar. Aber das bin ich, andere haben vielleicht mehr Glück.

Privatperson 13.01.2008 14:24

Man muss also nicht allzu lange suchen (obwohl der Link in diesem Thread bereits auf einen Vortrag über DSP verweist). Hier ist ein Teil davon. Dass es Filter gibt, die nach LOC aufgebaut sind, während die Tiefe der Abtastung für fast alle Arten von Filtern wichtig ist, und besonders für LOC.

Ahhhh! Das ist es also, worüber wir reden! Ich verrate Ihnen ein Geheimnis: Ich verwende genau diese Filter, die in dem Link beschrieben sind. Nur verstehe ich sie nicht als einen "Filter", sondern als eine Funktion, die die beste Schätzung in Bezug auf die Wahrscheinlichkeit und ein gegebenes Gesetz liefert. Obwohl man sie natürlich auch als Filter betrachten kann. Leider geben diese Formeln eine Schätzung für den Mittelpunkt ab, so dass ich sie als Forschungsinstrument, aber nicht als Prognoseinstrument verwende. Ehrlich gesagt, hätte ich natürlich eine Form für die Schätzung des Extrempunkts ableiten müssen, aber ich bin zu faul, um das zu tun.

Übrigens, zusätzlich zu dem, was Sie zu diesem Thema zur Hand haben, können Sie sich T. Andersons "Statistische Analyse von Zeitreihen" ansehen. Kapitel 3.3.1 "Glättungsverfahren".

Übrigens gibt es eine spezielle Art von Splines mit ähnlichen Eigenschaften, bei der eine Kurve auf der Grundlage der einfachsten Funktionen konstruiert wird, um eine bestmögliche Schätzung in Bezug auf den MNC zu erhalten.