Stochastische Resonanz - Seite 26

 
Prival:

Die Aufgabe hat sich also durchgesetzt. Das ist gut. Ich werde nun versuchen, meine Gedanken zu formulieren. Wenn ich etwas Falsches (oder Unverständliches) geschrieben habe, sagen Sie es mir.

grasn

  1. Ja, es gibt tatsächlich einen Randeffekt. Aber genau das ist der Punkt, es wird oft als schlecht (störend) angesehen. Was, wenn sich hier die "stochastische Resonanz" manifestiert? Nehmen wir diese Variante an: Die Richtung der Preisbewegung stimmt mit der Richtung der Kurve überein (Resonanz), aber sie stimmt nicht überein (keine Resonanz). Wer hat es überprüft? (Vielleicht liegt dort der Gral ). Auch die verschiedenen Fenster von Henning, Hemming, Blackman usw. sind nicht zu verachten. (Verringerung dieses Effekts).
  2. Was das Rauschen betrifft, so haben WIR immer eine Mischung aus Signal und Rauschen. Und wir haben keinen Mechanismus, um ihn mechanisch vom Signal zu trennen (wie in meinem Beispiel, indem wir den Empfänger schließen und seine Intensität messen). Deshalb schlage ich eine andere Möglichkeit vor. Gehen Sie vom Begriff der Energie aus. Die Energie des Signals bewegt den Markt. Die Rauschenergie hindert uns daran, ein Nutzsignal zu sehen (zu isolieren).
  3. Wie man handelt
...

Was meinen Sie mit "auffangen"? Wir diskutieren das Thema auf zwanzig Seiten, wenn Sie es aufmerksam lesen (nehmen Sie sich Zeit). Guter Überblick über die Signalverarbeitung, danke, aber ich empfehle, alles wegzulassen, wenn Sie eine fruchtbare Arbeit zu diesem Thema machen wollen, und es durch normale digitale Tiefpassfilter der FIR- oder IIR-Klasse zu ersetzen, es sei denn, Sie sind sicher, dass Tiefpassfilter ein echtes Signal finden.

Bezüglich des Rauschens wäre es besser, ALLES auszuwählen statt WIR, das ist logischer, aber der Randeffekt wird bei diesem Ansatz schlecht entfernt, das ist eine Tatsache, und deshalb werden Sie kein Rauschen an den Rändern auswählen, das Signal selbst wird Rauschen sein.

PS: Infolgedessen werden Sie viel schlechtere Filter als FATL erfinden. Machen Sie sich und mir nichts vor, die Herstellung eines adaptiven Filters ist eine Kunst für sich, und die Prinzipien seiner Entwicklung sind sehr unterschiedlich.

 
AAB:
Candid, dieses Werk beschreibt die Vorhersage der Preisbewegung in Bezug auf potenzielle Niveaus, das könnte Sie interessieren. Die Qualität ist nicht gut, aber es ist eine Mono-Lektüre, außerdem gibt es nur vier Seiten mit Formeln und Diagrammen.


Hmm, habe ich nicht am Anfang einen Link dazu angegeben? :) Wie man so schön sagt: Lass das Brot fließen und es wird zu dir zurückkommen :). Gute Arbeit, meiner Meinung nach.

Privatperson:

- Erstellung eines Indikators


Ich erinnere mich, als ich die Bibliothek von klot ausprobierte, habe ich eine Art Indikator erstellt. Nur sollte es in Visualizer ausgeführt werden und warten, bis es genug Balken für FFT. Sprünge gibt es klar, von was, Anzahl der Frequenzen spielt, wenn die Abtastung zu erhöhen sie geglättet werden. Natürlich muss die Klot-Bibliothek vorhanden sein (es gibt eine in CodeBase).

Dateien:
offtma_e.mq4  4 kb
 
lna01:

Hm, war das nicht der Link, den ich am Anfang angegeben habe? :) Wie man so schön sagt: Leg Brot aufs Wasser und es kommt zu dir zurück :). Gute Arbeit, meiner Meinung nach.


Ja, ich bin geschraubt, zumindest Zeichen, wo das von wo und von deren Feed swiped, Vot t erinnern, nachdem ich gelesen, dass Sie den Artikel mögen, und wer gab den Link und vergaß, ja, erinnere mich an den Fisch in Strugatsky sagte: "Meine Jahre sind nicht die gleichen, Holz sah...". Aber jede Wolke hat einen Silberstreif, vielleicht laden die Leute dieses Dokument noch einmal herunter.
 

Achtung an alle Interessierten und Betrachter.

Hier ist die Lösung für das Problem, das ich vor ein paar Tagen an Sie alle gerichtet habe. Im Prinzip ist das nichts Neues. Ich habe einfach das Programm implementiert, das ich in meinem letzten Beitrag zu diesem Thema beschrieben habe. Der Grund für die Veröffentlichung ist einfach: Ich sehe mehrere Anwendungsmöglichkeiten für diese Methode, so dass sie für jemanden nützlich sein könnte. Ich möchte auch die Nützlichkeit des theoretischen Ansatzes "demonstrieren".

Das Problem ist also einfach. Es gibt eine Reihe {X} von Zufallszahlen, die einer bestimmten Statistik gehorchen. Die Statistik ist nicht gaußförmig, da die möglichen Werte von X zum Intervall [0,∞] gehören. Der Punkt X = 0 kann im Allgemeinen nicht zur Allgemeinbevölkerung gehören. Die Anzahl der Mitglieder der Reihe {X} ist N, was groß genug ist, um der Verteilung auf der Grundlage der verfügbaren Daten und anderer statistischer Parameter eine gewisse Glaubwürdigkeit zu verleihen:

µ=M(X) ist der Mittelwert der Reihe {X}

D=M(X*X) - die Varianz der Reihe {X}

σ =√D - Schiefe der Reihe {X}

Da die verfügbare Reihe begrenzt ist, gehören alle ihre Elemente zu dem endlichen Intervall [Xmin,Xmax], Xmin>=0.

Wir konstruieren einen gleitenden Durchschnitt Y mit der Periode M über die verfügbaren Reihen {X}. Die Mittelungsmethode kann beliebig sein. Als Ergebnis erhalten wir eine neue Reihe {Y}, die Anzahl ihrer Mitglieder ist offensichtlich N-M+1. Die Menge der Reihen {Y} gehört ebenfalls zu einem endlichen Intervall. Bezeichnen Sie sie mit [Ymin,Ymax].

Die Frage ist, wie man Ymin und Ymax aus der Statistik und den Parametern der Reihe {Y} berechnet? Ich werde am Ende schreiben, wofür das verwendet werden kann.

Der erste Schritt besteht darin, eine analytische Verteilung der Reihe {X} zu konstruieren. In Bulaschews Buch habe ich nur eine Verteilungsfunktion gefunden, die als Definitionsbereich [0,∞] die Lognormalverteilung hat. Ich will nichts Schlechtes über sie sagen, aber sie hat mir nicht gefallen.

Da die Statistik meiner (und vieler anderer) Reihen so ist, dass die Wahrscheinlichkeitsdichte p(X) bei X→0 und X→∞ gegen 0 tendiert, habe ich die folgende allgemeine Form für p(X) angenommen:

p(X)=A*(X^a)*exp(-B*(X^b)), wobei a>0 und b>0

Dementsprechend ist die integrale Verteilungsfunktion wie folgt definiert: F(X)= ∫ p(ξ) dξ. Hier und in den weiteren Integrationsgrenzen von 0 bis X wird impliziert. Leider lässt der lokale Editor keine oberen und unteren Indizes auf der Website zu. Man muss es verdrehen. Es sieht zwar unordentlich aus, aber es lässt sich nicht ändern. ξ ist nur eine Integrationsvariable.

Um damit etwas anfangen zu können, muss dieses Integral in analytische Form gebracht werden. Integriert man über die Teile und verwendet den Grenzwert p(0)=0, so ergibt sich

∫ (ξ^a)*exp(-B*(ξ^b)) dξ = -1/(B*b) * (X^(a-b+1))*exp(-B*(X^b)) + (a-b+1)/(B*b) *∫ (ξ^(a-b))*exp(-B*(ξ^b)) dξ

Das heißt, dass der Index a des Wertes X jedes Mal um b abnimmt. Wenn dieser Exponent nach k Schritten gleich b-1 wird, wird das Integral auf das Tabellenintegral reduziert. Daher können wir die Integralitätsbedingung explizit formulieren:

a - k*b = b - 1, oder a = (k+1)*b - 1, wobei k>0 eine ganze Zahl ist.

Da wir jedoch noch den Mittelwert und die Varianz berechnen müssen, ist diese Integrierbarkeit nicht ausreichend. Wir wollen sehen, was erforderlich ist, um alle zentralen Momente dieser Verteilung explizit zu berechnen. Offensichtlich ist µ = ∫X*p(X) dX (hier integrierend zu ∞). Berechnen wir µ als Funktion von µ(X), wobei wir davon ausgehen, dass im Integral die obere Grenze variabel ist.

µ(X) = ∫ ξ ξ*A*(ξ^a)*exp(-B*(ξ^b)) dξ = ∫ A*(ξ^(a+1))*exp(-B*(ξ^b)) dξ

Das heißt, es handelt sich um ein Integral der gleichen Art mit dem Exponenten a1=a+1. Für die Integrabilität muss a1 die gleiche Bedingung erfüllen:

a1 = (k1+1)*b - 1, wobei k1>0 eine ganze Zahl ist.

Vergleicht man dies mit der Bedingung für a, so erhält man: b = 1/( k1 - k). Mit n = k1 - k erhalten wir schließlich eine zulässige Form des Parameters b: b = 1/n, wobei n>0 eine ganze Zahl ist. Beachten Sie auch, dass die Beziehung 0<n<=k erfüllt sein sollte.

Wenn man sich all dies vor Augen hält, kann man nicht nur die integrale Verteilungsfunktion F(X), sondern auch alle zentralen Momente der Verteilung in expliziter Form erhalten:

F(X) = 1 - exp(-Z)*∑ (Z^i)/i!

Ml(X) = (k+n*l)!/(k!*(B^(n*l)) *{ 1 - exp(-Z)*∑ (Z^i)/i! }, wobei Z = B*(X^(1/n)) .

Die in der Funktion p(X) vorkommende Konstante A wird aus der Normalisierungsbedingung berechnet und in diesen Ausdrücken berücksichtigt. Das Summationszeichen ∑ in der oberen Zeile impliziert die Summation über den Index i von 0 bis k und in der unteren Zeile - über i von 0 bis k+n*l. Der Wert Ml ist das l-te zentrale Momentum (nicht zu verwechseln mit l und 1).

Man beachte, dass alle erhaltenen Funktionen zu 0 werden, wenn X=0 ist, und die folgenden Schranken haben, wenn X→∞:

F(X→∞) = 1 (Normalisierungsbedingung) und Ml(X→∞) = (k+n*l)!/(k!*(B^(n*l))).

So erhalten wir:

µ = M(X) = M1(X) = (k+n)!/(k!*(B^n))

D = M(X*X) = M2(X) = (k+2*n)!/(k!*(B^(2*n))

Jetzt, wo alles endgültig da ist, können wir zur ursprünglichen Serie zurückkehren. Die sich daraus ergebende endgültige Verteilungsfunktion p(X) enthält drei Parameter, mit denen sichergestellt werden kann, dass p(X) die Statistik der Reihe {X} - B, k, n am besten wiedergibt.

Man könnte sie natürlich auch nach MNC suchen, aber das ist langweilig. Ich habe es für meine Serie einfacher gemacht. Aus den obigen Formeln ist ersichtlich, dass

D/µ^2 = (k+2*n)!*k!/((k+n)!)^2

Der Wert von D/µ^2 ist also unabhängig von B. Da D und µ für die Reihe {X} bekannt sind, brauchen wir nur ein solches Paar (n,k) zu wählen, das den nächstliegenden Wert ergeben würde. Ich habe gerade eine Tabelle mit möglichen Werten von (n,k)-Paaren erstellt und nur 4 geeignete gefunden: (2, 3), (3,8), (4,16) und (5,26). Der Wert von B wird nun elementar aus den Ausdrücken für D oder µ bestimmt.

Interessanterweise ergaben die Werte (n,k) der ersten beiden Paare (die anderen habe ich nicht überprüft) eine ausgezeichnete Reproduzierbarkeit der experimentellen Verteilungskurve p(X). Zumindest für mich ist diese Qualität hervorragend.

Auf dem Weg dorthin kam mir eine interessante Frage in den Sinn. Vielleicht kann mich jemand aufklären, warum eine so einfache und praktische Verteilungsfunktion mit guten Eigenschaften in der Statistik nicht verwendet wird? Und wenn sie verwendet wird, warum wird dann nicht darüber geschrieben? Ich habe noch nie gesehen, dass jemand versucht hat, eine andere inkrementelle Verteilung als die Lognormalverteilung zu approximieren.

 

Die dritte Stufe des Marlesonschen Balletts beinhaltet die Berechnung einiger Grenzwerte X1 und X2.

Die Konstruktion der Reihe Y = ∑ X ist mit der Mittelwertbildung von M Werten von X verbunden. Es ist vernünftig anzunehmen, dass Ymin (ein theoretisches Minimum) erreicht werden kann, wenn M der kleinsten Werte von X in die Mittelwertbildung fallen.

Auf der Achse OX belegen M der kleinsten Werte von X das Intervall [0, X1] und M der größten Werte von X das Intervall [X2, ∞]. Dies ist eigentlich die Definition der Werte X1 und X2.

Da es insgesamt N Elemente in der Reihe {X} gibt, ist F(X1) = M/N und 1 - F(X2) = M/N .

Die Funktion F(X) ist in analytischer Form bekannt, daher sind die obigen Gleichungen zur Bestimmung von X1 und X2 analytische, wenn auch transzendente Gleichungen. Zu ihrer Lösung kann jede numerische Iterationsmethode angewendet werden. Da die Funktion F(X) monoton ist, wie aus dem nachstehenden Diagramm hervorgeht, kann man mit der Methode des Gradientenabstiegs schnell die Werte von F(X1) und F(X2) ausgehend vom Wendepunkt ermitteln. Bei der Berechnung mit der von MMS erlaubten maximalen Genauigkeit reichten 13-14 Schritte und weniger als eine Sekunde Zeit aus, um die Werte von X1 und X2 zu erhalten. Die Zeit war bei den Paaren (2,3) und (3,8) praktisch dieselbe. MMS ist trotzdem eine gute Sache. (Was für ein Matcad .... J)

Ich hoffe, es ist klar, wo p(X) und wo F(X) ist.

Abb. 1.

Es wäre auch interessant, die Abhängigkeit von X1 und X2 von M bzw. vom M/N-Verhältnis zu untersuchen. Aber wir legen das erst einmal beiseite, denn wir haben nicht mehr viel Zeit. Man beachte nur, dass im Grenzfall, wenn M→N, X1→∞ und X2→0 gelten müssen. Und wir werden uns mit der Definition des Endziels dieser ganzen Geschichte beschäftigen, den Werten Ymin und Ymax.

Eigentlich ist es jetzt ganz einfach. Das Intervall [0, X1] gibt die Position von M am wenigsten X an und [X2, ∞] die Position von M am meisten X. Unsere Aufgabe ist es, die beiden gemittelten Werte auf ihnen zu bestimmen. Wenn der Mittelungsalgorithmus nicht trivial ist, muss das Problem für jeden einzelnen Fall separat gelöst werden. Wenn sie einem einfachen MA entspricht, können wir die Formeln verwenden:

Ymin = M(X1)/F(X1) und Ymax = (µ - M(X2))/(1 - F(X2)).

Diese Formeln haben eine einfache "physikalische Bedeutung", daher gehe ich nicht auf eine Erklärung ein. Stattdessen werde ich das Diagramm der Abhängigkeiten Ymin und Ymax von den Werten Х1 und Х2 darstellen. Sie zeigt Ymin in rot und Ymax in blau. Die horizontale Linie in Türkis gibt den Wert von µ an.

Wie zu erwarten, tendieren Ymin bei X1→∞ und Ymax bei X2→0 beide zu µ, einer von unten und einer von oben.

Abbildung 2.

Beide entsprechen M→N, was aus dem Diagramm der Abhängigkeit von X1 und X2 vom Wert von M klar ersichtlich ist. Habe ich das nicht schon gesagt? Ja, das haben Sie. Dies ist das allererste der Diagramme. Und von den beiden Kurven sollten Sie die Kurve F(X) verwenden. Aber man sollte nicht F durch X bestimmen, sondern umgekehrt, man sollte X durch F bestimmen. Dabei müssen Sie sich auch die Gleichungen für X1 und X2 ansehen und daran denken, dass, wenn M→N, dann M/N→1.

Es zeigt sich also, dass, wenn M/N mit M zunimmt, X1 zunimmt (und Ymin damit zunimmt) und X2 abnimmt (Ymax damit abnimmt). Aber es ist immer Ymin< X1 und Ymax>X2 .

In meinen Berechnungen habe ich festgestellt, dass 1 - 3 - 5 Werte der Reihe {X}, abhängig vom Wert von N, über die obere Schranke von X2 hinausgehen können (die untere Schranke ist in diesem Sinne nicht von Interesse). Gleichzeitig wird der Wert von Ymax nie überschritten. Das ist im Allgemeinen verständlich: Der Fall, dass alle M Werte von X am größten sind, ist eine Ausnahme. Was die Werte der Reihe {Y} betrifft, so ist die Wahrscheinlichkeit, dass sie X2 überschreiten, noch geringer. Ganz zu schweigen von Ymax.

Wir haben also zwei Schätzungen für den Bereich der {Y}-Werte, eine harte und eine weiche. Je nach den Erfordernissen des Problems können wir eines von beiden verwenden.

PS

Entschuldigung. Ich kann keine Bilder einfügen. Nicht in jedem Format. Die Website muss eine Störung aufweisen.

 

Und schließlich, warum dies alles notwendig ist.

Dabei habe ich mehrere Möglichkeiten gesehen, wie man das alles verwenden kann.

1. Normalisierung aller bekannten TA-Indikatoren, insbesondere der Oszillatoren. Hat jemand darauf geachtet, dass Oszillatoren nur in einem engen Bereich ihrer Glättungsperioden verwendet werden können? Wenn die Periode abnimmt, beginnt sie hin und her zu schwanken, und wenn sie zunimmt, nimmt die Amplitude so stark ab, dass sie die Pegel nicht erreicht. Beispiel für einen beliebten RSI unten. Zwei Varianten für die beiden Zeiträume 14 und 30. Wenn Sie sich auf den zweiten verlassen, können Sie überhaupt nicht handeln. Die 70/30-Werte werden nur sehr selten erreicht. Oder diese Werte sollten für jeden Zeitraum neu optimiert werden.

Abb. 3.

TA-Indikatoren hängen praktisch nicht von t/f ab, soweit ich das verstanden habe, ist dies eine Besonderheit ihrer Statistiken. Aber wenn hier das Glättungsproblem gelöst wäre, dann könnte man vielleicht etwas Neues daraus gewinnen. Mit einem solchen stochastischen Normalisierungsverfahren ist dies meines Erachtens durchaus möglich.

2. Mein persönliches Problem war, dass die Verbreitung der Serie wesentlich von N abhängt. Wie könnte es sonst sein, hat Hurst umsonst gelitten? :-))

Jetzt kann ich alles auf einen universellen Standard bringen, bei dem weder der Wechsel zu einem anderen t/f noch die Änderung der Glättungsperiode den Bereich der Reihenwerte beeinflusst. Auf diese Weise können für alle anderen Parameterwerte dieselben Pegel für die Eingabe/Ausgabe verwendet werden. Unter diesen Bedingungen ist eine Optimierung sinnvoll. Durch die Optimierung auf einem t/f kann ich dann die Rendite der Strategie auf einem anderen prüfen. Wenn sie bestehen bleibt, bedeutet dies, dass die Strategie wirklich funktioniert. Ist dies nicht der Fall, wird sie verworfen.

Vielleicht ist es ja für jemand anderen nützlich.

3. Bislang ist es noch niemandem gelungen, das Preisdiagramm direkt zu normalisieren. Aber es wäre schön, wenn es so wäre. Wir interessieren uns nicht für den absoluten Wert, sondern für seine Schwankungen. Vielleicht schaffen wir es ja auch auf diese Weise. Wer möchte, kann es ausprobieren.

4. Bei neuronalen Netzen, mit denen ich mich nicht auskenne, ist es notwendig, die Daten zu normalisieren. Das Überschreiten der Grenzen des konditionierten Bereichs führt zum Verlust der Neuromaus.

Vielleicht wird sich diese Art der Normalisierung in einigen Fällen als nützlicher erweisen als die derzeitige Methode.

Das ist alles. Kritik wird in jeder Form akzeptiert.

PS

Ich habe absichtlich keinen Code oder Codebeispiele gepostet. Der Algorithmus ist nicht im Detail beschrieben, aber sehr ausführlich. Es ist leicht zu verstehen. Wenn Sie wollen, natürlich.

Ich ermutige die Gemeinschaft, meinem Beispiel zu folgen.

Die Gründe dafür sind wie folgt.

Dieser Kuchen ist nicht zum Verzehr geeignet. Es handelt sich nicht um eine endgültige Lösung, sondern um eine Methode. Wird diese Methode in privaten Aufgaben verwendet, so bleiben diese Aufgaben weiterhin privat. Diejenigen, die sich nicht die Mühe machen, sie zu verstehen und sinnvoll für sich selbst zu nutzen, werden sich auf die Lösungen anderer stürzen, werden in die Irre geführt und haben Zeit und möglicherweise Geld verschwendet.

Um diese Methode korrekt anwenden zu können, müssen Sie

1. Formulieren Sie, was Ihre Reihe {X} ist.

2. Bilden Sie sie mit einem geeigneten Verfahren korrekt aus.

Untersuchen Sie die Statistiken, berechnen Sie statistische Parameter.

Erforschen Sie die Entsprechung der Statistiken dieser Reihe auf verschiedenen t/fs.

5. Finden Sie das passende statistische Paar k,n.

6. Berechnen Sie den Parameter B.

7. Konstruieren Sie eine Modellverteilungsfunktion p(X) und vergleichen Sie sie mit der experimentellen Funktion. Die weitere Anwendung dieser Methode ist nur dann richtig, wenn die Übereinstimmung von Modell und Experiment zufriedenstellend ist. Und dafür braucht man ein Bewertungskriterium.

8. Und schließlich muss man auch in der Lage sein, die erhaltenen Ymin und Ymax richtig zu verwenden. Das ist nicht so einfach, wie es vielleicht scheint. :-)

Also, liebe Programmiererkollegen, vermeiden Sie es nicht nur, Gratisangebote zu fördern, sondern geben Sie auch anderen eine Chance, eine Gelegenheit, Initiative zu zeigen und selbst etwas herauszufinden.

Ein Programmierer ist nicht derjenige, der alles programmiert, was er in die Finger bekommt.

So wie ein Mann nicht jemand ist, der alles trinkt, was brennt, und alles isst, was sich bewegt...

 
Wir werden uns das ansehen, danke, und bitte laden Sie die Bilder hoch und fügen Sie sie mit "Datei anhängen" ein.
 

Ja, natürlich, aber es heißt 'durch die Hintertür'. Ich hoffe, es ist eine vorübergehende Maßnahme. Sobald es richtig funktioniert, werde ich die Bilder dort einfügen, wo sie hingehören.

PS

Leider setzt sich auch das nicht durch.

Moderatoren, HOOOOOOOOOOOOOOOOOO!!! Reparieren Sie die Website, bitte. Kein Bild zum Anhängen, keine Datei ...

 

an Yurixx

Erstaunlich ist, dass wir, anstatt einfach nur die Streuung der sich ergebenden gleitenden Durchschnittsreihe zu betrachten, in aller Ruhe eine theoretische Schätzung vorgenommen haben, und zwar durch Gradientenabstieg auf der Grundlage einer unbewiesenen Verteilung. Das ist theoretisch cool!

Okay, ich glaube es noch nicht, nach einer Geschäftsreise in die glorreiche Stadt Kurgan werde ich es noch einmal lesen. :о)))

PS: Ich erinnere mich an einen Fall aus meinem fast wissenschaftlichen Leben. Ich kam mit einer langen Rolle abgeleiteter Formeln zu meinem Chef, und nachdem ich sie nachgeschlagen hatte, sagte er, dass es keine Fehler gäbe, aber es könnte einfacher sein. Auf diese Bemerkung erwiderte ich stolz: "Wir suchen nicht nach einfachen Wegen", worauf er sofort antwortete: "Deshalb finden Sie sie nicht".

 
grasn:

an Yurixx

Erstaunlich ist, dass wir, anstatt einfach nur die Streuung der sich ergebenden gleitenden Durchschnittsreihen zu betrachten, in aller Ruhe eine theoretische Schätzung vorgenommen haben, und zwar durch Gradientenabstieg auf der Grundlage einer unbewiesenen Verteilung. Das ist theoretisch cool!

Meiner Meinung nach ist es einfacher als das. Ein kleiner Teil des Codes, der die Normalisierungskoeffizienten in Abhängigkeit von den Parametern t/f und Mittelwertbildung berechnet, ist in den Indikator oder den Berater init() eingebettet. Es funktioniert. Wie können Sie das in der Meisterschaft machen, wenn der Expert Advisor nicht auf Ihrem Computer ist und die Historie auf dem unbekannten Datenträger geladen ist?

Aber das ist eine Nebensache. Ich habe eine etwas ernstere Frage. Müssen Sie diese Verhältnisse jedes Mal neu berechnen, wenn Sie ein Symbol, t/f, etc. ändern, von Hand oder mit Matkad :-)? ? Haben Sie es nicht satt? Oder eine Datenbank für alle Symbole, t/f, Glättungsparameter usw. erstellen? ? :-)

Es gibt noch einen weiteren, sehr wichtigen Punkt. Aber wenn Sie es nicht bemerkt haben, ist das auch egal. :-)))

Übrigens ist die "unbewiesene Verteilung" lächerlich, wenn man bedenkt, dass keine Verteilung irgendeines Wertes im Devisenhandel bekannt ist (nur dass bekannt ist, dass sie nicht normal ist). Das ist ein guter Witz.