Marktknigge oder gute Manieren im Minenfeld - Seite 11

 
Neutron >> :

Das ist richtig.

Der Eingang jedes Perseptrons hat jedoch einen separaten zusätzlichen Eingang für einen konstanten +1 Offset. Dies beschleunigt das Lernen und erhöht die Leistungsfähigkeit des Gitters.

Oder, wenn Sie die Eingabeschicht nicht mitzählen, dann mit allem, was gesagt wurde:



Falls es Fehler gibt, bitte korrigieren.

 
Neutron >> :

Das ist richtig.

Der Eingang jedes Perseptrons hat jedoch einen separaten zusätzlichen Eingang für einen konstanten +1 Offset. Dies beschleunigt das Lernen und erhöht die Leistungsfähigkeit des Netzes.

Handelt es sich um ein Gimmick, das die Neuronenschwelle ersetzt, ohne die Anzahl der konfigurierbaren Parameter zu erhöhen? Cool, ich sehe es zum ersten Mal, aber ich mag es :)

 

Und wo ist die konstante Verzerrung am Eingang jedes Neurons?

paralocus писал(а) >>

Soweit ich Sie verstehen konnte, zeigt die Abbildung die optimale NS-Architektur für den Markt.

Das ist mein Verständnis. Vielleicht ist es nicht wahr. Die Ergebnisse der numerischen Experimente bestätigen diese Aussage jedoch.

Die Anzahl der Eingänge ist 12 und die Anzahl der Synapsen ist 4. Nach der Formel Popt=k*w*w/d erhalten wir 144/4 = 36... Sind das 36 Balken? Oder 36 bei Kauf-/Verkaufssituationen? Habe ich das richtig verstanden?

Überlegen Sie genau: Anzahl aller Synapsen in Ihrer Architektur: w=12+4=16.

Anzahl der Eingänge: d=3 (nicht 4*3, sondern nur 3).

Die optimale Länge der Trainingsstichprobe: Popt=k*w*w/d =4*16*16/3=340 Stichproben pro Zeitreihe (Sie haben 4 Stichproben an jedem Eingangsneuron). Es kann sich um Balken oder Indikatorwerte handeln oder um Transaktionsmuster, und es liegt an Ihnen zu entscheiden, was besser ist, um die Vorhersagbarkeit zu erhöhen... Denken Sie daran, dass die Vorhersagbarkeit Teil der MTS-Rendite 4. Grades ist! Eine sehr starke Korrelation (siehe dieses Thema am Anfang).

 
paralocus писал(а) >>

Oder, wenn Sie die Eingabeschicht nicht mitzählen, berücksichtigen Sie alles, was gesagt wird:

Wenn es Fehler gibt, bitte korrigieren.

Ich verstehe das nicht!

Warum zählen Sie die Eingabeschicht nicht mit? Nimmt sie nicht am Lernen und an der Vorhersage teil?

Am besten ist es, zwei Schichten zu haben - eine versteckte Schicht (auch Eingabeschicht genannt) und eine Ausgabeschicht. Mit dieser Architektur haben Sie w=4*4+5=21, d=4 und P=4*21*21/4=440 Zählungen.

 
TheXpert писал(а) >>

Handelt es sich um eine Art Gimmick, das die Neuronenschwelle ersetzt, ohne die Anzahl der einstellbaren Parameter zu erhöhen?

FION schrieb >>

Ich verstehe. Der konstante Offset verschiebt lediglich den Aktivierungspunkt auf der Hypertangenskurve leicht.

Das ist im Allgemeinen richtig, aber um genau zu sein, wenn ein weiterer Datenstapel am NS-Eingang eintrifft, unterstellen wir, dass er nicht zentriert ist (MO!=0). Deshalb führen wir eine zusätzliche konstante Eingabe an jedem Neuron ein. Beim Training wählt ein bestimmtes Neuron einen Gewichtswert an diesem Eingang, so dass es eine mögliche Verschiebung seiner Eingangsdaten kompensiert. Dies ermöglicht ein statistisch schnelleres Lernen (vom Zentrum der imaginären Wolke aus).

 
Neutron >> :

Und wo ist die konstante Verzerrung am Eingang jedes Neurons?

Das denke ich auch. Dies ist vielleicht nicht der Fall. Die Ergebnisse der numerischen Experimente bestätigen diese Aussage jedoch.

Zählen wir genau: Anzahl aller Synapsen in deiner Architektur: w=12+4=16

Anzahl der Eingänge: d=3 (nicht 4*3, sondern nur 3).

Die optimale Länge der Trainingsstichprobe: Popt=k*w*w/d =4*16*16/3=340 Stichproben pro Zeitreihe (Sie haben 4 Stichproben an jedem Eingangsneuron). Es kann sich um Balken oder Indikatorwerte handeln oder um Transaktionsmuster, und es liegt an Ihnen zu entscheiden, was besser ist, um die Vorhersagbarkeit zu erhöhen... Denken Sie daran, dass die Vorhersagbarkeit Teil der MTS-Rendite 4. Grades ist! Eine sehr starke Korrelation (siehe diesen Thread am Anfang).

Popt=k*w*w/d, wobei k eine dimensionslose Konstante der Ordnung 1 ist und der Tatsache Rechnung trägt, dass der Markt volatil ist.

In dieser Formel ist dann d die Anzahl der Eingänge eines Neurons der versteckten Schicht und k die Anzahl der Neuronen in der versteckten Schicht? Tut mir leid, aber es fällt mir schwer zu glauben, dass das Netz bei 340 Takten lernen kann. Es ist sehr klein... Ich muss etwas missverstanden haben.

Bisher kannte ich nur das einfachste Perceptron, das im Tester des MT4-Terminals mit einem genetischen Algorithmus "trainiert" wird. Sie müssen zumindest eine längere Vorgeschichte (2 oder 3 Monate) prüfen. Natürlich verstehe ich, dass der Genetiker dem Perzeptron nichts beibringt, sondern nur die geeignetsten Koeffizienten auswählt und mit sehr geringer Effizienz arbeitet, da er blind handelt. Nun, das ist egal. Das war eine lyrische Abschweifung.


Habe ich richtig verstanden, dass die einzelnen Eingänge auch eigene Gewichtungsfaktoren haben müssen? Und wie kann ich die Eingaben in die "Whitelist" aufnehmen? Das heißt, angenommen, ich habe RSI normalisiert durch Hypertangens mit Erwartung so hoch wie 0,21 auf die Eingabe. Wenn ich folgendes tue: f(t) = th(RSI(i)*kf), wobei kf > 1 ein speziell ausgewählter Koeffizient ist, der die Wahrscheinlichkeitsdichtefunktion um den Preis einer gewissen Verzerrung des Eingangssignals nivelliert, ist das dann in Ordnung oder nicht?

Was sind die Transaktionszahlen?

 
Neutron >> :


Übrigens, für alle Interessierten: Die Strategie "Verluste einfrieren und Gewinne wachsen lassen" oder "Gewinne einfrieren und Verluste wachsen lassen" (je nachdem, ob der Markt im Trend liegt oder stagniert, je nach gewähltem Handelshorizont) ist bei der Wiederanlage von Kapital nicht optimal. In diesem Fall ist es rentabler, jeden Schritt mit Reinvestitionen zu beheben! D.h. wenn wir 10 kontinuierliche profitable Transaktionen haben, dann ist es profitabler, Provisionen an Maklerfirmen zu zahlen und sie zu reinvestieren, als eine Position die ganze Zeit zu halten und am Spread zu sparen.

Ein solches Paradox, das uns zu den Transaktionen bernulling und danach - zur effektiven Nutzung der grundlegenden Gleichung des Handels in der analytischen Form (im Gegensatz zu Vince) ohne Probleme mit Parametrisierung führen kann.

Dies ist weniger ein Paradoxon als vielmehr eine Eigenschaft von MM mit Reinvestition. Die Effizienz dieses MM hängt u. a. von der Anzahl der Abschlüsse ab. Die Rentabilität dieses MM ist das geometrische Mittel der Anzahl der Abschlüsse in Grad. Mit einer kleinen Anzahl von Trades verliert die Rentabilität zu einem einfachen MM, aber wenn wir es schaffen, mit einer großen Anzahl von Trades zu überleben (play long), dann kann die Rendite größer sein. Aber wie immer gilt: Nichts ist umsonst. Der Preis, der dafür zu zahlen ist, ist die asymmetrische Hebelwirkung und ihre Folge - ein langer Zeitraum mit niedrigem Einkommen im Vergleich zu einem einfachen MM.

 
paralocus писал(а) >>

Popt=k*w*w/d, wobei k eine dimensionslose Konstante der Größenordnung 1 ist und der Tatsache der Marktvariabilität Rechnung trägt.

In dieser Formel ist dann d die Anzahl der Eingänge eines Neurons der versteckten Schicht und k die Anzahl der Neuronen in der versteckten Schicht? Tut mir leid, aber es fällt mir schwer zu glauben, dass das Netz bei 340 Takten lernen kann. Es ist sehr klein... Ich muss etwas missverstanden haben.

Bisher kannte ich nur das einfachste Perceptron, das im Tester des MT4-Terminals mit einem genetischen Algorithmus "trainiert" wird. Sie müssen zumindest eine längere Vorgeschichte (2 oder 3 Monate) prüfen. Natürlich verstehe ich, dass der Genetiker dem Perzeptron nichts beibringt, sondern nur die geeignetsten Koeffizienten auswählt und mit sehr geringer Effizienz arbeitet, da er blind handelt. Nun, das macht nichts. Das war eine lyrische Abschweifung.

Habe ich es richtig verstanden, dass die einzelnen Eingaben auch ihre eigenen Gewichtungskoeffizienten haben sollten? Und wie können wir die Eingaben auf die "Whitelist" setzen? Angenommen, ich habe einen hypertangentialen normalisierten RSI mit einem Erwartungswert von 0,21 am Eingang. Wenn ich folgendes tue: f(t) = th(RSI(i)*kf), wobei kf > 1 ein speziell ausgewählter Koeffizient ist, der die Wahrscheinlichkeitsdichtefunktion um den Preis einer gewissen Verzerrung des Eingangssignals nivelliert, ist das dann in Ordnung oder nicht?

Was sind transiente Zählungen?

Paralocus, hast du Angst, einen Fehler zu machen? Weg damit! - Probieren Sie es mal so und mal so, und sehen Sie das Ergebnis - alles wird sich fügen.

k ist nicht die Anzahl der Neuroneneingänge, sondern eine empirische Eigenschaft des Marktes - seine Variabilität - und wird im Bereich von 2 bis 4 gewählt. Wenn der Markt stationär wäre, könnte k sowohl 10 als auch 20 sein, was bedeuten würde, dass man zu den Asymptotika des Lernprozesses des Netzes übergeht. Leider kann der Markt nur in seiner Nicht-Stationarität als stationär bezeichnet werden, so dass der Koeffizient bei der Umschulung von NS so gering wie möglich gehalten werden sollte. Daraus ergibt sich der oben genannte Bereich für k .

Ihr Genetiker ist eine Art stochastische Lernmethode mit Elementen des Gradientenabstiegs (wenn ich mich nicht irre). Das ist nicht schlecht, aber in Bezug auf die Lerngeschwindigkeit ist es schlechter als ORO. Verzichten Sie auf die Genetik zugunsten der Rückvermehrung von Fehlern - das Lernen wird effizienter sein und es gibt keine Begrenzung für die Anzahl der Eingänge und Synapsen des Netzes.

Einzelne Eingaben haben ihre Koeffizienten, die als normal trainiert werden und sich in ihren Eigenschaften nicht von anderen Eingaben unterscheiden.

Die Ausbleichung von Eingaben ist eine Eliminierung der Korrelationsabhängigkeiten zwischen ihnen. Um dieses Verfahren anzuwenden, müssen Sie sich zunächst selbst von diesem Zusammenhang überzeugen.

Eine Transaktion ist der Akt des Kaufs oder Verkaufs eines Vermögenswerts auf dem Markt, d.h. eine Transaktion, eine Bestechung (nicht im kriminellen Sinne:-)

 
Neutron >> :

Verzichten Sie auf die Genetik zugunsten der Rückvermehrung von Fehlern - das Lernen wird effizienter sein, und es gibt keine Begrenzung für die Anzahl der Eingänge und Synapsen des Netzes.


Das war's, ich habe aufgegeben. Ich habe mich hingesetzt, um das Raster mit ORO zu schreiben. Es könnten einige Fragen zur ETA selbst auftauchen.

 
paralocus писал(а) >>

Es könnten einige Fragen zur ETA selbst auftauchen.

Kein Problem!

Lassen Sie uns übrigens einen genaueren Blick auf die Architektur Ihres Netzes werfen.

Sie haben einen Ausschuss von drei unabhängigen zweischichtigen Netzen, die durch ein Ausgangsneuron verbunden sind (also einen Ausschuss). Jedes Gitter in Ihrem Komitee enthält nur ein Neuron in seinem Input, was falsch ist, weil sich eine solche Architektur in ihrer Rechenleistung nicht von einem einschichtigen Perseptron unterscheidet. Deshalb haben Sie drei Eingänge (4 einschließlich Vorspannung) anstelle von 12. Noch einmal: Sie haben ein analoges Direktorium geschaffen, in dem der Vorsitzende durch allgemeine Abstimmung (Ausgangsneuron) die "richtige" Antwort wählt, und jeder der Wähler wird durch ein einzelnes Neuron repräsentiert. Eine solche Architektur würde keinen Handelsvorteil bieten. Richtig, bieten Sie mindestens zwei Input-Neuronen für jedes Ausschussmitglied an, so können Sie die Nulleigenschaft des FA voll ausnutzen und die Vorhersagekraft des Ausschusses spürbar erhöhen.

Sie sehen, wie viel die KI und wir gemeinsam haben... In der Tat ist die Abstimmung auf einer Komsomol-Sitzung nichts anderes als das optimale Schema kollektiven Verhaltens im Hinblick auf die schnellste Erreichung des Ziels zu den geringsten Kosten!

Man beachte, dass die Ausgabe des Ausschusses keine nichtlineare Aktivierungsfunktion hat, sondern einfach ein Addierer ist, dessen Aufgabe es ist, eine Entscheidung auf der Grundlage der Abstimmungsergebnisse zu treffen. Diese Architektur kommt Ihrer Idee also am nächsten und ist ein Ausschuss von zweischichtigen nichtlinearen Netzen mit einer versteckten Schicht. Die Anzahl der Neuronen in der versteckten Schicht kann erhöht werden, um die Vorhersagegenauigkeit zu steigern, aber wir müssen bedenken, dass die Länge der Trainingsbeispiele quadratisch zunimmt und sehr bald ein Punkt erreicht wird, an dem die Effizienz der schrittweisen Erhöhung abnimmt und sogar zu einer Verschlechterung der Vorhersagefähigkeiten des Netzes führt. Nach meinen numerischen Experimenten liegt das Optimum bei nicht mehr als 2-4 Nerons in der verborgenen Schicht.

Für die gegebene Architektur ist die optimale Länge der Trainingsbeispiele P=1500.

P.S. Es sieht gut aus. Ich meine das Bild. Ich bekomme ästhetisches Vergnügen!