"New Neural" ist ein Open-Source-Projekt für neuronale Netzwerke für die MetaTrader 5-Plattform. - Seite 96
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Maxim, solange die Zeit zwischen den BP-Werten und dem Raster nicht die Marktzyklen berechnet (was sie tut, das versichere ich Ihnen), wird nichts funktionieren. Sie sollten Stichproben von einer Handelssitzung bis zu einem Jahr suchen. Die Stichprobe solltegenau dem Zeitraum entsprechen und nichts anderes.
Es ist die Zeitstruktur, in der sich der Markt BP von SB unterscheidet, das habe ich schon oft geschrieben.
Genau so ist es, aber ich habe noch keinen allgemeinen Ansatz aus der Perspektive des Verteidigungsministeriums dazu formuliert :)
Übrigens, könnte es als Ersatz für Hearst dienen?https://en.wikipedia.org/wiki/Sample_entropy
Oder auch ein Nachzügler.
Sagen wir es so: "Es funktioniert fast nicht"... aber was von dem ganzen "Es funktioniert nicht" übrig bleibt, wird in Krümeln ausgekratzt.
manchmal wird sie sogar ausgekratzt, aber nicht in der gesamten Tiefe der Probe
Das ist nicht anders. Es handelt sich um eine gewöhnliche Funktion. Eingabe eines Parameters, Ausgabe eines Wertes.
Ich verstehe.
Ja. Aber dieser einzelne Wert am Eingang eines Neurons wird aus den Ausgängen aller Neuronen der vorhergehenden Schicht addiert (sie werden durch Multiplikation mit Koeffizienten addiert).
Genau, aber ich habe noch keinen allgemeinen Ansatz aus der Perspektive des Verteidigungsministeriums dazu formuliert :)
Übrigens, könnte es als Ersatz für Hearst dienen?https://en.wikipedia.org/wiki/Sample_entropy
Oder auch ein Nachzügler.
Möglicherweise. Aus meiner Sicht ist die Prozessentropie ein perfekter Indikator für Diskontinuität. So sollte es sein. Aber ich muss erst recherchieren, und ich bin schon zu faul - soll es doch jemand anders versuchen.
Was die Zeit betrifft... Auf dem Markt gibt es eine Periodizität von Prozessen in Form einer verschachtelten Struktur. Nur ist es nicht einfach, diese Zeiträume zu berechnen. Gunn hatte seinen, ich habe aus irgendeinem Grund meinen. Ich weiß es nicht... Wir werden es in der Praxis sehen... Aber bis ich anfing, mit bestimmten Zeiträumen zu arbeiten, arbeitete mein TS mit +0% Gewinn wie bei SB.
Möglicherweise. Aus meiner Sicht ist die Prozessentropie ein perfekter Indikator für Uneinigkeit. So sollte es sein. Aber das erfordert Forschung, und ich bin schon zu faul - soll es doch jemand anders versuchen.
Was die Zeit betrifft... Auf dem Markt gibt es eine Periodizität von Prozessen in Form einer verschachtelten Struktur. Nur ist es nicht einfach, diese Zeiträume zu berechnen. Gunn hatte seinen, ich habe aus irgendeinem Grund meinen. Ich weiß es nicht... Wir werden es in der Praxis sehen... Aber, bis ich anfing, mit bestimmten Zeitrahmen zu arbeiten, arbeitete mein TS in +0% des Gewinns als auf SB.
Ich werde einige Nachforschungen anstellen)) der Code ist einfach
Das Clustering der Volatilität ist das, was einen effizienten (gestressten) Markt von einem SB unterscheidet, ja, das ist wohl die einzige Periodizität. Und das ist genau das, was mit den Zeitzyklen verbunden ist.
zumindest ist dies die allgemeine Meinung (oder falsche Vorstellung) der ÖkonometrikerJa, nur dass dieser eine Wert, der dem Eingang eines Neurons zugeführt wird, aus den Ausgängen aller Neuronen der vorhergehenden Schicht addiert wird (durch Multiplikation mit Koeffizienten).
Ja. Wir müssen eine praktische Analogie finden. Das Diagramm zeigt, dass die Schichten eine unterschiedliche Anzahl von Neuronen haben. Wenn Sie das Diagramm umdrehen, erhalten Sie eine Pyramide. Das Ergebnis durchläuft also mehrere Verarbeitungsschritte. Je mehr Neuronen in einer Schicht vorhanden sind, desto mehr Daten erhält und verarbeitet diese Schicht. Wenn die nächste Schicht weniger Daten ausgibt als die vorherige, bedeutet dies, dass die Daten von Schicht zu Schicht verallgemeinert werden?
Wenn ich so darüber nachdenke... und die Pyramiden wurden von den Alten gebaut... suchen Sie dort nach Analogien.
Ich werde ein wenig recherchieren )) der Code ist einfach
Der Code ist einfach, aber unsere Eingabedaten passen nicht ganz:
Wiki-Entropie: ".... misst die Abweichung eines realen Prozesses von einem idealen Prozess. ... Mathematisch gesehen ist die Entropie definiert als eine Funktion des Zustands des Systems, die auf eine beliebige Konstante festgelegt ist".
и?
Was könnte ein idealer Markt für VR im Finanzbereich sein? - wer zum Teufel weiß das schon, OK, lassen Sie das die erste Annahme sein, perfekter Markt = Sinuswelle!
als Inputs haben wir mindestens 3 Preise: hoch, niedrig, clowes - und welchen sollten wir verwenden? - OK, lassen Sie es die zweite Annahme sein, der Medianpreis regiert!
was messen wir von und bis? - Anfang des Tages? Woche? Verfallstag? Börsensitzung? - OK, Beginn des Tages, lassen Sie es die dritte Annahme sein....
insgesamt 3 Fragen, 3 Mal gehen wir davon aus, dass wir richtig liegen? hier läuft das Problem auf die Kombinatorik hinaus: wie oft leiten wir die richtige Ausgangshypothese ab und wie oft führt unsere weitere Erkundung zur richtigen Marktbewertung... zur Geschichte ))))
Entropie klingt schön, aber ich habe dieses Thema vor einigen Jahren aus der Perspektive der Informationsentropie gegraben, die einzige Schlussfolgerung ist, dass, wenn ein Muster zu bilden beginnt oder die nächste Wiederholung von Candlestick-Kombinationen in der Geschichte wird es nicht funktionieren, weil einfache Muster und Korrelationen nicht in den Markt zu arbeiten, die gleiche Sache gilt für sie, wenn sie offensichtlich werden - sie aufhören zu erscheinen )))). Ich in der Regel zu mir sagen, in solchen Fällen - du bist nicht der klügste, wie kluge Leute vertreten die Hälfte der Welt von Monitoren)))
GUT. Wir müssen eine praktische Analogie finden. Das Diagramm zeigt, dass die Schichten eine unterschiedliche Anzahl von Neuronen haben. Wenn wir das Diagramm auf den Kopf stellen, erhalten wir eine Pyramide. Das Ergebnis durchläuft also mehrere Verarbeitungsschritte. Je mehr Neuronen in einer Schicht vorhanden sind, desto mehr Daten erhält und verarbeitet diese Schicht. Wenn die nächste Schicht weniger Daten ausgibt als die vorherige, bedeutet dies, dass die Daten von Schicht zu Schicht verallgemeinert werden?
Wenn die Schicht weniger Neuronen enthält als die vorhergehende, findet eine Informationskompression statt, und wenn mehr Neuronen vorhanden sind als in der vorhergehenden Schicht, findet eine "Entpackung" statt.