Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2475
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Um dies in einem neuronalen Netz zu erreichen, sollte die Art der Neuronen so unterschiedlich wie möglich sein, und die Anzahl der Schichten und ihre Zusammensetzung sollte ebenfalls beliebig sein, dann ist es möglich.
Ja, um sich den Parametern unabhängig voneinander anzunähern, um sie auf einen Output zu reduzieren, muss man wirklich statistisch tiefgehende historische Daten bis zum aktuellen Zeitpunkt abwägen - d.h. eine repräsentative Stichprobe haben (je größer - desto wahrscheinlicher ist es, das Ziel zu treffen)... um sie in einer Blackbox zu verarbeiten (abwägen)... aber das ist alles Statistik, und es kann weit weg sein, sogar von der aktuellen Wirtschaftsphase...-erhalten Sie einfacheinen Durchschnittswert mit einer großen Varianz (und auch einen Variationskoeffizienten)
Wir scheinen seit 30 Jahren einen vollen Konjunkturzyklus durchlaufen zu haben - es ist besser, die Vorzeichen für den gegenwärtigen Zeitpunkt aus einer ähnlichen Phase der wirtschaftlichen Entwicklung zu lernen (so nehme ich an), um die Stichprobe der Ausgangsdaten zu reduzieren ()... aber ich persönlich verfüge nicht über diese Daten (die ich brauche, um an die Gültigkeit einer aussagekräftigen Analyse über einen so langen Zeitraum zu glauben) ....
Alle verwenden meist ein neuronales Netz mit fester Architektur, aber aus irgendeinem Grund verstehen sie nicht, dass die Architektur auch flexibel sein muss, denn wenn wir diese Flexibilität zerstören, zerstören wir die Möglichkeit, das Umlernen zu minimieren. Im Allgemeinen können die gleichen Kriterien natürlich auch auf einfache Modelle angewandt werden, sogar müssen, dann erhalten Sie eine gute Vorwärts, mein Modell gibt ein paar Monate Gewinn voraus und die Einstellungen können in einem Tag aktualisiert werden. Einer der grundlegenden Tricks besteht darin, so viele Daten wie möglich zu sammeln(10 Jahre oder mehr). In diesem Fall suchen wir nach globalen Mustern, die auf der Physik des Marktes selbst beruhen und in den meisten Fällen über einen sehr langen Zeitraum funktionieren.
Es ist kein Trick, es ist ein Versuch, der Realität zu entkommen... imho
(es ist möglich, einen normalen Forward zu bekommen - mit weniger Kosten - logisch - einen normalen Forward zu bekommen - ohne die Huskies und den Unsinn für den aktuellen Moment zu analysieren - obwohl alles nur durch Vergleich gelernt wird, und in der Blackbox auch, aber trotzdem würde man zuerst sein Gehirn benutzen, und dann sogar nicht so tiefes maschinelles Lernen, aber nur bezüglich eines Teils des aktuellen Moments durch Zeichen, die in der aktuellen Marktsituation wichtig sind) - und dann fehlen alle notwendigen Daten aus der Geschichte...
Dennoch ist ein Verständnis des Ökosystems und eine Wissensbasis über den Austausch von Materie und Energie darin, kombiniert mit einem rechtzeitigen Bewusstsein für die treibenden Nachrichten/Ereignisse, ein Weg, um die Evolution zu verstehen, ohne eine solche PC-Leistung nur um des Durchschnitts und der Varianz willen zu laden... imho
Aber danke für Ihre Beobachtungen... aber für mich ist die Notwendigkeit eines solchen tiefen Lernens fraglich (obwohl ich denke, dass es für Black Box unbestreitbar ist)
Meine Vision ist natürlich kein Maßstab, ich spreche hauptsächlich aus der Perspektive der Zeitersparnis, einfach weil ich mit vielen Leuten gesprochen habe und ich denke, es ist kein Geheimnis, dass wir dieses Forum in 5 Jahren lesen und wahrscheinlich über uns selbst lachen werden, ich denke nur, dass alle Entwicklungen nicht leer sind und man versuchen sollte, das zu skalieren, was man erhalten hat. Ich wollte schon oft alles kaputt machen, aber aus irgendeinem Grund habe ich es nicht getan, obwohl es kein Geld einbringt. Mir scheint, dass diese Erfahrung wertvoll ist, und jeder hat seinen eigenen Wert, aber alles, was wir tun können, ist entweder weiterzugehen oder in eine Kneipe zu gehen und uns zu betrinken. Ich habe den Eindruck, dass wir das, was wir in Ansätzen schon haben, einfach nur skalieren und intensivieren müssen, und ich glaube, dass das wahrscheinlich sehr einfach ist. Je mehr ich die Dinge verkompliziere und je mehr ich obskure Mathematik einbringe, desto unberechenbarer wird das Ganze. Um ehrlich zu sein, denke ich, dass jeder, der sich jahrelang damit beschäftigt hat, versteht, dass er keine 100 Prozent pro Monat bekommen wird, und diejenigen, die diese Zeit nicht investiert haben, werden sich Ihre 100 pro Jahr ansehen und ein Signal mit 100 pro Monat kaufen, ohne darauf zu achten, dass es 2 Monate lang hängt.
ja, um Parameter unabhängig voneinander anzunähern und zu versuchen, sie in einen Output zu bringen - muss man wirklich statistisch tiefe historische Daten bis zum aktuellen Moment abwägen - d.h. eine repräsentative Stichprobe haben (je größer - desto wahrscheinlicher, das Ziel zu treffen)... sie in einer Blackbox verarbeiten (abwägen)... aber das ist alles Statistik, und es kann weit weg sein, sogar von der aktuellen wirtschaftlichen Phase...-erhalten Sie einfacheinen Durchschnittswert mit einer großen Varianz (und auch einen Variationskoeffizienten)
Wir scheinen seit 30 Jahren einen vollen Konjunkturzyklus durchlaufen zu haben - es ist besser, die Vorzeichen für den gegenwärtigen Zeitpunkt aus einer ähnlichen Phase der wirtschaftlichen Entwicklung zu lernen (so nehme ich an), um die Stichprobe der Ausgangsdaten zu reduzieren ()... aber ich persönlich verfüge nicht über diese Daten (die ich brauche, um an die Gültigkeit einer aussagekräftigen Analyse über einen so langen Zeitraum zu glauben) ....
Es ist kein Trick, es ist ein Versuch, der Realität zu entkommen... imho
(es ist möglich, einen normalen Vorwärtsgang - mit weniger Kosten - logisch - ohne Analyse Heiserkeit und mangelnde Bedeutung für den aktuellen Moment - auch wenn alles nur durch Vergleich bekannt ist, und in der Black Box zu, aber immer noch würde ich mein Gehirn zuerst, und dann auch nicht so tief maschinelles Lernen, sondern nur in Bezug auf einen Teil der aktuellen Moment von Zeichen wichtig in der aktuellen Marktsituation) - und dann alle notwendigen Daten aus der Geschichte fehlen...
Dennoch ist ein Verständnis des Ökosystems und eine Wissensbasis über den Austausch von Materie und Energie darin, kombiniert mit einem rechtzeitigen Bewusstsein für die treibenden Nachrichten/Ereignisse, ein Weg, um die Evolution zu verstehen, ohne eine solche PC-Leistung nur um des Durchschnitts und der Varianz willen zu laden... imho
Aber danke für Ihre Beobachtungen... Aber für mich ist die Notwendigkeit eines solchen tiefen Lernens fraglich (obwohl ich denke, dass es für eine Blackbox unbestreitbar ist).
Die Varianz und andere Abweichungen sind das natürliche Ergebnis der Analyse eines Systems, das auf Wahrscheinlichkeiten, aber nicht auf Differentialgleichungen basiert. Alles, was Sie erhalten können, ist ein System von Differentialgleichungen, deren Variablen die Aufmerksamkeit "Wahrscheinlichkeiten bestimmter Ereignisse" sind, die Ereignisse, die Ihnen wichtig erscheinen, und alles, was Sie vorhersagen können, ist die Wahrscheinlichkeit, aber nicht der genaue Wert. Wenn man das einmal verstanden hat, wird alles einfacher und man hat keine Angst mehr vor Abweichungen oder anderen Dingen. Die Abweichung wird immer vorhanden sein, Ihre Aufgabe besteht lediglich darin, sie zu minimieren. Sie können das langfristige Verhalten des Systems nicht mit 100%iger Genauigkeit vorhersagen, aber Sie können bestimmte Werte erreichen, die für einen profitablen Handel ausreichen. Ich meine damit, dass Sie der Maschine nicht ihre Arbeit abnehmen, sondern ihr ein wenig Freiheit lassen, und Sie werden sehen, dass sie besser als Sie weiß, welche Daten sie braucht. Übrigens: Je schwärzer die Blackbox, desto intelligenter ist sie. Die KI basiert auf genau diesem Prinzip.
. Was ich damit sagen will, ist, dass Sie der Maschine nicht die Arbeit abnehmen sollten, sondern ihr die Freiheit geben sollten, und Sie werden sehen, dass sie viel besser als Sie weiß, welche Daten sie braucht. Apropos Blackbox: Je schwärzer die Box, desto intelligenter ist sie. Die KI ist auf diesem Prinzip aufgebaut.
- Nun, ich sehe, je mehr Eingabedaten (und auszuwählende Merkmale), desto genauer ist die annähernde Schätzung und sogar die darauf basierende Vorhersage (wenn auch immer noch mit einer Fehlerwahrscheinlichkeit)...
Nach Ihren Beiträgen wird der Verantwortungsbereich des Entwicklers etwas klarer,
Die Varianz und andere Abweichungen sind das natürliche Ergebnis der Analyse eines Systems, das auf Wahrscheinlichkeiten, aber nicht auf Differentialgleichungen basiert. Alles, was Sie erhalten können, ist ein System von Differentialgleichungen, bei dem die Variablen die Aufmerksamkeit "Wahrscheinlichkeiten bestimmter Ereignisse" sind, die Ereignisse, die Ihnen wichtig erscheinen, und alles, was Sie vorhersagen können, ist die Wahrscheinlichkeit, aber nicht der genaue Wert.
Algorithmus zur Ermittlung von Ableitungen mit der Newtonschen Vorwärtsdifferenzformel
. Abweichungen wird es immer geben, Ihre Aufgabe ist es nur, diese zu minimieren.
ja, es war ein Bild irgendwo auf den Link, den ich früher links ~ Konvergenz von Vorhersage und Fehler auf dem Boden der Parabel (dies ist zu vermeiden, overtraining und stoppen in der Zeit) - Evolution geht in einer Spirale zu diesem Punkt (so dass ich vermute, mit abnehmender Beschleunigung, bis es vollständig stoppt - bis die Varianz von größer zu kleiner, wie ein Trichter fallen)
p.s.
Ich habe einmal mit Calculate Implied Volatility with VBA- Implied Volatility with Newton-Raphson Iteration programmiert - konnte aber keine Signale finden... Und verständlicherweise (da Schwarze Löcher bei Währungen überhaupt nicht funktionieren, da dort nicht alles so binomisch verteilt ist, wie man es sich wünschen würde)
... Um ehrlich zu sein, bin ich mit Newton überhaupt nicht vertraut - ob er so viele verschiedene Dinge erfunden hat (?), oder ob dies (Ihr Forward und meine Implied Volatility) von der gleichen Linie und in der gleichen Perspektive und der Essenz der gleichen Berechnung ist... ... Ich möchte meine Zeit nicht mit etwas verschwenden, an das ich nicht glaube - ich glaube nicht an die Finanzmodellierung.
aber es stellt sich immer noch die Frage nach der Auswahl einer Zielfunktion... - auch die Verantwortung eines Entwicklers... - Was raten Sie?
(obwohl, ja, Sie haben die Vorwärtsdifferenz verwendet)
p.s.
zu den Freiheitsgraden - ich werde noch einmal nachsehen
glauben an Nachfrage - Angebot... im Spinnennetzmodell (Schwerpunkt Elastizität undWalrasian) - im Gleichgewicht-Ungleichgewicht - um die Richtung zu bestimmen... (für die Wahrscheinlichkeit, aus einem Flat in einen Trend zu gehen) - nur OI und Zeitmanagement (einschließlich der Tatsache, dass man sich nicht immer von Walras leiten lassen kann)...
für die Tatsache - das Glas (Parsen von Ebenen oder oops - knallender Eisberg) - obwohl es natürlich besser ist, nicht zu parsen, sondern ruhig weiterzugehen, wenn jemand die Ebene bereits geparst hat und KEIN Gegenteil existiert (besser mit Prüfung nach Panne - auch sichtbar im Glas und auf dem Band)
zu Walras
Das mit dem Käsedorf und dem Weintherapiezentrum hat mir gut gefallen.
Ich kann Ihnen nur von Newton erzählen. Ich verstehe, dass es die Vorhersage von Terminen auf der Grundlage der bestehenden Kurve in der Vergangenheit, ich habe es vor langer Zeit, es funktioniert nicht mit dem Preis überhaupt, aus dem Wort, wenn das ist, was Sie meinen. Aber es funktioniert, wenn Sie versuchen, den Backtest-Chart vorwärts zu prognostizieren, aber es gibt einige Nuancen wie diese:
Dies ist nur meine Erfahrung. Jede Methode zur Vorhersage von etwas basiert auf der Interpolation einer Funktion mit einem Polynom, gefolgt von der Konstruktion einer Fortsetzung. Ich weiß nicht, wie Newton das macht, aber höchstwahrscheinlich werden die Ableitungen als tiefe Ordnung berechnet und dann als Konstante für diese Funktion genommen, obwohl sich das alles natürlich mit der Zeit ändert (auf dem Markt funktionieren solche Vorhersagen überhaupt nicht, ich habe es überprüft). Wenn wir einen Backtest vorwärts prognostizieren, sollte er so gerade wie möglich sein und so viele Punkte wie möglich enthalten (in diesem Fall Daten oder Trades, dann können wir ein wenig vorausschauen). Mit anderen Worten, wenn wir eine Stichprobe mit einer ausreichend engen Schwankungsbreite möglichst vieler erster Ableitungen gefunden haben, werden solche Extrapolationsmethoden teilweise funktionieren; die Hauptsache ist, dass wir nicht gierig sind und rechtzeitig aufhören. Im Folgenden zeige ich nur, wie man mit der Ungewissheit mittels Lotterie umgeht (wenn wir nicht genau wissen, wo die Vorhersage ihre Wirkung verliert). Ich kann Fourier-Transformationen interpolieren und Sequenzen in die Zukunft zeichnen, aber es funktioniert nicht mit beliebigen Funktionen. Und was den Lerntrichter betrifft, so kann man das Wiedererlernen auf verschiedene Weise kontrollieren. Ich habe nie die Formeln von jemand anderem übernommen, weil ich mir bei Bedarf in kürzester Zeit meine eigenen zusammenschustern kann, und sie werden wahrscheinlich einfacher und nützlicher sein, weil ich einfach alles verstehe, ich hatte nie Probleme damit.
Ich kann Ihnen nur von Newton erzählen. Ich weiß, dass es Vorhersagen gibt, die auf einer Kurve in der Vergangenheit basieren, das habe ich vor langer Zeit gemacht, aber es funktioniert überhaupt nicht mit dem Preis, von Anfang an, wenn Sie das meinen.
Dies ist nur meine Erfahrung. Jede Methode zur Vorhersage von etwas basiert auf der Interpolation einer Funktion mit einem Polynom, gefolgt von der Konstruktion einer Fortsetzung, ich weiß nicht, wie Newton das macht, aber... (auf dem Markt funktionieren solche Vorhersagen überhaupt nicht, getestet).
Diese Schlussfolgerung war für mich interessant - danke! -
Wie sieht es mit dem Trainingstrichter aus, Sie können die Umschulung auf verschiedene Weise steuern, ich habe nie die Formeln von jemand anderem verwendet, einfach weil ich meine eigenen in kürzester Zeit machen kann, wenn ich muss, und sie werden wahrscheinlich einfacher und nützlicher sein, einfach weil ich alles verstehe, ich hatte nie ein Problem damit.
+1, aber ich bin kein Physikstudent... Obwohl ich meiner eigenen Logik näher bin als den Modellen anderer Leute
Wenn Sie einen Backtest vorwärts prognostizieren wollen, müssen Sie das Diagramm so gerade wie möglich machen und so viele Punkte wie möglich darin haben (in diesem Fall Daten oder Trades, dann können Sie ein wenig vorausschauen). Mit anderen Worten: Wenn wir eine Stichprobe mit hinreichend engen Schwankungsbreiten möglichst vieler erster Ableitungen gefunden haben, werden solche Extrapolationsmethoden teilweise funktionieren,
im Allgemeinen eine Normalparabel zu haben, von der die 1. Ableitung linear ist... erhalten wir am Ende nur den Koeffizienten seiner Steigung (wie ein vom Rauschen bereinigter Trend) - mit all den von Ihnen beschriebenen Begleiterscheinungen (enger Bereich einer großen Anzahl von 1. Ableitungen)... bis zum Gehtnichtmehr gewogen werden müssen? (mehrere Ebenen, bis das Ergebnis eine Parabel ist)... oder vielmehr eine gerade 1x Ableitung davon
Die Methoden selbst sind hier von untergeordneter Bedeutung, es ist möglich, Fourier zu interpolieren und eine Fortsetzung in die Zukunft zu zeichnen, aber es funktioniert nicht mit beliebigen Funktionen.
Das ist es, was mich an neuronalen Netzen fasziniert, nicht eine Verteilung abzuleiten und sie mit tabellarischen/empirischen Verteilungen zu vergleichen, und nicht nach einer statistischen Bestätigung für jeden Nieser zu suchen (bis hin zu "habe ich den Mittelwert richtig ermittelt"), indem man die Nullhypothese mit der tabellarischen vergleicht... - Das ist eine Art statistische Verarbeitung des letzten Jahrhunderts... im Allgemeinen nicht die Gültigkeit sowohl des Modells als auch der Vorhersage und der Fehler zu beweisen, und dies alles mit Tabellen aus dem letzten Jahrhundert (entschuldigen Sie den Ausdruck)
oder, alternativ, einfach eine mehrschichtige Gewichtung (ich nehme an, es handelt sich um ein neuronales Netz)... wie ich schon sagte: bis zum Gehtnichtmehr? (mehrere Ebenen, bis wir eine Parabel in der Ausgabe erhalten)... oder eher eine direkte 1x Ableitung davon?
oder generell alle Arten von Funktionen (einschließlich Parabel) vergessen und einfach nach Gewicht*Signal(Ereignis) -> nächste Ebene suchen... und auf jeder Ebene sollte die Funktion mehr oder weniger trivial gewählt werden, wie in Excel Solution Finder (entweder für lineare Abhängigkeit oder für nicht-lineare Abhängigkeit oder für unabhängige Daten) [obwohl ich nicht weiß, was Excel mit diesen Namen unter der Haube hat, aber das sind Details, Betonung auf Logik]
und am Punkt der Konvergenz der Signale auf der nächsten Ebene (unter Berücksichtigung der vorherigen Gewichte) alle Differenzen der empfangenen Signale berechnen...
? verstehe ich das neuronale Netz und die Differenzierung durch maschinelle Kräfte des Chaos richtig, ohne sich an irgendeine Kurve/gerade Linie halten zu müssen - die, wie ich es sehe, nur ein Ergebnis der Strukturierung des Chaos sein kann, aber keinesfalls ein Ausgangspunkt... es geht um die Verantwortung desselben Entwicklers - ich glaube nicht und sehe keinen Grund, irgendwelche Finanzmodelle aus Büchern/Blogs/Artikeln (und statistisch aufbereiteten Verteilungen) in die Finanzanalyse einzubeziehen, wenn man das Chaos approximiert/interpoliert... für weitere Hochrechnungen
p.s.
tief im Inneren verstehe ich, dass es nur die Geschwindigkeit (Koeffizient bei x) und die Beschleunigung (Koeffizient bei x^2) und die Verschiebung des freien Glieds gibt - in der Parabel, und natürlich ist die erste Ableitung davon linear... Formeln machen mir Angst, besonders bei den Modellen anderer Leute
Da ist etwas Wahres dran, aber ich habe mein Modell überprüft, und die Hauptsache ist, dass wir wissen, mit welcher Art von Stürmern wir rechnen. Das Problem bei der Umschulung ist, dass wir, um nicht umzuschulen, ein maximales Verhältnis zwischen den analysierten Daten und dem endgültigen Kriteriensatz anstreben sollten, mit anderen Worten, es gibt eine Datenkompression, z. B. können wir die Daten eines Parabeldiagramms analysieren und mehrere tausend Punkte nehmen und alles auf drei Koeffizienten A*X^2 + B*X + C reduzieren. Dort ist die Qualität der Datenkomprimierung höher - dort liegt die Zukunft. Die Umschulung kann durch die Einführung geeigneter skalarer Indikatoren für ihre Qualität unter Berücksichtigung dieser Datenkompression kontrolliert werden. In meinem Fall ist es einfacher - wir nehmen eine feste Anzahl von Koeffizienten und machen die Stichprobe so groß wie möglich, das ist weniger effizient, aber es funktioniert.
habe Ihre Antwort vorhin gefunden... Ich muss den letzten Beitrag übereilt haben... Wahrscheinlich sollte man wirklich zumindest von einer Parabel als Funktion ausgehen, die eine Bewegung mit Geschwindigkeit und Beschleunigung beschreibt... (Ich habe diese Art von Diagrammen und Griechen (Delta und Gamma) von Optionen sogar schon irgendwo gesehen - ich erinnere mich nicht daran und will sie auch nicht finden - ich brauche eine Zeitanalyse - horizontal, nicht vertikal)