Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2623
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
und die Antwort war nicht für Sie bestimmt - Sie können immer noch nicht lesen...
Sie brauchen hier nicht einmal ein 2. Modell, oder? - Kreuzvalidierung und Rastersuche für die Modellauswahl ...
aber vielleicht wird gerade die Verwirrungsmatrix Ihre 2. Frage beantworten (den Zweck des 2. Modells Ihrer Idee)...
.. . oder
... Ich bezweifle nur, dass Sie das zweite Modell brauchen ... imho
Hier ist nur die Verbesserung der Verwirrungsmatrix mit dem zweiten Modell behauptet wird, wenn Sie den Prado, zum Beispiel zu lesen. Aber es verwendet auch Oversampling-Beispiele für das erste Modell, um die Anzahl der "wahren Positiven" oder etwas anderes zu erhöhen. Leider schon vergessen.
up-sampling & down-sampling sind für unausgewogene Datensätze und kleine Trainingssätze - wenn Sie das meinen -, d.h. kleinere Klassen werden höher gewichtet und umgekehrt... Ja, wahrscheinlich um sie zu erhöhen (tru positive)...
***
und über 2 Modelle - gut, es ist wahrscheinlich möglich, 2 mal zu filtern - erste Signale für die Einstellung von Gewichten, dann handelt auf sie nach diesen Gewichten (gestartet durch Inputs in 2. Wiegen)... obwohl es aussieht, wie es möglich ist, auf Geschäfte mit Kontext zu lernen - und Gradient für frühere Zeitreihen zu halten - gute Idee... ABER die Implementierung bei der Arbeit mit Kontext ist immer noch ein wenig anders in der Regel - die Aufgabe ist es, "Transaktion und ihre Kontext" Kodierung und 2. RNN nimmt in der Verarbeitung Ergebnis der 1. für die Dekodierung in der Ausgabe -- aber es hat wenig mit der Arbeit 2 Netze auf 2 verschiedene Aufgaben (zB Kontext und Transaktionen) zu tun, da in der Tat ist es verarbeitet-passed durch 2 Netze "Transaktion und Kontext" (als ein Paar!!!)... - es löst nur das Geschwindigkeitsproblem , aber nicht (oder in geringerem Maße) die Gültigkeit der Ausgabe... Imho...
aber wenn man wirklich Kontext- und Transaktionsverarbeitung trennen will (Kontext getrennt, Transaktionen getrennt) -- bisher erinnert mich eine solche Konstruktion an ein Sandwich (oder Öl und Butter, die Zusammenhänge und Abhängigkeiten von Phänomenen voneinander schmieren - in 2 Schichten)... Ich gebe nicht vor, Ihre TechSuite zu interpretieren, aber ich habe meine Bedenken und meinen Vorschlag geäußert, dass es sich lohnen könnte, sie bei der Modellierung zu bewahren - nämlich die Beziehungen...! Ich wünsche Ihnen eine schöne (realitätsnahe! nicht butterweiche) Netzarchitektur!
p.s. ) als ein ewiges Problem der "kontextbezogenen Werbung" - "die Hauptsache ist, nicht von der Realität abzuweichen" (nur ihre Waage ist manchmal schief - ich will nicht mit dem Finger auf wen zeigen - oder mit kleinen Stichproben in die falsche Richtung gearbeitet)
Up-Sampling und Down-Sampling sind für unausgewogene Datensätze und kleine Trainingssätze gedacht - wenn Sie das meinen -, d.h., dass kleineren Klassen mehr Gewicht gegeben wird... Ja, wahrscheinlich um sie zu erhöhen (tru positive)...
***
und über 2 Modelle - gut, es ist wahrscheinlich möglich, 2 mal zu filtern - erste Signale für die Festlegung von Gewichten, dann Trades auf sie nach diesen Gewichten (gestartet durch Inputs bei 2. Wiegen)... obwohl es sieht aus wie Möglichkeit, Trades mit Kontext zu lernen - und Gradient für frühere Zeitreihen zu halten - gute Idee... ABER die Implementierung bei der Arbeit mit Kontext ist immer noch ein wenig anders in der Regel - die Aufgabe ist es, "Transaktion und ihre Kontext" Kodierung und 2. RNN nimmt in der Verarbeitung Ergebnis der 1. für die Dekodierung in der Ausgabe -- aber es hat wenig mit der Arbeit 2 Netze auf 2 verschiedene Aufgaben (zB Kontext und Transaktionen) zu tun, da in der Tat ist es verarbeitet-passed durch 2 Netzwerke "Transaktion und Kontext" (als ein Paar!!!)... - es löst nur das Geschwindigkeitsproblem , aber nicht (oder in geringerem Maße) die Gültigkeit der Ausgabe... Imho...
aber wenn Sie wirklich die Verarbeitung von Kontext und Transaktion trennen wollen (Kontext getrennt, Transaktionen getrennt) -- bisher erinnert mich eine solche Konstruktion an ein Sandwich (oder Öl und Butter, die Zusammenhänge und Abhängigkeiten von Phänomenen voneinander schmieren - in 2 Schichten)... Ich gebe nicht vor, Ihre TechSuite zu interpretieren, aber ich habe meine Bedenken und meinen Vorschlag geäußert, dass es sich lohnen könnte, sie bei der Modellierung zu bewahren - nämlich die Beziehungen...! Ich wünsche Ihnen eine schöne (realitätsnahe! nicht butterweiche) Netzarchitektur!
p.s. ) als ein ewiges Problem der "kontextbezogenen Werbung" - "die Hauptsache ist, dass man sich nicht von der Realität entfernt" (nur ihre Waage ist manchmal schief - ich werde nicht mit dem Finger auf wen zeigen - oder mit kleinen Stichproben in die falsche Richtung gearbeitet)
Das Konzept der Regelmäßigkeit impliziert Wiederholbarkeit, das ist wichtig!
Statistiken sind linear, egal wie man sie betrachtet... Neuronale Netze sind dumm (oder intelligent - hängt vom Entwickler ab) Gewichtung ... mit 2 oder mehr Schichten von Dense ns für die Gewichtung gibt nicht-lineare Abhängigkeiten (konventionell gesprochen, weil Abhängigkeit ist ODER dumb Korrelation ist immer noch eine sehr große Frage) ... aber solange auch nur eine dumme Korrelation funktioniert - kann man versuchen, damit Geld zu verdienen... - der Zeitpunkt, an dem es aufhört zu funktionieren, muss rechtzeitig erkannt werden (Sie müssen eine Art Anomalie feststellen - zufällig oder systematisch - das ist eine andere Frage - und dann, wie üblich, über Ihre Frage des Risikos/der Rentabilität entscheiden)
Die Bequemlichkeit der ns liegt in ihrer Flexibilität - Sie können eine ganz andere "Nomenklatur" als die der ns bekommen/liefern. Es ist flexibel - man kann ganz unterschiedliche "Nomenklaturen" von der Eingabe erhalten/liefern - d.h. man kann die Transformationen, die wir brauchen, im Netz selbst durchführen... und es im Multi-Thread-Modus tun (hängt von der Bibliothek ab)... nicht nur Statistiken...
Ob man Statistiken braucht, um einen Input zu finden, ist eine andere Frage...
Wissen und Erfahrung helfen häufiger weiter als statistische Aufbereitung - denn erstere konzentriert sich auf Besonderheiten, letztere auf die Reduzierung auf einen gemeinsamen Nenner ...
Alles hat seinen Platz - auch die Statistik...
***
Der Punkt ist, dass es für einen Roboter keine andere Möglichkeit gibt, etwas zu erklären (und er wird es Ihnen auch nicht anders erklären), außer über Wahrscheinlichkeiten, die aus Zahlen abgeleitet werden... - WIE DIE WIRTSCHAFT FÜR DIE WELT FUNKTIONIERT - mit den Zahlen 0 und 1... also müssen wir die Eingaben digitalisieren, um Ausgabewahrscheinlichkeiten zu erhalten, und Bedingungen für Konfidenzintervalle festlegen (denen wir vertrauen, nicht unbedingt Statistiken)... und wir können allem vertrauen (das ist subjektiv) - entweder der binären Logik oder auch dem gewichteten Ergebnis dieser binären Logik (aka prozentuale Wahrscheinlichkeiten aus dem gesamten Spektrum der möglichen Lösungen)... -- es ist nur eine Frage des Geschmacks und der Gewohnheiten, kein Thema für eine Diskussion über die Suche nach dem Gral...
(und das Betreten eines Waldes oder eines neuronalen Netzes ist bereits ein Detail)
Niemand hat die gemeinsame Nutzung von Bäumen/Wäldern und neuronalen Netzen innerhalb desselben Projekts verboten... - Die Frage ist, wo man was und wann anwendet (Geschwindigkeit und Speicherplatz sind wichtig), nicht, was besser ist... - Es ist besser, keine Zeit zu verlieren - gleichbedeutend mit: "Ein von der Transaktion losgelöstes Timing ist verlorene Zeit, so wie eine Transaktion losgelöst vom Timing eine unbekannte Transaktion ist".
Kein Modell kann mehr als Wahrscheinlichkeiten erhalten (was ein Vorteil und ein Nachteil jeder Digitalisierung ist), selbst wenn diese Wahrscheinlichkeiten nicht gewichtet sind... Ich vergifte mich nicht mit Sandwiches und rate niemandem dazu - niemand hat Bayes aufgehoben (auch wenn man es nicht in den Code einbaut, und vor allem - wenn man es in den Code einbaut)...
p.s. Und Sie müssen ein McDonalds-Fan sein... - Hypothese, ich werde es nicht überprüfen...
Algorithmik ist wichtiger als Ihre Schlussfolgerungen
Kein Modell kann mehr als Wahrscheinlichkeiten erhalten (was ein Vorteil und ein Nachteil jeder Digitalisierung ist), selbst wenn diese Wahrscheinlichkeiten nicht gewichtet sind... Ich vergifte mich nicht mit Sandwiches und rate auch niemandem dazu - niemand hat Bayes aufgehoben (auch wenn man es nicht in den Code einbaut, und vor allem - wenn man es in den Code einbaut)...
p.s. Und Sie müssen ein McDonalds-Fan sein... - Eine Hypothese, die nicht getestet wird...
Die Algorithmik ist wichtiger als Ihre Schlussfolgerungen.