Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 738
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Michaels Stiftung ist in Ordnung. Ein gutes Beispiel für alle, die nach einem Einstieg suchen.
Er hat einige gute Indikatoren, ich denke, auch von der Börse, die bereits besser ist als die Standard-mashka und rsishka. Dann schiebt er nicht nur all dieses Zeug in die Neuronen, sondern bewertet die Indikatoren mit verschiedenen Mitteln und wählt die am besten geeigneten für die Vorhersage aus. Dann wird das Neuronka trainiert, aber nicht ein einfaches, sondern eines mit eingebauter Overfit-Kontrolle. Und diese gesamte Strategie wird im Tester mittels Walk-Forward getestet.
SanSanych hat ein solches Schema bereits zu Beginn dieses Threads beschrieben, und endlich hat sich jemand entschlossen, es anzuwenden. Andernfalls könnten viele Händler unüberlegt mehr Indikatoren in die Neuronen einfügen wollen.
Ich würde auch Indikatoren durch vtreat oder caret vorverarbeiten. Und eine angemessenere neuronka mit kfold. Und ich würde mehr Beispiele für die Ausbildung nehmen, da stimme ich mit anderen Kritikern überein.
Ich weiß, Brüder!!! Ich sage Ihnen alles auf einmal... Jeder tanzt im Rahmen seiner Ausbildung, aber das Endergebnis entscheidet über unseren Streit. Das Ergebnis, sozusagen. Ich habe bisher gewonnen, weil die Einlage wächst. Ich weiß, dass mein Ansatz einer der richtigen ist.
Übrigens, ich verwende vtreat, um wichtige Prädiktoren auszuwählen, sowie Tricks mit dem Shuffle.
Dies wird in dem Artikel über BOO ausführlich behandelt.
Ich weiß, Brüder!!! Ich sage Ihnen alles auf einmal... Jeder tanzt im Rahmen seiner Ausbildung, aber das Endergebnis entscheidet über unseren Streit. Das Ergebnis, sozusagen. Ich habe bisher gewonnen, weil die Einlage wächst. Ich weiß, dass mein Ansatz einer der richtigen ist.
Übrigens, ich verwende vtreat, um wichtige Prädiktoren auszuwählen, sowie Tricks mit dem Shuffle.
In dem Artikel über BO wird dies im Detail erläutert.
Sie haben oben von gegenseitiger Information geschrieben. Was hat das damit zu tun?
Sie haben oben von gegenseitiger Information geschrieben. Was hat das damit zu tun?
Das entscheidende Kriterium bei der Wahl des Modells. Es bereitet den Ditset vor. Sie trainieren 10 Mal. Wir erhalten 10 Modelle mit denselben Trainingsergebnissen (als Beispiel), wobei die Anzahl der Trainingsfehler für alle Modelle gleich ist. Dann speichern wir die Modellergebnisse im Trainingsbereich nicht in binärer Form, sondern in einer Tabelle. Das Ergebnis der Polynomberechnung wird zunächst in dable...... berechnet.
Dann berechnen wir VI von Polynomen in Bezug auf die Ausgabe. Es wird davon ausgegangen, dass funktionierende Modelle eine VI haben, die höher ist als die Ausgangsentropie, oder einfach mehr als 0,7 ungefähr....
Wählen Sie ein Modell mit einem hohen OI, aber nicht höher als 0,95. Obwohl ich es noch nicht überprüft habe.... IMHO
Was die Vergrößerung der Ausbildungsstichprobe betrifft. Ja, sie kann erhöht werden, aber das wird die Qualität des Netzes verringern, was zu einem Rückgang der Transaktionen führt. Das Netz beginnt länger zu funktionieren, aber die Anzahl der "Weiß nicht"-Status nimmt zu und es stellt sich heraus, dass das Netz seltener läuft. Bei diesem Ansatz ist es notwendig, mehrere Modelle zu trainieren und sie parallel laufen zu lassen.
Umso mehr wird mir die Ausbildungszeit jetzt von vtreat.R diktiert. Das bietet mir mit meinen Eingabedaten Sätze von Eingaben für verschiedene Stichprobenlängen. Ich wähle die maximale Lernperiode mit der maximalen Anzahl von Eingabevariablen, die es wählt....Und seltsamerweise spinnt es von 20 bis 50 Proben. Offenbar sind meine Eingaben so. Was kann ich tun...
Mihail Marchukajtes:
...
Ein entscheidendes Kriterium für die Wahl des Modells
...
Ich werde versuchen, es in MO zu übersetzen:
Obwohl es sich bei dem Modell um ein Klassifizierungsmodell handelt, kann es das Ergebnis nicht nur in den Binärwerten 0 und 1 zurückgeben, sondern auch die Wahrscheinlichkeit der Zugehörigkeit zu einer Klasse (eine Bruchzahl von 0 bis 1). Daher kann das Modell nicht nur mit Klassifikationsmetriken, sondern auch mit Regressionsmetriken geschätzt werden. Ich weiß nicht, warum die gegenseitige Information gewählt wurde, aber sie korreliert gut mit der MOC, also ist sie in Ordnung.
In R kann sie wie folgt berechnet werden
bibliothek(entropie)
mi.plugin(rbind(Ziel,Vorhersage))
Hier gilt: je kleiner das Ergebnis, desto besser.
Natürlich, aber in der Statistik ist der Fehler (Variation) proportional zu 1/sqrt(N), wobei N die Anzahl der Beobachtungen ist, hier hängt alles von der anfänglichen Variation ab, je größer sie ist, desto mehr Beobachtungen sind nötig, um den Fehler in das 5%-Quantil einzupassen
"Suche jemanden, der davon profitiert" ((c) Lenin)
Nur nutzlos oder sogar schädlich Tools werden aus offensichtlichen Gründen gestellt und verkauft, diese triviale Wahrheit sollte immer im Auge behalten werden, altotrading ist nicht ein Webdesign oder eine andere Franchise, es ist eine direkte funktionelle Diebstahl von Geld aus dem Markt, alles, was offen und leicht zugänglich ist, viel weniger beworben, a priori kann nicht in diesem Zusammenhang nützlich sein, Schrott oder Betrug, so eine aggressive und wettbewerbsorientierten Umfeld haben wir.
Nun, ja, die 5-Prozent-Gewinnrate und eine unendliche Fülle von öffentlich zugänglichen Toolkits ist ein Klondike.
Und ich musste vor kurzem eine benutzerdefinierte neuronale Netzwerkkomponente erstellen, die es um drei Größenordnungen besser getestet hat als das schlaue DNN von TensorFlow.
Und das Wichtigste: Es gab keine komplizierte Mathematik oder komplizierte Technologien, sondern eine einfache, aber originelle Lösung.
Vor diesem Hintergrund überrascht mich Mikhails Festhalten an Reshetovs Entwurf überhaupt nicht.
Das meine ich, genau das. Wenn ich 40 Proben durch meine Infrastruktur laufen lasse, kann ich mich auch nicht für das Ergebnis verbürgen, und 4000 Punkte sind sehr wenig. Es sei denn, es handelt sich um Kampfstrategien und nicht um Artikelstrategien.
Ich halte mich an die folgende Faustregel - ein EA auf neue Daten wird nicht für mehr als 10% der trainierten Bars funktionieren. Wenn ich auf 4000 Balken trainiert habe, bedeutet das, dass dieser EA nicht für mehr als 400 Balken funktionieren wird. Wenn ich z. B. eine Woche mit m15 handeln möchte, benötige ich mindestens 4800 (4*24*5*10, 10 Wochen) Balken für das Training.
Eines Tages wird MT5 parallele Threads in Experten einführen, um den Expert Advisor im Hintergrund zu optimieren, und dann wird es möglich sein, interessante Experimente mit einer extrem niedrigen Anzahl von Balken durchzuführen, und vielleicht werde ich in der Lage sein, dies mit 40 Balken zu tun. Obwohl ich wahrscheinlich nicht in der Lage sein werde, es zu tun. Selbst wenn ich weniger als 1000 Stichproben habe, tendiert das Ergebnis der Neuronik zum Trend, und sobald es sich ändert, geht alles schief.
Was die Vergrößerung der Ausbildungsstichprobe betrifft. Ja, sie kann erhöht werden, aber das wird die Qualität des Netzes verringern, was zu einem Rückgang der Transaktionen führt. Das Netz beginnt länger zu funktionieren, aber die Zahl der "Weiß nicht"-Status nimmt zu, und es stellt sich heraus, dass das Netz seltener läuft. Bei diesem Ansatz ist es notwendig, mehrere Modelle zu trainieren und sie parallel laufen zu lassen.
Umso mehr wird mir die Ausbildungszeit jetzt von vtreat.R diktiert. Das bietet mir mit meinen Eingabedaten Sätze von Eingaben für verschiedene Stichprobenlängen. Ich wähle die maximale Lernperiode mit der maximalen Anzahl von Eingabevariablen, die er auswählt....Und seltsamerweise spinnt er von 20 bis 50 Proben. Offenbar sind meine Eingaben so. Was können Sie tun...
hmm... guten Tag!)
Ist das Wort "Curwafitter" etwas Neurales?