Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 613

 
Vladimir Perervenko:

Überrascht. Was ist das für ein Modell, das mehr als eine Stunde zählt?

Es sollte höchstens 1-2 Minuten dauern.

88-50-20-2 Netzwerk, 86400 Zeilen Trainingsdaten auf 88 Prädiktoren. + 28800 für Validierungsdaten und für den Testabschnitt (sie werden jedoch schnell gezählt).

 
Eidechse_:

Frau Lehrerin, es ist mir peinlich, das zu fragen. Wie viel sollte ein Modell kosten?
Sicher, dass sie keinen Pfennig einbringen wird? Vielleicht gibt es eine Formel (Preis-Qualität)?)).


Nun, offensichtlich nicht zwei Kopeken, Trickster.....Das solltest du verstehen, du bist kein kleiner Junge.....

Die Suche nach einem verallgemeinernden Modell in einem mehrdimensionalen Datenraum ist keine schnelle und optimierende Aufgabe. Steigende Anforderungen und immer strengere Regeln für die Modellbildung zur Verringerung des Überlern-Effekts führen dazu, dass die Zeit für die Suche nach einem solchen Modell immer länger wird. Die Daten müssen also gründlich aufgeschüttelt werden....

Warum wird dieselbe Datei auf AWS und Reshetny's unterschiedlich lange aufbewahrt? AWS 2-5 Minuten, Reshetov 3 Stunden und sein Modell ist doppelt so gut wie die AWS-Modelle/ Warum?

 
elibrarius:

88-50-20-2 Netzwerk, 86.400 Zeilen Trainingsdaten auf 88 Prädiktoren. + 28.800 pro Validierungsdaten und Testparzelle (sie zählen jedoch schnell)


Mit einem solchen Satz würde Reshetov ewig zählen :-)

Ich werde Ihnen ein Forex-Geheimnis verraten. Alpha in den Daten kann sich nur auf einen sehr kurzen Abschnitt beziehen. Mit meinen Daten konnte ich diesen Parameter noch nicht auf mehr als 50 Zeilen erhöhen. Das heißt, ich habe 100 Spalten und 50 Zeilen. Dies deckt etwa zwei Wochen des Marktes ab. Das heißt, wenn ich beginne, das Trainingsintervall zu erhöhen, fällt die Qualität des Modells unter 75 % und die Qualität der CB wird so, dass es unmöglich ist, auf eigenes Risiko daran zu arbeiten. Ich verstehe also nicht, was Sie mit diesen Tausenden von Datensätzen machen wollen. Man kann kein Modell für den gesamten Markt mit einer akzeptablen Ausbildungsqualität erstellen - je größer der Ausbildungsbereich ist, desto schlechter ist das Modell. Und wenn es in einem solchen Bereich gute Ergebnisse zeigt, dann hat es nichts mit dem Konzept der Verallgemeinerung zu tun..... Sie wissen, was ich meine......

Wissen Sie, warum man auf einer langen Strecke keine Modelle mit guter Leistung bauen kann? Weil solche Daten... Eingänge.... die ein solches Modell aufbauen könnten, gibt es in der Natur im Prinzip nicht..... Es gibt keine derartigen Daten, sonst wäre sie schon lange in Gebrauch gewesen. Ich meine öffentlich zugängliche Daten....... nicht Insider oder was auch immer.... Also... Ich verstehe nicht, warum so viele Zeilen????

 
Mihail Marchukajtes:

Mit einem solchen Satz würde Reshetov ewig zählen :-)

Ich werde Ihnen ein Forex-Geheimnis verraten. Alpha in den Daten kann sich nur auf einen sehr kurzen Abschnitt beziehen. Mit meinen Daten konnte ich diesen Parameter noch nicht auf mehr als 50 Zeilen erhöhen. Ich meine, ich habe 100 Spalten und 50 Zeilen.

Sie können solche Modelle nicht erstellen, die Stichprobenlänge sollte mindestens das Fünffache der Anzahl der Merkmale betragen, und Sie haben mehr Merkmale als Stichproben und den Fluch der Dimensionalität

Sie zeigen Unwissenheit, anstatt das Geheimnis des Forex zu lüften.

 
Mihail Marchukajtes:
Ich verstehe also nicht, was Sie mit diesen Tausenden von Datensätzen machen wollen? Sie werden nicht in der Lage sein, ein Modell für den gesamten Markt mit einem akzeptablen Niveau der Ausbildungsqualität zu erstellen. Und wenn es in einem solchen Bereich gute Ergebnisse zeigt, dann hat es nichts mit dem Konzept der Verallgemeinerung zu tun..... Sie wissen, was ich meine......

Es ist ein M1, nur 60 Tage. Also nicht für den gesamten Markt, sondern für die letzten 3 Monate.

Wenn sich die Dauer verdoppelt, wird das Modell nicht mehr gebaut.... Optimieren Sie natürlich die Dauer, aber dazu ist es noch nicht gekommen. Ich möchte zuerst die Anzahl der Schichten herausfinden.

Wenn Sie mindestens 10 Modelle bauen, dauert es 8-10 Stunden, sie zu berechnen(((

Es gibt 3 Formeln zu berechnen, finden min und max, berechnen sie, dann 2-3 zwischen ihnen, und 2-3 außerhalb. Und dann aus all dem wählen Sie die besten Modelle, und wenn sie bereits berechnet werden - um sie Ensemble.

PS Hm. Das ist mit 2 versteckten Schichten und die gleiche Menge mit 1 Schicht.

Im Allgemeinen werden vierundzwanzig Stunden für das Modell ausschlaggebend sein.

 
elibrarius:

Im Allgemeinen wird das Modell nach 24 Stunden festgelegt.


Ich bin kein Mining-Freak, das Preisschild ist 3 mal höher als bei allen normalen Karten).

Die Miner-Freaks haben den Preis für alle normalen Karten um das Dreifache in die Höhe getrieben.

 
elibrarius:

Es ist ein M1, nur 60 Tage. Also nicht für den gesamten Markt, sondern für die letzten 3 Monate.

Bei Verdoppelung der Dauer wurde das Modell nicht mehr gebaut.... Natürlich die Dauer optimieren, aber dazu bin ich noch nicht gekommen. Ich möchte zuerst die Anzahl der Schichten herausfinden.

Wenn Sie mindestens 10 Modelle bauen, dauert es 8-10 Stunden, sie zu berechnen(((

Es gibt 3 Formeln zu berechnen, finden Sie min und max, zählen sie, dann 2-3 zwischen ihnen, und 2-3 außerhalb. Und dann aus all dem wählen Sie die besten Modelle, und wenn sie bereits berechnet werden - um sie Ensemble.

PS Hmm. Das ist mit 2 ausgeblendeten Ebenen, und die gleiche Menge mit 1 Ebene.

Im Allgemeinen wird das Modell nach 24 Stunden festgelegt.

Vorzugsweise sollten Sie versuchen, anhand solcher Daten ein Modell zu erstellen, das auf dem Prinzip der Fraktalanalyse beruht. Wenn mehrere Zeitrahmen für die Eingabe verwendet werden. Maxim hat uns ein gutes Video über die Fraktalität der Welt gezeigt.
Im Allgemeinen kann ich Ihnen einen dedizierten Server für i7 3-4Ghz und ssd für nur $7-8 pro Monat vorschlagen. Die Zählung ist in Ordnung, und der Computer wird nicht so viel beschäftigt sein.
 

Ich habe die Idee, dass die Eingabe (und möglicherweise die Ausgabe) mit Quotierungen von Verteilungen einer bestimmten Tiefe oder Momenten von Verteilungen gefüttert werden kann

Dadurch erhält man eine gewisse Glättung und ein probabilistisches Bild und vielleicht eine begrenzte Anzahl von bestimmten Varianten, was wichtig ist. Aber ich habe es noch nicht getan - dafür muss ich die Varianzanalyse aufpumpen.

Wenn wir Fraktale in Betracht ziehen, dann mb. die Beziehungen der Verteilungen zwischen verschiedenen tf. Aber das Thema muss ernsthaft ausgearbeitet werden, um ein Diagramm zu zeichnen

 
Mihail Marchukajtes:

Die Suche nach einem verallgemeinerbaren Modell im mehrdimensionalen Datenraum ist unter Optimierungsgesichtspunkten keine schnelle Angelegenheit, da die steigenden Anforderungen und die Einführung immer strengerer Regeln für die Modellbildung zur Verringerung von Überlern-Effekten zu einem Anstieg der für die Suche nach einem solchen Modell benötigten Zeit führen. Die Daten müssen also gründlich aufgeschüttelt werden....

Warum wird dieselbe Datei auf AWS und Reshetny's unterschiedlich lange aufbewahrt? AWS 2-5 Minuten, Reshetov 3 Stunden und sein Modell ist doppelt so gut wie die AWS-Modelle/ Warum?

Das Modell von Reschetow ist kein Benchmark. Die Suche nach einem Satz von Prädiktoren erfolgt zum Beispiel durch das Ausprobieren verschiedener Varianten - das Modell nimmt einen zufälligen Satz von Prädiktoren, wird trainiert und merkt sich das Ergebnis. Dies wird in einer Schleife unzählige Male wiederholt, wobei das beste Ergebnis als endgültiges Modell verwendet wird. Dieser Prozess kann deutlich beschleunigt werden, wenn Sie zunächst eine Auswahl von Prädiktoren mit einem speziellen Algorithmus treffen und dann das Reshetov-Modell nur einmal auf diese spezielle Menge trainieren. Und Sie erhalten die Qualität des Reshetov-Modells mit einer Geschwindigkeit, die mit der von AWS vergleichbar ist. Die "Kosten" eines solchen Modells werden deutlich sinken, aber die Qualität wird gleich bleiben.

 
Aleksey Terentev:
Ich denke, Sie sollten versuchen, mit solchen Daten ein Modell zu erstellen, das auf dem Prinzip der Fraktalanalyse beruht. Wenn mehrere Zeiträume eingegeben werden sollen. Maxim zeigte ein gutes Video über die Fraktalität der Welt.
Im Allgemeinen kann ich Ihnen einen dedizierten Server für i7 3-4Ghz und ssd für nur $7-8 pro Monat vorschlagen. Die Zählung ist in Ordnung, und der Computer wird nicht so viel beschäftigt sein.
Ein paar TFs und ich verwenden) Analysieren Sie einfach jede Minute. Ich brauche keinen Server, danke!