Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 850

 
Ilnur Khasanov:
Wie viele gibt es? Es gibt Möglichkeiten, es schneller zu machen... Die Genetik... Auch um sie in die ns zu treiben...

heuristische Suche

 
Alexander_K2:

Welche brauchen Sie? Ich verarbeite sie trotzdem mit einem Exponenten von p=0,5, um den einfachsten Fluss zu erhalten.

Wenn wir den Tick-Flow identifiziert haben, haben wir zum Beispiel Erlangs k=4, nun, wenn wir Cauchy verwerfen, warum müssen wir dann mit dem Exponenten darüber gehen? Wenn wir direkt zu Erlang k=5 und so weiter übergehen können? Zwischen den Häkchen weiter ausrichten, anstatt zu verwirren und zuerst auszurichten?

 
elibrarius:

Am zuverlässigsten ist es wahrscheinlich, die Kombinationen von Prädiktoren durchzugehen. Aber es ist sehr lang(

Das ist nicht unsere Art, das kann man endlos machen. Bis es völlig überwältigend ist.
 
Sieh mal, wer da spricht!!!! Es hat sich gelohnt, den Faden aufzugreifen..... Ich habe mich entschlossen. Es ist nicht so glatt, wie ich es mir wünschen würde. Nun, so ist der Markt nun einmal..... Übermäßige Unsicherheit aufgrund der weltweiten Ereignisse.... Es gibt keine Stabilität, so dass ich fast jeden zweiten Tag etwas neu machen muss, und so warte ich, bis sich die Situation stabilisiert hat, und arbeite weiter....
 
Yury Reshetov:

Mit der Erhöhung der Komplexität der Modelle in jPrediction ist die schrittweise Erhöhung der Anzahl der Prädiktoren gemeint. Denn in jPrediction ist die Anzahl der Neuronen in der versteckten Schicht 2^(2*n+1), wobei n die Anzahl der Prädiktoren ist. Dementsprechend steigt mit der Anzahl der Prädiktoren auch die Komplexität des Modells (die Anzahl der Neuronen in der verborgenen Schicht). Mit zunehmender Komplexität des Modells wird jPrediction früher oder später den Wert M erreichen, woraufhin eine weitere Zunahme der Komplexität des Modells zu einer weiteren Abnahme der Verallgemeinerbarkeit führt (Zunahme der Fehler bei der Verallgemeinerbarkeit).

Ich bin auf den Beitrag von Reshetov über die Anzahl der Neuronen gestoßen.
Wenn ich 10 Prädiktoren habe, erhalte ich 2^21 = 2097152 Neuronen.
Ist das nicht zu viel?
Selbst bei 3 Prädiktoren gibt es 128 Neuronen...

 
elibrarius:

Ich bin über Reshetovs Beitrag über die Anzahl der Neuronen gestolpert.
Wenn es 10 Prädiktoren gibt, sind das 2^21 = 2097152 Neuronen.
Ist das nicht zu viel?
Selbst bei 3 Prädiktoren wären das 128 Neuronen...

Du bist urkomisch))
 
Eidechse_:

N = 2^i - 1

1023 Neuronen für 10 Eingänge ist besser.
Nach den Artikeln zu urteilen, wird in der Praxis jedoch viel weniger verwendet, z. B. n=sqrt(#inputs * #outputs)
Anscheinend N = 2^i - 1 - für genaues Auswendiglernen, und Formeln mit weniger Anzahl - für Verallgemeinerung.

 
SanSanych Fomenko:

Die ausgefallenste Prädiktorenauswahl in Caret: gafs - genetische Auswahl von Prädiktoren; rfe - umgekehrte Prädiktorenauswahl (am schnellsten); safs - simulierte Stabilität der Prädiktorenauswahl (Annealing) - am effizientesten.

Ich habe rfe auf einer 12*6400-Matrix ausprobiert - etwa 10 Stunden Lesezeit mit Standardparametern (Größen = 2^(2:4)), habe nicht gewartet und es ausgeschaltet. Dachte Glitch, neu gestartet mit sizes = ncol(x) - schon eine Stunde gezählt.
Wenn rfe am schnellsten ist, wie lange warten die anderen?
Frühere Pakete, die ich ausprobiert habe, brauchten nicht länger als 5 Minuten für die gleichen Daten.
Hat es bei Ihnen so lange gedauert?

Update: Der zweite Durchlauf mit sizes = ncol(x) beendete die Berechnung in 2,5 - 3 Stunden, die Ergebnisse liegen nahe an denen der Pakete, die 3-5 Minuten für die gleichen Daten benötigen.
Einstellung , rfeControl = rfeControl(number = 1,repeats = 1) - reduziert die Zeit auf 10-15 Minuten, Änderungen - 2 Paare von Prädiktoren vertauscht, aber im Allgemeinen ähnlich.
 
elibrarius:

Ich habe rfe auf einer 12*6400-Matrix ausprobiert, es dauerte etwa 10 Stunden mit den Standardeinstellungen (Größen = 2^(2:4)), wartete nicht und schaltete es ab. Dachte Glitch, neu gestartet mit sizes = ncol(x) - schon eine Stunde gezählt.
Wenn rfe am schnellsten ist, wie lange warten die anderen?
Frühere Pakete, die ich ausprobiert habe, brauchten nicht länger als 5 Minuten für die gleichen Daten.
Hat es bei Ihnen genauso lange gedauert?

Update: Der zweite Durchlauf mit sizes = ncol(x) beendete die Berechnung in 2,5 - 3 Stunden, die Ergebnisse liegen nahe an denen von Paketen, die 3-5 Minuten für die Verarbeitung derselben Daten benötigen.

Ich weiß es nicht mehr genau, es ist schon lange her, aber solche Leidenschaften wie die Ihre bleiben mir nicht in Erinnerung.

Die Matrix ist mir geläufig.

BUT

  • Ziel - wie viele Klassen? Ich habe immer zwei Klassen.
  • Ich lade immer alle Kerne meines XEON 1620, und er läuft 20 % schneller als sein Gegenstück mit der gleichen Frequenz.
  • Wie lautet die Schätzung?
Generell sollte man sehr vorsichtig sein, denn es ist sehr leicht, einen Computer bis zu einem Tag lang zu überlasten. Man muss verstehen, was der Algorithmus tut.
 
SanSanych Fomenko:

Ich weiß es nicht mehr genau, es ist schon lange her, aber solche Leidenschaften wie die Ihre bleiben mir nicht in Erinnerung.

Die Matrix ist mir geläufig.

BUT

  • Ziel - wie viele Klassen? Ich habe immer zwei Klassen.
  • Ich lade immer alle Kerne meines XEON 1620, und er läuft 20 % schneller als sein Gegenstück mit der gleichen Frequenz.
  • Wie lautet die Schätzung?
Generell muss man sehr vorsichtig sein, es ist sehr leicht, einen Computer bis zu einem Tag zu belasten. Sie sollten verstehen, was ein Algorithmus bewirkt.

2 Klassen
Geladen 1 Kern

Die Einstellung , rfeControl = rfeControl(number = 1,repeats = 1) - reduzierte die Zeit auf 10-15 Minuten. Änderungen in den Ergebnissen - 2 Paare von Prädiktoren wurden ausgetauscht, aber im Großen und Ganzen ähneln sie dem Standardwert.