Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 556

 
Aleksey Terentev:
Überanpassung - Tritt bei großen Gewichten (~10^18) auf, eine Folge der Multikollinearität, die zu einem instabilen Modell A(x, w) führt.


Übertraining wird behandelt durch: frühzeitiges Beenden des Modelllernens, Begrenzung des Wachstums der Gewichte (L1(Lasso) und L2-Regularisierung), Begrenzung der Bindungen im Netz (Dropout), auch mögliche Anwendung von Straffunktionen (ElacticNet, Lasso).

Und die L1-Regularisierung führt zur Auswahl von Merkmalen, da sie sich auf deren Gewichtskoeffizienten konzentriert.

Die Beseitigung "verrauschter" Merkmale ist die Auswahl der Merkmale. Hierfür gibt es Methoden. Dies ist nicht immer vorteilhaft für das Modell, weshalb manchmal eine L2-Regularisierung verwendet wird (um das Problem der Multikollinearität zu lösen).


SanSanych Fomenko, Ihre Aussage über das Verhältnis von Merkmalen und Zielen ist ein wenig anmaßend. Denn wie kann man etwas behaupten, das noch nicht bewiesen ist; dafür ist das MO-Modell ja da. Ein Modell, das aufgebaut ist und funktioniert, gibt eine gewisse Schätzung der Beziehung mit "so-und-so" Genauigkeit.

Und das Beispiel mit den Hosen und Röcken zeigt, wie wenig der Forscher über das Untersuchungsgebiet weiß, denn bei einem solchen Modell werden wertvolle Attribute über den Wohnort, die Jahreszeit, den Breiten- und Längengrad der Wohnregion usw. weggelassen.


Mein Beispiel ist ein degenerierter Fall, reiner Gedanke, Klassifizierung ohne Fehler. In der Wirtschaft gibt es solche Merkmale nicht, aber in der Genetik ist, wenn nicht 100 %, so doch etwas weniger möglich.

Nun zur Regularisierung.

Zweifelsohne.

Aber Konsistenz ist wichtig.

Erstens immer die Auswahl von Merkmalen auf der Grundlage der "Beziehung" zum Ziel. Wenn auf den Aktienmärkten, basierend auf wirtschaftlichen Beziehungen.

Das steht immer an erster Stelle und dann kommt alles andere.


Ich habe einen funktionierenden TS mit rf. Ich wähle 27 Prädiktoren aus mehreren hundert Attributen aus, indem ich die "Relation" verwende. Dann wähle ich aus 27 mit Standard-Algorithmus auf jedem Balken (H1), 5 bis 15 bleiben, sie sind immer unterschiedlich. Ich begrenze die Anzahl der Bäume, 100 ist viel, 50 ist nicht genug, der Fehler bei 50 stabilisiert sich nicht.

Das ist eine konkrete Erfahrung. Der ZZ-Klassifizierungsfehler liegt bei knapp 30 %. Keine Möglichkeit zur Verringerung - es werden andere Prädiktoren benötigt, und es gibt keine Ideen für Prädiktoren.

 
SanSanych Fomenko:

Da Sie so viele Parameter auf einmal eingeben können, ist es klar, was Sie meinen.

In diesem Fall ist die Umschulung eher zweitrangig, und das ist wahrscheinlich das, was mir aufgefallen ist. Es ist eher eine "Erleichterung" der Berechnungen.

 
Aleksey Terentev:

Da Sie so viele Parameter auf einmal eingeben können, ist es klar, was Sie meinen.

In diesem Fall ist die Überanpassung eher zweitrangig, was wahrscheinlich der Grund dafür ist, dass es mir aufgefallen ist. Es ist eher eine "Erleichterung" der Berechnungen.


Warum sekundär?

Was ist primär?

Was könnte erschreckender sein als eine Überanpassung?

 
SanSanych Fomenko:

Warum sekundär?

Was ist primär?

Was gibt es Schlimmeres als Übertraining (Überanpassung)?

In der Frage zu den Stichprobenparametern für die Klassifizierung mit einigen Korrelationen zwischen den Zieldaten erwähnten Sie die Überanpassung. Ich habe versucht, Sie zu korrigieren und diese Frage auf die Aufgabe der Merkmalsauswahl zu verallgemeinern. Gleichzeitig habe ich Überlegungen zum Übertraining angestellt, bei denen sich die Frage der Selektion als Folge davon stellt.
Deshalb sage ich, dass in der gestellten Frage das Übertraining zweitrangig ist.
Sie haben zwar richtig bemerkt, dass ich hätte sagen sollen: "Die Auswahl der Parameter ist der Umschulung untergeordnet, und es lohnt sich, die Frage von dort aus genauer zu betrachten.
 
Bei Interesse wurde ein Signalindikator hinzugefügt. https://www.mql5.com/ru/blogs/post/712023
 
Lesen Sie in aller Ruhe.
https://habrahabr.ru/post/345950/
Добро пожаловать в эру глубокой нейроэволюции
Добро пожаловать в эру глубокой нейроэволюции
  • habrahabr.ru
От имени команды Uber AI Labs, которая также включает Joel Lehman, Jay Chen, Edoardo Conti, Vashisht Madhavan, Felipe Petroski Such и Xingwen Zhang. В области обучения глубоких нейронных сетей (DNN) с большим количеством слоев и миллионами соединений, для тренировки, как правило, применяется стохастический градиентный спуск (SGD). Многие...
 

es stellt sich heraus, dass einfache NS über die Grenzen der Trainingsstichprobe hinaus ziemlich schlecht funktioniert (geht zu einer hyperb. Tangentenkonstante)... im Falle der Regression, d.h. nicht viel besser als RF

sehr anschaulicher Artikel

https://habrahabr.ru/post/322438/


Нейронные сети в картинках: от одного нейрона до глубоких архитектур
Нейронные сети в картинках: от одного нейрона до глубоких архитектур
  • 2022.02.17
  • habrahabr.ru
Многие материалы по нейронным сетям сразу начинаются с демонстрации довольно сложных архитектур. При этом самые базовые вещи, касающиеся функций активаций, инициализации весов, выбора количества слоёв в сети и т.д. если и рассматриваются, то вскользь. Получается начинающему практику нейронных сетей приходится брать типовые конфигурации и...
 
Maxim Dmitrievsky:

es stellt sich heraus, dass einfache NS über die Grenzen der Trainingsstichprobe hinaus ziemlich schlecht funktioniert (geht zu einer hyperb. Tangentenkonstante)... im Falle der Regression, d.h. nicht viel besser als RF

sehr anschaulicher Artikel

https://habrahabr.ru/post/322438/


IMHO handelt es sich um einen nützlichen und zum Nachdenken anregenden Artikel, der keinen Anspruch auf Neuheit erhebt, aber in der Praxis durchaus sinnvoll ist.


Aleksey Terentev:
Lesen Sie in aller Ruhe.
https://habrahabr.ru/post/345950/

IMHO ist es ein nutzloser Artikel, schlechte Übersetzung, oder ich bin ein schlechter Leser, aber für mich sieht es aus wie triviale Anhäufung von veralteten Ideen und leider eine weitere Bestätigung der Krise des Deep Learning als Top-Technologie, sogar der eigentliche Vater dieses Trends Jeffrey Hinton in seinen Artikeln über Kapsel neuronale Netze hat in letzter Zeit darüber gesprochen.

Aber Respekt an Uber Taxi...))

 
Iwan Negreshniy:
IMHO ein nützlicher und informativer Artikel, ohne Anspruch auf Neuartigkeit, aber mit einem guten praktischen Sinn.

Das ist der Grund, warum man leicht verwirrt werden kann, sagen wir, wir haben lineare oder Regression verwendet und alles war in Ordnung, und dann haben wir beschlossen, für die gleichen Aufgaben zu MLP zu wechseln... und auf keinen Fall :)

Deshalb ziehen alle die Klassifizierung vor, obwohl die Regression für Prognosen gut geeignet ist :)

Ich würde sogar sagen, dass für Trends eher lineare oder Regression und für Abflachungen - MLP geeignet ist.

 

Die Übung mit dem Garch hat ein erstaunliches Muster ergeben.

Hier ist der EURCAD-Quotient


Und hier ist die Autokorrelation der absoluten Inkremente


Erstaunliche Regelmäßigkeit!

1. Was bedeutet das?

2. Wie kann diese Regelmäßigkeit genutzt werden?


PS.

Nicht alle Währungspaare haben diese Ansicht.

Hier ist USDJPY