Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 493

 
Maxim Dmitrievsky:

wolf-forward wird benötigt, man kann nicht so optimieren, forward wird in diesem Fall immer schlecht (oder zufällig) sein, je nachdem, in welche Phase des Marktes man gerät, ich habe bereits eine Reihe von Versionen solcher Systeme im Backtest, die auf forward wie eine Münze funktionieren), das nennt man overfitting

Gibt es einen Algorithmus für die Auswahl der Systemparameter beim Rolling Forward?
Ich habe ein Dutzend Optimierungen mit monatlichen Offsets. In jedem Monat unterscheiden sich die besten Eingabeparameter von den Parametern der anderen Monate. Welche von ihnen sollte ich für meine Arbeit wählen?
 
elibrarius:
Gibt es einen Algorithmus für die Auswahl der Systemparameter bei der Vorwärtssteuerung?
Ich habe ein Dutzend Optimierungen mit einem Offset pro Monat erhalten, wobei sich in jedem Monat die besten Eingabeparameter von den Parametern der anderen Monate unterscheiden. Und welche soll man wählen?

Ich habe mich nicht korrekt ausgedrückt, ich meinte "etwas Ähnliches", d.h. ein selbstoptimierendes System mit einem Optimierungskriterium, und derselbe NS kann als Optimierer verwendet werden

 
elibrarius:
Gibt es einen Algorithmus für die Auswahl der Systemparameter bei der Vorwärtssteuerung?
Ich habe ein Dutzend Optimierungen mit einem Versatz von einem Monat, wobei sich die besten Eingabeparameter jeden Monat von den Parametern der anderen Monate unterscheiden. Und für welchen soll man sich entscheiden, um mit ihm zu arbeiten?
Apropos Optimierung und Ausbildung. Dafür benötige ich 23 Stunden, ohne die Zwischenschritte zu berücksichtigen. Nach jedem Durchgang (das sind mehrere Epochen) ändere ich das Trainingsmuster. Nein, ich mische sie nicht, ich ändere sie, d. h. ich zeige nicht die gleichen Bilder. Im Lernprozess gibt es keine sich wiederholenden Proben.
 
Yuriy Asaulenko:
Apropos Optimierung und Lernen. Dafür benötige ich 23 Stunden, Zwischenschritte nicht mitgerechnet. Nach jedem Durchlauf (es sind mehrere Epochen) ändere ich die Probe für das Training. Nein, ich mische sie nicht, ich ändere sie, d. h. ich zeige nicht die gleichen Bilder. Im Lernprozess gibt es keine sich wiederholenden Proben.

Und was genau ist der Optimierungsalgorithmus? Suchen Sie nach einem mit dem L-BFGS-Algorithmus, er ist um ein Vielfaches schneller.

und Ihr NS lernt, nun ja, 100 Mal schneller, zum Beispiel nicht 23 Stunden, sondern 10 Minuten (wie alle normalen Menschen) :))), wenn Sie einen einfachen Gradientenabstieg mit einem festen Schritt haben


Hier ist ein Vergleich:

http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html

Исследование алгоритмов обучения искусственной нейронной сети для задач классификации - PDF
Исследование алгоритмов обучения искусственной нейронной сети для задач классификации - PDF
  • docplayer.ru
САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ Математико-Механический факультет Кафедра Системного Программирования Корыстов Максим Андреевич Исследование алгоритмов обучения искусственной нейронной сети для задач классификации Курсовая работа Научный руководитель: Невоструев К. Н. Санкт-Петербург 2014 г. Введение 1.1 Мотивация В последнее...
 
Maxim Dmitrievsky:

Und was genau ist der Optimierungsalgorithmus? Suchen Sie nach einem mit dem L-BFGS-Algorithmus, er ist um ein Vielfaches schneller.

und Ihr NS lernt, nun ja, 100 Mal schneller, zum Beispiel nicht 23 Stunden, sondern 10 Minuten (wie alle normalen Menschen) :))), wenn Sie einen einfachen Gradientenabstieg mit einem festen Schritt haben

Hier ist ein Vergleich:

http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html

Danke, ich werde es lesen.

Es ist eher ein Lernen als ein Optimieren. Nicht einfach. Ich habe bereits geschrieben - Standard-BP mit simulierter Glühung von Hand.

Wahrscheinlich gibt es bessere Algorithmen, aber ich verwende nur das, was in der Entwicklungsumgebung verfügbar ist. Andere, externe, sind problematisch.

Im Allgemeinen ist die Geschwindigkeit nicht entscheidend, wenn ich einmal alle 3 Monate trainiere - 23 Stunden sind sogar ufu. Bei einem 3-Monats-Test wurde jedoch keine Verschlechterung festgestellt. Wahrscheinlich funktioniert es für längere Zeit.

 
Yuriy Asaulenko:

Es ist eher ein Lernen als ein Optimieren. Nicht einfach. Ich habe bereits geschrieben - Standard-BP mit simulierter manueller Glühung.

Vielleicht sind einige Algorithmen besser, aber ich verwende nur das, was in der Entwicklungsumgebung verfügbar ist. Andere, externe, sind problematisch.


was auch immer, Training ist die Optimierung der Zielfunktion

Richtig, sie schrieben über das Glühen, ich bin damit nicht vertraut, ich werde es lesen.

 
Maxim Dmitrievsky:

was auch immer, Training ist die Optimierung der Zielfunktion

Ich habe keine Zielfunktion im Training, d.h. es gibt keine Anfangsklassifikation in der Trainingssequenz). Das ist so, als würde man das Einmaleins mit einem Lehrer lernen, der es nicht einmal gut genug kennt. Der NS selbst ist auf der Suche nach einem Ziel, von dem er nicht weiß, wo es liegt. Schnelleres Lernen ist also unwahrscheinlich.
 
Maxim Dmitrievsky:

was auch immer, Training ist die Optimierung der Zielfunktion

Richtig, sie schrieben über das Glühen, ich bin damit nicht vertraut, ich werde es lesen.

Ja, das Annealing wird manuell simuliert, indem die Trainingsparameter nach N Epochen geändert werden. Außerdem wird die Trainingssequenz vollständig ersetzt (nicht gemischt, sondern ersetzt).
 
Yuriy Asaulenko:
Ja, Annealing wird manuell simuliert, indem die Lernparameter nach N Epochen geändert werden. Außerdem wird die Lernsequenz vollständig ersetzt (nicht gemischt, sondern ersetzt).

Das ist cool, wo kann ich mehr über diese Art von NS lesen? d.h. es ist wie ohne Lehrer, aber man gibt trotzdem etwas an den Output weiter?

 
Maxim Dmitrievsky:

Ich bin mir nicht sicher, wo man mehr über diese Art von NS lesen kann? d.h. es ist so, als ob man es ohne einen Lehrer bekommt, aber man gibt immer noch etwas an den Ausgang weiter?

Ich kann Haykins Neuronale Netze und Bishops Theorie auf Englisch lesen - es gibt keine Übersetzung, aber sie scheint fertig zu sein.

Das ist ganz einfach. Sie geben zufällige Gewerke ein und geben das Ergebnis aus. Die Monte-Carlo-Methode wird genannt, und sie ist an sich nicht sehr schnell. Und ihre Systematisierung ist eine Frage der systematischen Analyse.