Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1050

 
Alexander_K:

Nur zur Erinnerung: Aleshenka und Koldun (scheinen die einzigen hier zu sein, die erfolgreich mit neuronalen Netzen gehandelt haben)

Gibt es dafür Beweise?

Alexander_K:

Sehr lange Zeit für die Vorbereitung der Eingabedaten.

Es ist eine Art Standard, selbst ein Anfänger in MO würde sagen: "Müll am Eingang ist Müll am Ausgang".

Alexander_K:

Ich provoziere mit meinen Beiträgen absichtlich ihr Feedback :))) Ach, behalte das Geheimnis für dich...

))) lustig

 
mytarmailS:

Haben Sie irgendwelche Beweise?

Sie löschen ihre Beiträge fast immer, man muss nur online mit ihnen kommunizieren.

 
Alexander_K:

Sie löschen ihre Beiträge fast immer, man muss nur online mit ihnen kommunizieren.

Ahh, das macht dann Sinn...

 
Alexander_K:

Sie löschen ihre Beiträge fast immer, man muss nur online mit ihnen kommunizieren.

Sie löschen ihre Beiträge, um sich nicht zu blamieren), und Sie behaupten, dass es Mythen über sie gibt.

 
Maxim Dmitrievsky:

Sie löschen sie, um sich nicht zu blamieren), und Sie unterstützen Mythen über sie.

Vielleicht, Max - keine Diskussion :))

 
mytarmailS:

Und Reschetow? Nun, ja, er ist mit MSUA vertraut, er hat es einmal gesagt.

Die Idee, Prädiktoren aufzuzählen, Modelle zu erstellen und dann Modelle aus immer komplexeren Modellen zu erstellen, ist meiner Meinung nach sehr richtig.

Aber vielleicht ist es ein Fehler, nicht nach Prädiktoren zu suchen, sondern nach Lösungen für Handelssysteme in einer Umgebung oder etwas anderem...

Ich denke, es ist zu viel, Modelle übereinander zu bauen, zu stapeln oder etwas anderes. Denn wenn sie wirklich nur Unsinn lernen, wird es nichts nützen, es sind ein paar Bruchteile von Prozent Verbesserung, die nichts bedeuten.

es gibt keinen Fehler, nur keine konsistenten Muster )

Übrigens, wenn ich mich mit der Software von Reshetov beschäftige, kann ich entweder aus dem Namen des Unterverzeichnisses der Programmbibliothek oder aus dem, worauf ich auf

http://www.gmdh.net/gmdh.htm

also muss es dasselbe sein. Es gibt nur die Libs in Java und auch sein Programm.

Und dann hat er ein Tandem aus 2 Klassifikatoren - SVM und MLP, die iterativ auf transformierten Merkmalen trainiert werden. Deshalb dauert es auch so lange, bis alles funktioniert.

Метод МГУА для социально экономического прогнозирования, математического моделирования, статистического анализа данных, аналитической оценки систем и программирования.
  • Григорий Ивахненко
  • www.gmdh.net
Метод Группового Учета Аргументов применяется в самых различных областях для анализа данных и отыскания знаний, прогнозирования и моделирования систем, оптимизации и распознавания образов. Индуктивные алгоритмы МГУА дают уникальную возможность автоматически находить взаимозависимости в данных, выбрать оптимальную структуру модели или сети, и...
 
Maxim Dmitrievsky:

Aber Modelle übereinander zu bauen, zu stapeln oder ähnliches ist imho ein Overkill. Denn wenn sie wirklich Unsinn lernen, hilft das nicht, es sind nur ein paar Bruchteile von Prozent Verbesserung, die nichts bedeuten.

Machen Sie nicht etwas komplizierter aus etwas primitiverem, es ist ein natürliches Prinzip, das wir von Spermien ableiten)) oder von einer Idee, wenn Sie noch weiter schauen). Und jetzt sind wir alle erwachsen)

Es spricht also nichts dagegen, das Modell zu verkomplizieren, außerdem wird die Komplikation durch ein externes und internes Kriterium überprüft, der Fehler innerhalb und außerhalb der Probe wird gemessen, wenn der Fehler mit der Komplikation zunimmt, stoppt der Algorithmus ... ich habe es noch nicht verwendet, aber die Methode gefällt mir sehr gut

 
mytarmailS:

Es geht nicht darum, aus etwas Primitiverem etwas Komplexeres zu machen, es ist ein Prinzip der Natur selbst, wir stammen von Spermien ab)) oder vom Denken, wenn man noch weiter schaut...)

Es spricht also nichts dagegen, das Modell zu verkomplizieren, außerdem wird die Komplikation durch ein externes und ein internes Kriterium überprüft, d.h. der Fehler innerhalb und außerhalb der Stichprobe wird gemessen... Kurz gesagt, ich habe es selbst noch nicht angewendet, aber die Methode gefällt mir sehr gut

Wir nehmen eine gewöhnliche Matrix mit Attributen, bei jeder Iteration fügen wir ein neues zusammengesetztes Attribut aus allen Attributen hinzu, trainieren neu, ändern dieses Attribut durch ein komplexeres mittels Kolmogorov-Polynom, trainieren fünfmal neu ... bis der Fehler sinkt

aber in der Praxis wird das bei verrauschten Daten nicht passieren.

Wenn der Fehler immer noch schlecht ist, nehmen Sie alle diese Polynomzeichen und verwenden Sie sie, um neue Zeichen zu erstellen :) aber Sie brauchen ein sehr schnelles neuronales Netz oder ein lineares Modell, sonst müssen Sie ein Jahr lang warten

oder noch einfacher - nehmen Sie eine kernelisierte SVM oder ein tiefes NN und erhalten Sie das gleiche Ergebnis (durch einfaches Hinzufügen von Schichten in einem neuronalen Netz können Sie genau das gleiche Ergebnis wie bei transformierten Merkmalen erzielen), d.h. es geschehen Wunder

Demnach ist GMDH das erste Analogon von Deep NN

 
Maxim Dmitrievsky:

Wir nehmen eine gewöhnliche Matrix mit Attributen, bei jeder Iteration fügen wir ein neues zusammengesetztes Attribut aus allen Attributen hinzu, trainieren neu, ändern dieses Attribut durch ein Kolmogorov-Polynom in ein komplexeres, trainieren fünfmal neu ... bis der Fehler sinkt

aber in der Praxis wird das bei verrauschten Daten nicht passieren.

Wenn der Fehler immer noch schlecht ist, nehmen Sie alle diese Polynomzeichen und verwenden Sie sie, um neue Zeichen zu erstellen :) aber Sie brauchen ein sehr schnelles neuronales Netz oder ein lineares Modell, sonst müssen Sie ein Jahr lang warten

oder noch einfacher - nehmen Sie eine kernelisierte SVM oder ein tiefes NN und erhalten Sie das gleiche Ergebnis (durch einfaches Hinzufügen von Schichten in einem neuronalen Netz können Sie genau das gleiche Ergebnis wie bei transformierten Merkmalen erzielen), d.h. es geschehen Wunder

Darin heißt es, dass GMDH das erste Analogon der tiefen NN ist

Vielleicht so, ich werde nicht argumentieren oder vielleicht nicht))) Ich werde nur hinzufügen, dass der Händler mit einem Super-Roboter, die GMDH verwendet nicht ein Polynom in Versuchen, sondern Fourier-Reihen (Oberschwingungen) und wie wir wissen, die Fourier-Spektrum-Analyse ist nicht anwendbar auf die Finanzmärkte, weil es für periodische Funktionen ausgelegt ist, aber dennoch funktionierte es und ähnlich) Also, weiß der Teufel, wir sollten alles versuchen...

 
mytarmailS:

Und doch hat es bei dem Mann funktioniert, und wie.

Gibt es eine Fortsetzung der Geschichte?

Ich habe beobachtet, dass wenn ein Handelssystem nur positive Ergebnisse liefert, dann wird es einen permanenten Verlust geben - wir sprechen über TS mit festen Lots und Stoplosses