Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1539

 
Igor Makanu:

Sprach- und Musikdateien werden mit dtw komprimiert, die wiederum auch VR sind

;)

Igor Makanu:

Ich habe mich mit diesem Thema befasst, und in meinen eigenen Worten geht das so:

)) Was zum Teufel ist Kompression? Was Sie dort studiert haben, ist nicht klar, aber definitiv nicht das

Maxim Dmitrievsky:

Warum müssen Sie den Rubel komprimieren :)

Warum eigentlich? :))

 
elibrarius:

Sie können die Eingabedaten einfach diskretisieren, z. B. 5 Ziffern in 4 Ziffern umwandeln. Und die Daten werden bereits in 10er-Gruppen vorliegen.
Oder, wie ich bereits vorgeschlagen habe, können Sie einen Alglib-Wald einbauen, der die Verzweigung stoppt, wenn die gewünschte Tiefe oder Anzahl der Beispiele in einem Blatt erreicht ist.

Sampling funktioniert besser als Cat Fics+Vanhot, es wurde keine wesentliche Verbesserung vorgenommen

 
mytarmailS:

und wirklich, warum? :))

Sie können Zitate in Zip-Archive komprimieren, die Größe ansehen und es wird eine neue Fic sein

 
mytarmailS:

)) Was zum Teufel ist Kompression? Ich weiß nicht, was Sie studiert haben, aber das ist definitiv nicht dasselbe.

Betrachten Sie sich als gebildet, lesen Sie wenigstens Wiki, bevor Sie posten

der dtw-Algorithmus analysiert die Zeitkomponente des Signals und passt sie an einen konstanten Wert an. Wenn Sie diesen Wert kennen, können Sie einfach die Pausen zwischen dem Informationsteil des Signals entfernen - als Ergebnis erhalten Sie Datenpakete ohne Zeitkomponente + Algorithmus zur Umwandlung der konstanten Zeitachse


Maxim Dmitrievsky:

Sie können Zitate in Zip-Archive komprimieren, deren Größe Sie sich ansehen können und die neue Funktionen darstellen.

Auf keinen Fall, der Zip-Algorithmus ist ein strenger Transformationsalgorithmus, und man kann Daten, die sich um 1 Byte unterscheiden, nicht als dieselben Daten identifizieren,

Sie brauchen keinen strengen Algorithmus für die Datenverarbeitung, sie haben alle Verluste in den Originaldaten. Wenn Sie es nicht erfinden, ist es jpg - es komprimiert mit Verlusten und inhaltlich ähnliche Daten werden am Ende fast identisch wiederhergestellt, aber visuell! - die Prüfsummen werden unterschiedlich sein, die Bytes selbst werden unterschiedliche Werte haben....

aber als Übungsbeispiel für den NS ist es vielleicht das, was Sie brauchen, d.h. ein jpg für beliebige Daten (keine Bilder)

 
Igor Makanu:

Das wird nicht funktionieren, denn der Zip-Algorithmus ist ein strenger Konvertierungsalgorithmus, und man kann Daten, die sich um 1 Byte unterscheiden, nicht als dieselben Daten identifizieren,

Sie brauchen keinen strengen Algorithmus, um mit den Daten zu arbeiten, sie haben alle einen Verlust der ursprünglichen Daten, wenn Sie es nicht machen - es ist jpg - es komprimiert mit einem Verlust und die Daten, die in der Nähe des Inhalts ist, wird in etwa die gleiche am Ende wiederhergestellt werden, aber visuell! - die Prüfsummen werden unterschiedlich sein, die Bytes selbst werden unterschiedliche Werte haben....

aber als Übungsbeispiel für den NS brauchen wir wahrscheinlich das hier, d.h. eine jpg-Datei für beliebige Daten (keine Bilder)

Nur ein Scherz )) Nun, ein Autoencoder oder eine Faltung erfüllt diese Aufgabe gut. Vladimirs Artikel über Encoder haben Encoder, die Faltung nicht.

seq2seq ist im Wesentlichen auch ein Decoder-Encoder. Bei der maschinellen Übersetzung gibt es zum Beispiel eine unterschiedliche Anzahl von Buchstaben zwischen russischen und englischen Wörtern. Dort wird alles komprimiert, analysiert und dann wieder entpackt.

https://medium.com/@gautam.karmakar/summary-seq2seq-model-using-convolutional-neural-network-b1eb100fb4c4
Seq2Seq model using Convolutional Neural Network
Seq2Seq model using Convolutional Neural Network
  • Gautam Karmakar
  • medium.com
Seq2seq model maps variable input sequence to variable length output sequence using encoder -decoder that is typically implemented as RNN/LSTM model. But this paper https://arxiv.org/pdf/1705.03122.pdf shows application of convolutional neural network for seq2seq learning which is state of the art for computer vision using deep learning. There...
 
Maxim Dmitrievsky:

Ich habe angefangen, etwas über dtw zu lesen, habe aber nicht verstanden, wie man es auf Finanzserien anwendet und warum ich es brauche, aber es ist ein interessantes Thema, denke ich.

Es gab ein Konzept, bei dem DTW eine Erweiterung des Prozesses war, den Anschein eines Plots zu finden, aber letztendlich ist es wahrscheinlich einfacher (oder vielleicht auch nicht), Wavelets zu verwenden.

 
Maxim Dmitrievsky:

Das war ein Scherz )) Nun, ein Auto-Encoder oder eine Faltung erfüllt diese Aufgabe gut. Die Artikel von Vladimir haben Kodierer, keine Faltung.

seq2seq ist im Wesentlichen auch ein Decoder-Encoder. Bei der maschinellen Übersetzung gibt es zum Beispiel eine unterschiedliche Anzahl von Buchstaben zwischen russischen und englischen Wörtern. Das alles wird komprimiert, analysiert und dann wieder entkomprimiert.

https://medium.com/@gautam.karmakar/summary-seq2seq-model-using-convolutional-neural-network-b1eb100fb4c4

Ich habe, glaube ich, letztes Jahr über Encoder gelesen, dass alles, wie üblich, von großen Bolzen auf einem Preisdiagramm abhängt - sie brechen alle Transformationen, wenn es keine Bolzen gäbe, dann würden MAs funktionieren, Kalman-Filter würden funktionieren und alles würde gut funktionieren ))))

Wenn ich zum Beispiel eine flache Stichprobengröße habe, werde ich versuchen, sie zu dekomprimieren, und die Spitzen werden kleiner sein.


PS: ja, es gab einen DTW im Forum, auch aufhttps://www.mql5.com/ru/code/10755

Früher habe ich es gesponnen, aber... alle sollten vor der Verwendung mit einer Datei behandelt werden )))

 
transcendreamer:

Es gab ein Konzept, bei dem DTW eine Erweiterung des Graph-Semblance-Suchprozesses war, aber letztendlich sind Wavelets wahrscheinlich einfacher (oder vielleicht auch nicht)

Igor Makanu:

PS: ja, es gab einen DTW im Forum, habe sogar nachhttps://www.mql5.com/ru/code/10755 gesucht.

Ich habe es einmal verdreht, aber... alle sollten vor der Verwendung abgelegt werden ))))

Ach nein, was soll's, ich mache weiter mit der Verdrehung neuronaler Netze. Ich glaube nicht an so etwas.

 
Maxim Dmitrievsky:

Oh nein, scheiß drauf, ich werde mich wieder mit neuronalen Netzen beschäftigen. Ich glaube nicht an so etwas.

Ich will auch nicht NS drehen, ich bin mit MT5-Tester und seine GA beschäftigt, GA funktioniert ganz angemessen, können Sie schnell (4,5 x 10^142 Varianten getestet!!! - etwa 2-3 Stunden) bauen automatische TS, und dann testen Sie es auf vorwärts, die Ergebnisse sind ganz akzeptabel, imho

HH: aber GA braucht auch eine Datei zum Abschließen, es ist schwierig, die Eingabeparameter abzugreifen - viel wird ein Test von 5 Jahren sein, man fängt an zu schneiden, da die Eingabedaten nicht stimmen - hier als Glücksfall oder einfach gefunden, wo man aufhören muss und ob überhaupt nicht finden wird

 
Igor Makanu:

Ich will auch nicht NS zu tun, nahm ich MT5-Tester und seine GA, GA funktioniert ganz angemessen, können Sie schnell (4,5 x 10^142 Varianten getestet!!! - ca. 2-3 Stunden) bauen automatische TS, und dann testen Sie es auf einem Forward, die Ergebnisse sind ganz akzeptabel, imho

Ich werde entweder bald eine Überwachung durchführen oder einen Artikel schreiben... Ich bin zu faul, um mich mit dem Artikel zu beschäftigen, das ist zu viel Tipparbeit.

Es ist jetzt alles in Python. Das spart eine Menge Zeit.

Das Manko der GA ist, dass sie nicht verallgemeinert werden kann