Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2396

 
Maxim Dmitrievsky:
Ja, Sie können sie aus meinen Artikeln entnehmen. Nun, das Prüfgerät ist das einfachste. Ich kann Ihnen einige Beispiele für Python-basierte Bots schicken.

Nun, ich habe auch etwas, das auf der schnellen Prüfung meiner Ideen beruht. Aber es ist schon etwas gewöhnungsbedürftig, es in einem normalen Tester laufen zu lassen. Glauben Sie, dass es sich lohnt, sich diese Gewohnheit abzugewöhnen? )

 
Aleksey Nikolayev:

Nun, ich habe auch etwas, das ich entwickelt habe, um meine Ideen schnell zu testen. Aber es ist schon ein bisschen zur Gewohnheit geworden, dass ich es am Ende im normalen Tester laufen lasse. Glauben Sie, dass es sich lohnt, sich diese Gewohnheit abzugewöhnen? )

Ich mag beides, solange man das Modell schnell portieren kann.
 

MacBooks reißen und fluchen mit den neuen Prozessoren bei MoD-Aufgaben. Die schlechte Nachricht ist, dass CatBoost die Arm-Architektur noch nicht unterstützt, aber sie arbeiten daran

Schlussfolgerung

Aus diesen Tests geht hervor, dass

  • für das Training von MLP und LSTM ist die M1-CPU bei weitem schneller als alle getesteten High-End-Server
  • für das CNN-Training ist der M1 nur geringfügig langsamer als die getesteten High-End-Server

Natürlich können diese Metriken nur für ähnliche neuronale Netzwerktypen und -tiefen wie die in diesem Test verwendeten berücksichtigt werden.

Für große Schulungen und intensive Berechnungen, die länger als 20 Minuten dauern, werde ich immer noch auf Cloud-basierte Lösungen zurückgreifen, da diese Karten für solch lange und schwere Lasten ausgelegt sind und das gleichzeitige Senden mehrerer Aufträge ermöglichen. Dieses Szenario gilt jedoch nur für bestimmte Forschungsarbeiten, die nur 10 % meiner Arbeit ausmachen, hauptsächlich für die berufliche Nutzung in bestimmten Geschäftsbereichen.

Als Ingenieur für maschinelles Lernen ist der M1 Mac für meine tägliche persönliche Forschung derzeit eindeutig die beste und kostengünstigste Option.

https://towardsdatascience.com/benchmark-m1-part-2-vs-20-cores-xeon-vs-amd-epyc-16-and-32-cores-8e394d56003d

Benchmark M1 (part 2) vs 20 cores Xeon vs AMD EPYC, 16 and 32 cores
Benchmark M1 (part 2) vs 20 cores Xeon vs AMD EPYC, 16 and 32 cores
  • Fabrice Daniel
  • towardsdatascience.com
In the first part of M1 Benchmark article I was comparing a MacBook Air M1 with an iMac 27" core i5, a 8 cores Xeon(R) Platinum, a K80 GPU instance and a T4 GPU instance on three TensorFlow models. While the GPU was not as efficient as expected, maybe because of the very early version of TensorFlow not yet entirely optimized for M1, it was...
 
Und wie geht es den Falknern? Sind Ihre Netze intelligent geworden oder haben Sie einen technischen Durchbruch erzielt? Erzählen Sie mir davon!!!!
 

Ist jemand mit dieser Art der Lehrerausbildung vertraut?

Wenn der Lehrer kein Etikett ist, sondern die Person selbst, klickt die Person auf das Bild, das ihr gefällt, und AMO versucht, dieses Bild von allen anderen zu trennen und die gleichen Bilder mit dem gleichen Ergebnis in der Bildstruktur zu finden...


Weiß jemand, ob es eine solche Ausbildung gibt und wenn ja, wie sie heißt?

Ich weiß, wie man es implementiert, aber vielleicht gibt es eine fertige Lösung?

 
Auch ich habe das Bedürfnis, laut zu sprechen. Ein Gedanke zum Thema Nicht-Stationarität. Es ist klar, wie die K-Nächste-Nachbarn-Methode unter ihren Bedingungen zu verwenden ist. Wir nehmen die letzten N Muster in der Zeit, aus denen wir K auswählen, die dem sich bildenden Muster am nächsten sind, und treffen auf dieser Grundlage eine Entscheidung. Die Einfachheit kommt daher, dass man im Grunde nichts lernen muss. Ich frage mich, ob es andere MO-Algorithmen gibt, die auf ähnliche Weise einfach zu verwenden sind.
 
Aleksey Nikolayev:
Ich wollte auch einen Gedanken laut aussprechen. Ein Gedanke zum Thema der Nicht-Stationarität. Es ist klar, wie die K-Nächste-Nachbarn-Methode in ihren Bedingungen zu verwenden ist. Wir nehmen die letzten N Muster in der Zeit, aus denen wir K nächste Nachbarn auswählen und auf deren Grundlage wir eine Entscheidung treffen. Die Einfachheit kommt daher, dass man im Grunde nichts lernen muss. Ich frage mich, ob es andere MO-Algorithmen gibt, die auf ähnliche Weise einfach zu verwenden sind?

Ich habe viel über diese Methode und die Methode selbst geforscht und untersucht, ich weiß nicht warum, aber sie liegt mir am nächsten und ist am einfachsten zu verstehen...

Diese Methode gehört zur Familie der "Nicht-Modell-Vorhersagen".

Sie ist im Netz bekannt als "Vorhersage durch Analoga aus der Vorgeschichte", "Methode der Komplexierung von Analoga von MSUA" usw...

Einst wurde sie für die Wettervorhersage verwendet...

Im Grunde ist es das übliche Clustering, nur genauer... Der Unterschied besteht nur darin, dass bei der üblichen Clusterbildung das Zentrum eines Clusters (Prototyp) etwas in der Mitte zwischen den Analoga ist, und bei der gegebenen Methode ist das Zentrum eines Clusters der aktuelle Preis oder was auch immer, so dass es möglich ist, Analoga genauer für den aktuellen Moment zu finden...

Ich habe sogar nach mehrdimensionalen Mustern gesucht, ich habe sogar meine eigene Mini-Methode erfunden, um nach Mustern in der Vorgeschichte zu suchen, ich bin also sehr tief in diesem Thema drin...

 
mytarmailS:

Ich habe viel über diese Methode und die Methode selbst recherchiert und untersucht, ich weiß nicht warum, aber sie liegt mir am nächsten und ist für mich am intuitivsten.

Es gehört zur Familie der "keine Modellvorhersagen".

Sie ist im Netz bekannt als "Vorhersage durch Analoga aus der Vorgeschichte", "Methode der Komplexierung von Analoga von MSUA" usw...

Einst wurde es für die Wettervorhersage verwendet...

Im Grunde ist es ein normales Clustering, nur genauer... Der Unterschied besteht nur darin, dass bei der üblichen Clusterbildung das Zentrum eines Clusters (Prototyp) etwas in der Mitte zwischen den Analoga ist, und bei der gegebenen Methode ist das Zentrum eines Clusters der aktuelle Preis oder was auch immer, so dass es möglich ist, Analoga genauer für den aktuellen Moment zu finden...

Ich habe sogar nach mehrdimensionalen Mustern gesucht, ich habe sogar meine eigene Mini-Methode erfunden, um nach Mustern in der Vorgeschichte zu suchen, ich bin also sehr tief in diesem Thema drin...

Die Methode ist intuitiv einleuchtend, so dass sie nicht zu vermeiden ist. Aber ich möchte eine gewisse Abwechslung haben. Zum Beispiel eine einfache Modellumschulung, bei der ein neues Beispiel hinzugefügt wird und die veralteten verworfen werden.

 

Aleksey Nikolayev:

Eine einfache Umschulung des Modells, bei der ein neues Beispiel hinzugefügt wird und veraltete Beispiele verworfen werden.

Oder das Wegwerfen veralteter Beispiele, wenn die Zeit im Vergleich zu anderen zu wichtig ist.

 
Aleksey Nikolayev:

Oder das Verwerfen veralteter Beispiele, wenn sich die Zeit als ein zu bedeutendes Merkmal im Vergleich zu anderen erweist.

Ich verstehe nicht, worin der Unterschied zwischen Ihrer Idee und der ständigen Umschulung der AMO im Schiebefenster besteht...


Sie nehmen die letzten n Bilder des aktuellen Bildes, sortiert nach der Zeit, und machen daraus eine Vorhersage - was soll das bringen?

Sie trainieren einfach in einem gleitenden Fenster wie bei AMO oben, was ist der Vorteil?