Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 601

 
Vladimir Perervenko:

Dies ist ein Link zum Hubr. Der Link zur Bibliothek lautet https://keras.rstudio.com/index.html.

Lesen Sie Primärquellen.

Viel Glück!

Ja, ich sehe -Keras ist eine High-Level-API für neuronale Netze, die mit dem Schwerpunkt entwickelt wurde, schnelle Experimente zu ermöglichen. R? wie erwartet, die Schnittstelle.

Danke.

Die Quellen sind eigentlich hier -https://keras.io/ und auf GitHub -https://github.com/keras-team/keras

Keras Documentation
Keras Documentation
  • keras.io
Keras is a high-level neural networks API, written in Python and capable of running on top of TensorFlow, CNTK, or Theano. It was developed with a focus on enabling fast experimentation. Being able to go from idea to result with the least possible delay is key to doing good research. Use Keras if you need a deep learning library that: Allows...
 
Eidechse_:

In der ersten Jahreshälfte 2016 hat die Welt von vielen Entwicklungen im Bereich der neuronalen Netze gehört - ihre Algorithmen wurden von
Google (AlphaGo Go Spielernetzwerk), Microsoft (eine Reihe von Bildidentifizierungsdiensten), die Start-ups MSQRD, Prisma und andere...
Nur wenige wissen, dass andere parallel dazu entwickelt wurden. Die besten Köpfe der Welt haben sich zusammengetan, um ein einzigartiges System zu schaffen,
die man bereits als KI bezeichnen könnte. Das Endprodukt ist von "Gottes Programmierern" gemacht, es funktioniert problemlos mit jeder Datenmenge,
auf jeder Art von Hardware, sogar auf einem kleinen Stück Papier. Kurz gesagt: Mishan, fang! Aber sei ruhig ...)))


Komm schon, ich hoffe, es ist kein böser Virus... Ich weiß nicht, ob du Kacke reingetan hast. Ich kannte mal einen Benutzer mit dem Spitznamen Klot, der sagte, er könne "die Hölle aus einem Glatzkopf programmieren" und war wirklich gut im Programmieren....

Ich konnte es mir nicht einmal ansehen, weil ich noch die gepolsterten Blätter von 2003 habe... Es hat wohl nicht sollen sein :-(

 

Es ist eine Art "Lücke, die immer da ist".

 
Mihail Marchukajtes:

Ich konnte es mir nicht einmal ansehen, denn ich habe die gepolsterten Prospekte von 2003...

Zeit zum Abrocken.

excel 03 ist Hardcore.

 
Mihail Marchukajtes:

Komm schon, ich hoffe, es ist kein böser Virus... Ich weiß nicht, ob du Kacke reingetan hast. Ich kannte mal einen Benutzer mit dem Spitznamen Klot, der immer sagte: "Er kann verdammt viel programmieren" und war wirklich gut im Programmieren....

Ich konnte es mir nicht einmal ansehen, weil ich noch die gepolsterten Blätter von 2003 habe... Ich glaube, das ist es nicht wert :-(


Google scheißt, oder?

aber es ist eine Art von selbstgemachtem Perseptron :)

 
Das können Sienicht:

Ich habe manchmal den Verdacht, dass Sie am Tod von Reschetow schuld sind, entschuldigen Sie, dass ich mich dazu äußere, ich konnte nicht widerstehen.


Reserviert auf..... Natürlich habe ich einige Varianten in seine Entwicklung eingepflanzt, aber ich denke, dass höchstens 10 % meiner Ideen von ihm gebilligt wurden, und damit habe ich wahrscheinlich übertrieben. Die Tatsache, dass es im MOE zwei Bereiche von Fachleuten gibt, sind Entwickler (Programmierer) und Ingenieure (Benutzer). Ratet mal, in welche Kategorie ich gehöre????

 

Ich denke also darüber nach, eine Java-Ausbildung zu absolvieren und weiterzumachen. Ich habe das Gefühl, dass ich eine Reihe von wichtigen Punkten in den Besonderheiten der Sprache nicht verstehe, und mir wurde angeboten, sie für 150 Tausend für ein Jahr an der Universität von mila.ru zu lernen..... So ist das nun mal. Er blieb bei einem der letzten Schritte stehen, der Auswahl der Prädiktoren. Berechnung ihrer Bedeutung und eine Art von Auswahl. Denn es gibt zwei gehärtete Teile im Code. Aber glauben Sie mir, ein Experte für den Prozess des Lernens, der Analyse des resultierenden Modells und seiner Auswahl (das ist es, was Ingenieure gut können). Ich kann die folgende Einschätzung abgeben.

1.JPrediction hat die Fähigkeit zu verallgemeinern. Nicht so sehr, wie ich es mir wünschen würde, aber von 10 erhaltenen Modellen werden 50-80% verallgemeinerte Modelle sein, der Rest wird Pflaume sein. Sie werden unterschiedlich verallgemeinert, und ein Modell mit einer guten Lernkurve kann in Zukunft weniger gewinnen als ein Modell mit einer schlechteren Lernkurve.

2. Das Problem bei der Auswahl der Prädiktoren ist, dass ich sie mit 100 von ihnen füttere, sie ein Modell von maximal 9 erstellt und es 3 Tage lang auf 3 Kernen macht. Logischerweise ist das Modell umso parametrischer, je mehr Eingaben es hat und je mehr Faktoren es berücksichtigt, aber in der Praxis funktioniert das Modell umso besser, je einfacher es ist, als ein Modell mit demselben Trainingsergebnis, aber mit mehr Eingaben. Ich betrachte Modelle mit 5 Eingaben und mehr, denn bei einer geringeren Anzahl von Eingaben wirkt es sich aus, wenn das Modell für eine gewisse Zeit Glück hat und dann nicht, und in der Regel ist diese Zeit nicht beträchtlich, weil das Modell zu klein ist.

Ich habe gerade versucht, alles mit Daten und sogar gelehrt JPrediction heftig retrainieren, wenn ich die gleichen Daten nehmen, machen sie retrainieren und das Ergebnis ist die Ausbildung steigt stark innerhalb von 20%. Das heißt, aus 75 % wurden 90 %, und gleichzeitig verlor ich eine Menge Daten über die OOS.

Jetzt gibt es erste Dienste für MO, ich verwende AWS. Es gibt einen Abschnitt über maschinelles Lernen und Modellbildung. Daher baue ich das dortige und mein eigenes Modell aus ein und derselben Datei. Auf AWS ist die Qualität des trainierten Modells um ein Vielfaches schlechter, aber es dauert nur 5 Minuten, es zu erstellen. Und es gibt nicht so viele Einstellungen.

Ich würde sehr gerne zwei identische Dateien, aber in verschiedenen IIM-Systemen laufen lassen und das Ergebnis in Form eines gehandelten Abschnitts des EAs vergleichen, aber leider gibt es in diesem Forum keine Spezialisten, die komplette IIM-Systeme haben. Jeder hier sucht noch nach.... alas...... Trickbetrüger!!!! Sie haben gefunden???? Ihr AI.......

 

Diejenigen, die das Buch lesen/studieren

Google Colab hat GPU-Unterstützung

und TensorFlow ist bereits installiert.

Der einzige knifflige Teil ist die Arbeit mit Dateien über API und Google Drive


Test der Grafikkartenleistung:

Zeit (s) für die Faltung von 32x7x7x3 Filtern über zufällige 100x100x100x3 Bilder (Stapel x Höhe x Breite x Kanal). Summe von zehn Läufen: CPU (s): 9,76737689972 GPU (s): 0,16198209479GPU-Beschleunigung gegenüber CPU: 60x

Ich habe keine Ahnung, wie es gemacht wird, aber es funktioniert :)

und hier ging R natürlich mitten in die...l

 
Maxim Dmitrievsky:

Diejenigen, die das Buch lesen/recherchieren

google colab bietet Unterstützung für Ihre GPU

und TensorFlow bereits installiert

Kurz gesagt, Sie müssen überhaupt nichts installieren, sondern können sich einfach über Ihren Browser einloggen und arbeiten. Die einzige Schwierigkeit ist die Arbeit mit Dateien über die API und Google Disk


Leistungstest für meine Grafikkarte:

Zeit (s) für die Faltung von 32x7x7x3 Filtern über zufällige 100x100x100x3 Bilder (Stapel x Höhe x Breite x Kanal). Summe von zehn Läufen: CPU (s): 9,76737689972 GPU (s): 0,16198209479GPU-Beschleunigung gegenüber CPU: 60x

Ich habe keine Ahnung, wie es implementiert ist, aber es funktioniert :)


Das ist sehr hilfreich. Was ist das für ein Labor?

 
Mihail Marchukajtes:

Das ist sehr nützlich. Was ist das für ein Labor?


Komm schon, Mikhail.

aber es ist eine virtuelle Maschine und sie verwenden ihre eigene Grafikkarte)