Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 858

 
Maxim Dmitrievsky:

Ich verwende nicht die Algorithmen anderer Leute.

Natürlich ist der Kulibin-Geist eine gute Sache, aber die interessantesten und notwendigsten Dinge sind bereits erfunden worden und liegen direkt in meiner Hand. Ich würde jahrzehntelange Forschung auf der ganzen Welt nicht ablehnen.

 
Maxim Dmitrievsky:

Ich habe auch solche, und es gibt auch solche, die Geld verdienen, aber nicht immer, und ich möchte es immer (oder fast immer) verdienen. Und nur dann kann ich Ratschläge geben.

Im Sparschwein! Ich werde es jedes Mal einfügen, wenn du anfängst, Tipps zu geben, die du nicht kennst :)

 
Dr. Trader:

Natürlich ist der Kulibin-Geist eine gute Sache, aber die interessantesten und notwendigsten Dinge sind bereits erfunden worden und liegen direkt in Ihrer Hand. Ich hätte nichts dagegen, jahrzehntelang in der ganzen Welt zu forschen.

Sie machen mich fertig mit Ihren leeren Behauptungen.

 
Dr. Trader:

Im Sparschwein! Ich werde es jedes Mal einbauen, wenn du anfängst, Ratschläge zu geben, die du nicht kennst :)

Ich habe gelernt, dass es sinnlos ist, ein totes Pferd aufzufordern, etwas Verständliches zu sagen; es ist einfacher, abzusteigen und nicht zu reagieren.

 
Vizard_: Los geht's! Frische Schmiere für die Wichser...


Nach 2 Minuten Arbeit mit einer 13x6400 Matrix (10 mal größer als das Beispiel)
Dies geschieht.
Fehler: Ich kann keinen 3.2 Gb Vektor platzieren.
Und es versucht, 12-13 Gb zu belegen, während ich insgesamt 16 Gb habe.


 
R belegt den Speicher in der Regel Stück für Stück. Er hat bereits 12-13 genommen, will 3 weitere, und man weiß nicht, wie viele er später noch brauchen wird.
 
Dr. Trader:
R belegt den Speicher in der Regel Stück für Stück. Er hat bereits 12-13 genommen, will noch 3 weitere, und wer weiß, wie viele er später noch brauchen wird.

Reduzierte die Matrix - konnte nicht einmal 13x500 zählen... Offenbar treiben ihn Marktdaten ohne Muster in den Wahnsinn)). Es ist ja nicht so, dass Sie Glukose zur Bestimmung von Diabetes verwenden.

Hat das schon jemand mit Marktdaten ausprobiert? Hatten Sie Glück?

Endlich... Ich habe es mit 13x100 geschafft: (aber es ist dumm, etwas nach 100 Zeilen zu sortieren). Die Eingabe Nr. 2 schien die wichtigste zu sein, bei früheren Paketen war sie es am Ende. Wahrscheinlich liegt das daran, dass die Auswertung auf 100 und nicht auf 6400 Zeilen basiert.

Geordnete Variablen (abnehmende Bedeutung):
2 5 10 12 64 7 8 9 1 11
Werte 0,24 0,025 0,019 -0,048 -0,055 -0,057 -0,05 -0,063 -0,067 -0,072
3
Werte NA

---

Matrix der Punktzahlen:
2 5 10 12 64 7 8 9 1 11
2 0.24
5 0.128 0.025
10 0.186 -0.002 0.019
12 0.015 -0.043 -0.051 -0.048
6 0.086 -0.053 -0.011 -0.068 -0.05
4 0.066 -0.029 -0.073 -0.054 -0.065 -0.055
7 0.134 -0.088 -0.101 -0.188 -0.121 -0.099 -0.057
8 0.12 -0.202 -0.069 -0.1 -0.068 -0.089 -0.061 -0.05
9 0.092 -0.004 -0.138 -0.097 -0.088 -0.069 -0.112 -0.088 -0.063
1 0.086 -0.06 -0.088 -0.107 -0.083 -0.084 -0.066 -0.081 -0.076 -0.067
11 0.095 -0.017 -0.183 -0.115 -0.083 -0.078 -0.066 -0.086 -0.066 -0.082 -0.072
3 0.059 -0.132 -0.102 -0.146 -0.114 -0.126 -0.109 -0.113 -0.131 -0.117 -0.135


 

Hallo!


Ist der Roboterneuro mit KI bereit?


Probieren Sie es aus. )))



In der Zwischenzeit habe ich herausgefunden, wie man einen Tick-Bot erstellt - damit er genauso funktioniert wie auf dem Testgerät ))))

 

Eine Einführung in Greta


Ich war vonGreta überrascht. Ich hatte angenommen, dass dieTensorflow- undReticulate-Pakete es R-Entwicklern schließlich ermöglichen würden, über Deep-Learning-Anwendungen hinauszuschauen und dieTensorFlow-Plattform zu nutzen, um alle Arten von produktionsreifen statistischen Anwendungen zu erstellen. Aber ich habe nicht nach dem Bayes'schen Prinzip gedacht. Schließlich istStan wahrscheinlich alles, was ein Bayesianer sich wünschen kann. Stan ist ein leistungsfähiges Modellierungssystem für Wahrscheinlichkeitsverteilungen auf Produktionsebene mit einer elegantenR-Schnittstelle, ausführlicher Dokumentation und einem engagierten Entwicklungsteam.

Aber greta lässt Benutzer TensorFlow-basierte Bayes'sche Modelle direkt in R schreiben! Was könnte charmanter sein? greta beseitigt die Hürde des Erlernens einer Zwischenmodellierungssprache und verspricht dennoch, hochleistungsfähige MCMC-Modelle zu liefern, die überall laufen, wo TensorFlow eingesetzt werden kann.

In diesem Beitrag stelle ich Ihnen greta anhand eines einfachen Modells vor, das von Richard McElreath in Abschnitt 8.3 seines ikonoklastischen BuchesStatistical Rethinking: A Bayesian Course with Examples in R and Stan verwendet wird. Dieses Modell versucht, den Logarithmus des BIP eines Landes auf der Grundlage eines Maßes für die Unwegsamkeit des Geländes zu erklären und gleichzeitig zu kontrollieren, ob das Land in Afrika liegt oder nicht. Ich verwende es nur zur Veranschaulichung von MCMC-Sampling mit greta. Das ausführliche Beispiel in McElreaths Buch ist jedoch eine Meditation über die Feinheiten der Modellierung von Wechselwirkungen und ist es wert, studiert zu werden.

Zuerst laden wir die benötigten Pakete und holen die Daten. DiagrammeR dient zum Plotten des TensorFlow-Flussdiagramms des Modells, und Bayesplot wird zum Plotten von Tracediagrammen der Markov-Ketten verwendet. Der robuste Datensatz mit 52 Variablen für 234 ist recht interessant, aber wir werden einen abgespeckten Datensatz mit nur 170 Bezirken und drei Variablen verwenden.


library(rethinking)
library(greta)
library(DiagrammeR)
library(bayesplot)
library(ggplot2)

Der folgende Code ist zu verwenden.


Hallo Radfahrer-Erfinder!

 
Eidechse_:

)))

Für die erste Suche ist es ratsam, entweder "peng" (schneller) oder "esteves" zu verwenden.
(zuverlässiger, aber viel langsamer bei großen Datenmengen) und, falls die Anzahl der
Variablen groß ist (>100), beschränken Sie die "Vorwärtssuche" auf "n.var = 100". Die
Der Fortschrittsbalken gibt Ihnen einen Überblick über die verbleibende Laufzeit.


bibliothek(varrank)

data(nassCDS, Paket = "DAAG")

nassCDS.varrank <- varrank(data.df = nassCDS,
Methode = "peng",
variabel.wichtig = "tot",
variable.method = "dead", variable.method = "sturges",
Algorithmus = "vorwärts",
Schema = "mittel",
verbose = FALSE)

Zusammenfassung(nassCDS.varrank)
plot(nassCDS.varrank, notecex = 0.5)

Ist dieser spezielle Algorithmus bei der Auswahl der Prädiktoren gut oder schlecht?


Was ist bei der Auswahl von Prädiktoren im Allgemeinen gut und was ist schlecht?

Oberflächlich betrachtet geht es darum, die Auswahl der Prädiktoren mit der Leistung eines Modells zu verknüpfen.

Das klingt für mich nach einem zweiten Schritt.

Der erste Schritt besteht IMMER darin, ein Übertraining des Modells zu vermeiden, d. h. eine Situation, in der das Verhalten des Modells in der Zukunft nicht mit seinem Verhalten in der Vergangenheit übereinstimmt. Wenn wir uns darüber keine Gedanken machen, dann ist das alles nur ein Zahlenspiel.


Um auf Ihren Beitrag zurückzukommen.

Ich glaube, dass sich das zukünftige Verhalten des Modells kaum von dem der historischen Daten unterscheiden wird, wenn sich die VORSCHRIFT der Prädiktoren bei der Verschiebung des Fensters nicht wesentlich ändert.

Werden sich die Ränge, die das Paket berechnet, bei einer Reihe von Prädiktoren ändern oder nicht? Natürlich kann das Ergebnis für verschiedene Gruppen von Prädiktoren unterschiedlich ausfallen, doch wenn (wie ich es oben getan habe) Beiträge wie dieser hier veröffentlicht würden...