Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3397

 

Ich würde gerne einen Optimierer für ein Portfolio von Modellen schreiben, da diese recht schnell in industriellem Maßstab erstellt werden.

Aber wenn wir viele davon bekommen, wollen wir sie nicht alle in das Terminal ziehen. Rein hypothetisch, wenn wir nicht die Modelle speichern, sondern die Datensätze, auf denen sie trainiert wurden, stapeln und dann ein endgültiges Modell auf ihnen trainieren, sollten die Ergebnisse mit dem Ensemble von Modellen vergleichbar sein, oder?

Причинно-следственный вывод в задачах классификации временных рядов
Причинно-следственный вывод в задачах классификации временных рядов
  • www.mql5.com
В этой статье мы рассмотрим теорию причинно-следственного вывода с применением машинного обучения, а также реализацию авторского подхода на языке Python. Причинно-следственный вывод и причинно-следственное мышление берут свои корни в философии и психологии, это важная часть нашего способа мыслить эту реальность.
 

Ich habe auch vor, nicht wie im Artikel mit positionalem Matchmaking, sondern mit Propensity Score zu experimentieren. Dies wird es ermöglichen, die Wahrscheinlichkeiten gleichzeitig zu kalibrieren.

Dann werde ich die Google-Liba verwenden, um zu sehen, was ich damit herausholen kann.

Vielleicht stelle ich die Ergebnisse später vor.

 
Wenn in den unteren Zeilen der Optimierungsparameter negative Werte für die Einlage, den Gewinn oder das Eigenkapital stehen, schießt das Ergebnis irgendwann in die Höhe. Alle Optimierungen sollen nur Daten für diesen Zeitraum erhalten. Das ist zwar nicht traurig, aber es ist so.
 
Maxim Dmitrievsky #:

Ich habe auch vor, nicht wie im Artikel mit positionalem Matchmaking, sondern mit Propensity Score zu experimentieren. Dies wird die gleichzeitige Kalibrierung von Wahrscheinlichkeiten ermöglichen.

Theoretisch kann man damit nach Stichproben suchen und diese abgleichen

Markieren Sie z. B. zufällig einen Teil der Stichprobe als 0 und einen anderen als 1. Bringen Sie den NS bei, zu trennen, um zu klassifizieren, welche Probe zu welcher Probe gehört. Dies wird auch Adversarial-Validierung genannt.

Im Idealfall sollte der NS die Stichprobe nicht identifizieren, der Fehler sollte etwa 0,5 betragen. Dies bedeutet, dass die ursprüngliche Stichprobe gut randomisiert ist.

propensity
0.38        3
0.40        3
0.41        3
0.42       20
0.43       27
0.44       40
0.45       56
0.46      140
0.47      745
0.48     3213
0.49     8041
0.50    11718
0.51     5324
0.52     1187
0.53      749
0.54      209
0.55       95
0.56       54
0.57       29
0.58       12
0.59       14
0.60        8
0.61        6
0.63        1

Alles, was in der Nähe von 0,5 liegt, ist gut, diese Daten können für das Training verwendet werden. Die Extremwerte sind Ausreißer.

Dann können Sie für jede "Wahrscheinlichkeit" den Prozentsatz der erratenen Fälle berechnen.

Bis jetzt ist dieser Ansatz noch ein wenig unüberlegt.

 

Ein interessanter laufender Wettbewerb - für diejenigen, die ihre Erfolge bei der Vorhersage von Kursen mit anderen Teilnehmern vergleichen wollen.

Numerai
Numerai
  • numer.ai
The hardest data science tournament on the planet. Build the world's open hedge fund by modeling the stock market.
 
Aleksey Vyazmikin #:

Interessanter laufender Wettbewerb - für diejenigen, die ihre Erfolge bei der Vorhersage von Kursen mit anderen Teilnehmern vergleichen wollen.

Also dieser Link wurde hier schon viele Male genannt
 
mytarmailS #:
Dieser Link wurde hier schon viele Male genannt

Ich konnte mich nicht daran erinnern - ich schätze, es war damals nicht klar, was zu tun ist, aber jetzt habe ich die Hilfe gelesen und es ist klarer geworden. Wie auch immer, es ist eine Tatsache, dass diese Idee schon seit langem funktioniert. Soweit ich weiß, wird man dort mit einer Art Krypto für gute Prognosen bezahlt.

Der Nachteil ist natürlich, dass der Code offen ist und für die Teilnahme übertragen werden muss.

 

Die Zukunft ist da: Ich leite den LLM von Google vor Ort. Jetzt brauche ich keine Frau und keine Freunde mehr.


 
Maxim Dmitrievsky #:

Die Zukunft ist da: Ich leite den LLM von Google vor Ort. Jetzt brauche ich keine Frau und keine Freunde mehr.

https://blog.google/technology/developers/gemma-open-models/

Gemma: Introducing new state-of-the-art open models
Gemma: Introducing new state-of-the-art open models
  • blog.google
Gemma is designed with our AI Principles at the forefront. As part of making Gemma pre-trained models safe and reliable, we used automated techniques to filter out certain personal information and other sensitive data from training sets. Additionally, we used extensive fine-tuning and reinforcement learning from human feedback (RLHF) to align...
 

Eine gute Zusammenfassung des gesamten Themas