Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3397
![MQL5 - Sprache von Handelsstrategien, eingebaut ins Kundenterminal MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Ich würde gerne einen Optimierer für ein Portfolio von Modellen schreiben, da diese recht schnell in industriellem Maßstab erstellt werden.
Aber wenn wir viele davon bekommen, wollen wir sie nicht alle in das Terminal ziehen. Rein hypothetisch, wenn wir nicht die Modelle speichern, sondern die Datensätze, auf denen sie trainiert wurden, stapeln und dann ein endgültiges Modell auf ihnen trainieren, sollten die Ergebnisse mit dem Ensemble von Modellen vergleichbar sein, oder?
Ich habe auch vor, nicht wie im Artikel mit positionalem Matchmaking, sondern mit Propensity Score zu experimentieren. Dies wird es ermöglichen, die Wahrscheinlichkeiten gleichzeitig zu kalibrieren.
Dann werde ich die Google-Liba verwenden, um zu sehen, was ich damit herausholen kann.
Vielleicht stelle ich die Ergebnisse später vor.
Ich habe auch vor, nicht wie im Artikel mit positionalem Matchmaking, sondern mit Propensity Score zu experimentieren. Dies wird die gleichzeitige Kalibrierung von Wahrscheinlichkeiten ermöglichen.
Theoretisch kann man damit nach Stichproben suchen und diese abgleichen
Markieren Sie z. B. zufällig einen Teil der Stichprobe als 0 und einen anderen als 1. Bringen Sie den NS bei, zu trennen, um zu klassifizieren, welche Probe zu welcher Probe gehört. Dies wird auch Adversarial-Validierung genannt.
Im Idealfall sollte der NS die Stichprobe nicht identifizieren, der Fehler sollte etwa 0,5 betragen. Dies bedeutet, dass die ursprüngliche Stichprobe gut randomisiert ist.
Alles, was in der Nähe von 0,5 liegt, ist gut, diese Daten können für das Training verwendet werden. Die Extremwerte sind Ausreißer.
Dann können Sie für jede "Wahrscheinlichkeit" den Prozentsatz der erratenen Fälle berechnen.
Bis jetzt ist dieser Ansatz noch ein wenig unüberlegt.
Ein interessanter laufender Wettbewerb - für diejenigen, die ihre Erfolge bei der Vorhersage von Kursen mit anderen Teilnehmern vergleichen wollen.
Interessanter laufender Wettbewerb - für diejenigen, die ihre Erfolge bei der Vorhersage von Kursen mit anderen Teilnehmern vergleichen wollen.
Dieser Link wurde hier schon viele Male genannt
Ich konnte mich nicht daran erinnern - ich schätze, es war damals nicht klar, was zu tun ist, aber jetzt habe ich die Hilfe gelesen und es ist klarer geworden. Wie auch immer, es ist eine Tatsache, dass diese Idee schon seit langem funktioniert. Soweit ich weiß, wird man dort mit einer Art Krypto für gute Prognosen bezahlt.
Der Nachteil ist natürlich, dass der Code offen ist und für die Teilnahme übertragen werden muss.
Die Zukunft ist da: Ich leite den LLM von Google vor Ort. Jetzt brauche ich keine Frau und keine Freunde mehr.
Die Zukunft ist da: Ich leite den LLM von Google vor Ort. Jetzt brauche ich keine Frau und keine Freunde mehr.
https://blog.google/technology/developers/gemma-open-models/
Eine gute Zusammenfassung des gesamten Themas