Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1231

 
Maxim Dmitrievsky:

Theoretisch kann ich bereits Tausende von Simulationen für Stichproben mit bestimmten statistischen Merkmalen durchführen... ich muss nur das Fenster auswählen, obwohl es auch durchsucht werden kann.

Ich habe immer ein gleitendes Fenster = 3600 Werte (definiert als 6x6x10x10, wobei 6 das Quantil ist, das fast jede unimodale Petunin-Vysokovsky-Verteilung abdeckt). Es ist möglich, zu schwanken - siehe.

Aber das ändert nichts am Kern der Sache - wir müssen auf jeden Fall sicherstellen, dass neuronale Netze mit Reihen mit einer starren Verteilung der Wahrscheinlichkeit von Wiederkehrern funktionieren oder nicht. Eine Tabelle mit Forschungsergebnissen im Studio! Und dann werden wir weitermachen.

 
Alexander_K2:

P.S. Und der Trottel Asaulenko ist es nicht wert, dass man ihm zuhört - er weiß viel und weiß nichts. Amen.

Hallo, A_K. Wie ich sehe, haben Sie sich bereits von der missglückten Premiere erholt und treten Ihnen bereits in den Hintern). Gehen Sie zurück zu Ihrem Thema, die Leute warten dort auf Sie, und es ist nichts vor Neujahr.

Und ändern Sie das Konzept. Vielleicht haben Sie so viel Glück.

 
Maxim Dmitrievsky:

D.h. die statistischen Merkmale sollten aus einer Rendite und nicht aus einem Kursdiagramm entnommen werden, richtig?

Wir sind nur an der Verteilung der Erträge interessiert und an nichts anderem. Wir sind nur an der Verteilung der Erträge interessiert und an nichts anderem.

 
Yuriy Asaulenko:

Hey, A_K. Wie ich sehe, hast du dich von der enttäuschenden Premiere erholt, du bist schon wieder voll dabei). Gehen Sie zurück in Ihre Filiale, dort wartet man auf Sie, und es ist nicht mehr lange bis Silvester.

Und ändern Sie das Konzept. Vielleicht haben Sie ja Glück.

Hallo!

Nein, ich werde nach Silvester mit den Ergebnissen zurückkommen, oder vielleicht auch nicht. Ich wollte kein Graffiti verteilen, da in einer Filiale und so mehr als nötig geschrieben.

 
..:

Ich glaube nicht, dass Kesha und Misha verurteilt werden müssen, sonst würde sich die Geschichte ändern und es gäbe nicht mehr viel zu lachen.

Ich unterstütze das.

Kesha ist offensichtlich einer der Investoren, die Aliosha nachstellen. Und auf der verzweifelten Suche nach ihm ist er hier und inseriert die voluminösen Blätter seines Großvaters SanSanych. Verlockend, sozusagen...

 
...:


Ja, Diplearn muss gründlich verdaut werden, ich wollte schon lange NLP\NLU machen, aber leider habe ich noch keine Zeit, wenn ich soziale Netzwerke auch nur ein bisschen besser als zufällig analysieren könnte, wäre das eine gute Bestechung, um zu erhöhen...

Etwas ist nicht klar. Es ist, als ob VR in ein Bild umgewandelt wird, und dann...

Pivot Billions and Deep Learning enhanced trading models achieve 100% net profit
Pivot Billions and Deep Learning enhanced trading models achieve 100% net profit
  • pivotteam
  • www.r-bloggers.com
Deep Learning has revolutionized the fields of image classification, personal assistance, competitive board game play, and many more. However, the financial currency markets have been surprisingly stagnant. In our efforts to create a profitable and accurate trading model, we came upon the question: what if financial currency data could be represented as an image? The [...] continue reading »
 
Eidechse_:

Bei mgc kommt es vor allem auf die Ausrichtung an, solange die Abweichungen angemessen sind. Es wird verwendet, um die Dimensionalität zu reduzieren.
und zur Bekämpfung der Multikollinearität sowie zu Aufklärungszwecken. Schwimmer
wird natürlich ein wenig schwanken, und je besser die Vorverarbeitung, desto weniger. Es ist sinnvoll, aber nicht so sehr wie Fasal, denn
sie neigt dazu, nützliche Informationen zu verschlingen. "Der Auftrieb kann nicht nur durch die Vorverarbeitung reduziert werden, sondern auch durch
Der "Auftrieb" kann nicht nur durch Preprocessing, sondern auch durch Postprocessing reduziert werden, wie das Beispiel von Fa on "bending" logloss etc. zeigt, das wiederum zur Korrektur verwendet werden kann
kann verwendet werden, um die Wahrscheinlichkeiten vor dem Werfen zu korrigieren, wo immer Sie wollen... aber Sie sollten nicht
aber freuen Sie sich nicht zu sehr, es ist nur eine 1-2%ige Verbesserung. Nach ein paar oder drei Durchläufen, vorausgesetzt die Vorverarbeitung ist adäquat
der Vorverarbeitung und einer ausreichenden Anzahl von Proben wird die Formel für die erforderlichen Komponenten genommen und der Chip hergestellt, jedes Mal
vor klappern klappern klappern klappern klappern ist nicht getan... usw... Ein einfaches Beispiel für die Betrachtung von (2 ist ivert,
aber darum geht es nicht)... All dieser Mist, sowie andere Sachen auf dem Amateur, ich habe es für mich selbst vor langer Zeit gesehen, nicht viel Nutzen...


Ich habe viel Zeit mit den verschiedenen Hauptkomponenten verbracht, und dann habe ich etwas sehr Einfaches herausgefunden, und das ist allgemein.

Nehmen wir an, wir haben eine PCA durchgeführt und die Koeffizienten erhalten, mit denen wir die Prädiktoren multiplizieren.

Jetzt verschieben wir das Fenster (ein neuer Balken kommt) und was sollen wir tun - die Koeffizienten neu berechnen? So wird es im Prüfgerät gemacht. Und wenn wir sie nicht neu berechnen, haben wir immer noch die Hauptkomponenten?

Stellen wir uns nun eine gewöhnliche lineare Regression vor. Sie hat dieselben Koeffizienten, zeigt aber eine Tabelle, aus der hervorgeht, dass die Koeffizienten Zufallszahlen sind, mit allem, was dazu gehört, einschließlich der Tatsache, dass der Fehler den Nennwert des Koeffizienten übersteigen kann.


Inwiefern sind die Hauptkomponenten besser?

Es geht nicht um die Hauptkomponenten. Wir sind nicht an der Analyse der Vergangenheit interessiert, wir übernehmen einige Parameter aus der Vergangenheit, da es keinen Platz gibt, um sie zu übernehmen, aber diese Parameter dürfen sich NICHT ändern. Dies ist eine allgemeine Regel. Bei der Konstruktion einer TS ist es notwendig, die Konstanz bzw. schwache Variabilität der erhaltenen Parameter nachzuweisen.


Auch hier müssen wir uns mit der Stationarität auseinandersetzen.

 
SanSanych Fomenko:

Wir sind nicht daran interessiert, die Vergangenheit zu analysieren, wir übernehmen bestimmte Parameter aus der Vergangenheit, weil es keine andere Möglichkeit gibt, sie zu übernehmen, aber diese Parameter dürfen sich NICHT ändern. Dies ist die allgemeine Regel. Bei der Konstruktion einer TS ist es notwendig, die Konstanz bzw. schwache Variabilität der erhaltenen Parameter nachzuweisen.


Erneut sind wir mit der Stationarität konfrontiert.

Es kann versucht werden, Annahmen über die Struktur der Nicht-Stationarität zu treffen. Eine offensichtliche Option ist zum Beispiel die Annahme stückweiser Stationarität. In diesem Fall müssen wir manchmal die veraltete Geschichte verwerfen (eine Diskontinuität finden).

 
Aleksey Nikolayev:

Man kann versuchen, Annahmen über die Struktur der Nicht-Stationarität zu treffen. Eine offensichtliche Option ist zum Beispiel die Annahme stückweiser Stationarität. In diesem Fall müssen wir manchmal die überholte Geschichte verwerfen (eine Diskontinuität finden).

Keine überholte Geschichte, sondern nicht-stationäre Abschnitte.

Gut gemacht, Alexey - endlich hat sich die angewandte Mathematik durchgesetzt, nicht nur das Gralsdenken.

 
Alexander_K2:

Keine veraltete Geschichte, sondern unsichere Handlungen.

Gut gemacht, Alexey - endlich etwas angewandte Mathematik und nicht nur Gralsdenken.

Ja - wie bei dem Trend. Es ist auch stationär, während es im Trend ist. Aber wenn man merkt, dass es sich um einen Trend handelt, ist es oft zu spät, um einzusteigen. Es ist das Gleiche mit dem Stillstand, wenn man merkt, dass es sich beruhigt, fängt es wieder an, sich zu bewegen)))