Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3298

 
fxsaber #:

Offenbar ist das menschliche Gehirn auf einer unbewussten Ebene immer noch in der Lage, "Muster" in einer extrem kleinen Datenmenge zu finden. Das kann man nicht als Glück bezeichnen. Es ist ein Rätsel.

In der Tat verarbeitet ein Trader viel mehr Informationen auf unterschiedliche Art und Weise zur gleichen Zeit, als es MO-Modelle in Bezug auf den Handel tun. und außerdem ist das Gehirn mit verschiedenen Kenntnissen ausgestattet, die nichts mit dem Handel zu tun haben, aber helfen, Handelsaufgaben zu lösen.

 
Andrey Dik #:

hier hast du selbst gezeigt, dass ein vortrainiertes Gehirn mit gefälschten Daten bestimmte Probleme löst, die es vorher nicht kannte. und du sagst, du brauchst kein zusätzliches "Wissen".

Das habe ich nicht gesagt, hör auf zu lügen 😀.
Zeichen sind kein Wissen.
 
Andrey Dik #:

Sie verwechseln immer wieder den Begriff "Extremum" mit "scharfer Spitze" (dem Punkt, an dem eine Funktion keine Ableitung hat).

Auch eine ebene Fläche hat ein Extremum.

Außerdem versuchen die FFs immer so zu wählen, dass die FF-Oberfläche so glatt wie möglich ist und das einzige globale Extremum darstellt. Das einzige globale Extremum muss die einzige eindeutige Lösung des Problems sein.

Wenn das globale Extremum der FF nicht das einzige ist, und erst recht, wenn es keine Ableitung hat, bedeutet dies eine falsche Wahl der FF (das Kriterium für die Modellbewertung). Wenn man dies missversteht, spricht man von "Overfitting", wenn man dies missversteht, sucht man nach einem mehrdeutigen lokalen Extremum.

Wir können eine Analogie ziehen: ein Spezialist - ein Arzt - wird ausgebildet, Qualifikationsprüfungen (FF) werden für die Zertifizierung entwickelt, für einen Arzt kann es keinen Begriff von "übertrainiert" oder "überangepasst" geben, wenn ein Arzt nicht die maximale Punktzahl erhält - bedeutet das, dass er untertrainiert ist. Und Ihrer Meinung nach sollte ein guter Arzt immer ein unausgebildeter Nicht-Wissenschaftler sein.

Das Problem mit dem "Übertraining" ist wieder einmal die falsche Wahl der Kriterien für die Bewertung des Modells. Es scheint, dass es solche coolen Experten im Forum gibt, aber sie wiederholen die gleichen Fehler immer und immer wieder. Die Entwicklung der richtigen Schätzkriterien ist nicht weniger wichtig als die Auswahl der Prädiktoren, denn sonst ist es einfach unmöglich, das Modell angemessen zu schätzen.

Ich rechne mit einer Flut von Einwänden, das ist in Ordnung, ich bin daran gewöhnt. Wenn es für jemanden nützlich ist - großartig, und für diejenigen, für die es nicht nützlich ist - was auch immer, so dass sie denken, dass es gut ist, wie es ist.

Die Überanpassung von Modellen hat NICHTS mit Optimierung zu tun.

Das ideale Modell für die Überanpassung eines Angebots ist das Angebot selbst. Wie in jedem anderen Fall der Modellbildung auch: Es gibt keine Optimierung, die Schätzung eines solchen Modells ist degeneriert usw.

Sie haben die Bedeutung des Wortes "Modell" nicht verstanden. Ein Beispiel: ein Modell des Newtonschen Gesetzes der universellen Gravitation. Ein ideales Modell, das unter idealen Bedingungen gilt: Vakuum, keine anderen Körper im Universum. Nichtsdestotrotz kann man damit eine Menge Berechnungen mit ausreichender Genauigkeit für die Praxis durchführen.

Und das ganze Problem bei der Erstellung eines Modells besteht darin, ein Modell zu finden, dessen Fehler mit den realen Daten zu uns passt. Es sollte klar sein, dass der Fehler, den wir sehen, nicht unbedingt in der Zukunft liegen wird, sondern in einem gewissen Vertrauensbereich. Daher suchen wir ein Modell mit einem Fehler innerhalb des in der Praxis akzeptablen Intervalls. Wir brauchen keine Extrema.

 
Forester #:

150 Milliarden Neuronen, nicht nur eine Ausgabe pro Neuron, sondern viele. Die KI wird dieses Intelligenzniveau lange Zeit nicht oder nie erreichen.
NS wird vom Intelligenzniveau her mit einer Kakerlake verglichen - laufen, beißen - weglaufen.

Multipliziert mit mehreren Milliarden Individuen der Menschheit zeigt die gegenwärtige Zivilisation, dass es möglich ist, auf einer sehr kleinen Datenmenge Hypothesen aufzustellen, die viele beobachtete Phänomene genau vorhersagen und sogar unbeobachtete Phänomene nachbilden können.

 
Maxim Dmitrievsky #:
One-Shot-Lernen. Wenn ein großes vortrainiertes NS (Gehirn) mit nur wenigen Beispielen auf linke Daten vortrainiert wird. Wenn das Modell zunächst die Gesetze der Welt gelernt hat, kann es eine neue Aufgabe leicht mit einem flüchtigen Blick erfassen.

Auf diese Weise werden vor allem große Sprachmodelle für neue Aufgaben vortrainiert. Wenn man das Modell jedoch zwingt, diese neuen Beispiele über einen längeren Zeitraum zu lernen, vergisst es frühere Erfahrungen und wird gegenüber neuen Daten voreingenommen.
Es wäre interessant, ein Diagramm zu erstellen: die Qualität des One-Shot-Learnings in Abhängigkeit vom Alter des Jungen.
 

Nun.... Bäume haben eine Optimierung. Bei der Auswahl der besten Aufteilung. Alle Spalten/Attribute werden überprüft, es werden verschiedene Aufteilungen vorgenommen, und diejenige mit dem geringsten Klassenverunreinigungswert für die Klassifizierung oder der höchsten Genauigkeit für die Regression wird verwendet.
Bei Random Forests ist hier Schluss. Dann wird einfach das Ergebnis einer Reihe von Bäumen gemittelt, die nach dem Zufallsprinzip z. B. 50 % der Merkmale erhalten.
Beim Bousting lernt jeder nachfolgende Baum den Fehler der Summe der vorherigen Bäume und minimiert diesen Fehler.

Aber das alles ist für den Benutzer unter der Motorhaube verborgen und es hat keinen Sinn, darüber zu sprechen. Es ist nicht vergleichbar mit der Optimierung, die wir im Tester durchführen, indem wir Werte für einige Parameter suchen, die die Vorzeichen oder die Lehrer für das Modell ändern (z. B. die Auswahl von TP/SL).

 
Maxim Dmitrievsky #:
Zeichen sind kein Wissen.

Was denkst du, was Zeichen sind? Beruhige dich.
Und was ist Wissen?

Heute haben Sie gesagt, dass Optimierung nichts mit MO zu tun hat, dann haben Sie zugegeben, dass sie es doch tut.
Moment, jetzt kommen wir zu dem Punkt, dass Zeichen Wissen sind.
 
fxsaber #:
Es wäre interessant, ein Diagramm zu erstellen: die Qualität des One-Shot-Lernens ab dem Alter des Jungtiers.

Höchstwahrscheinlich wird das NS-Gehirn stark von der Umwelt (und der digitalen Welt) beeinflusst, insbesondere während der schnellsten Phase der NS-Bildung - der frühen Kindheit.

Es wäre interessant, solche gleichaltrigen NS bei verschiedenen Aufgaben zu vergleichen, die einen NS mit Gadget im Alter von 2-3 Jahren, die anderen ohne Gadget.

D.h. zu verstehen, welche Art von NS-Entwicklung sich positiv/negativ auf die Lösung bestimmter Aufgaben auswirkt.


Vielleicht hat eine durchdachte TK-Erfindung weniger Erfolg als ein oberflächliches Clip-Denken.

 
Andrey Dik #:

Was glaubst du, was Zeichen sind? Bleiben wir ruhig.
Und was ist Wissen?

Heute haben Sie gesagt, dass Optimierung nichts mit MO zu tun hat, dann haben Sie zugegeben, dass sie es doch tut.
Moment, jetzt kommen wir zu dem Punkt, dass Zeichen Wissen sind.
Wo habe ich gesagt, dass die Optimierung nichts mit der IO zu tun hat?

Bitte kommen Sie ohne mich.
 
Maxim Dmitrievsky #:
Wo habe ich gesagt, dass die Optimierung nichts mit dem Verteidigungsministerium zu tun hat?

Bitte kommen Sie ohne mich.

Ich wusste es.
Lesen Sie noch einmal, was Sie gesagt haben.