Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 494

 
Yuriy Asaulenko:

Lesen Sie Heikin Neuronale Netze und Bishops Theorie auf Englisch - keine Übersetzung, scheint aber in Vorbereitung zu sein.

Das ist ganz einfach. Zufallsgewinne als Eingabe und Ergebnisse als Ausgabe. Die Monte-Carlo-Methode wird genannt, und sie ist an sich nicht sehr schnell. Und die Systematisierung ist eine Aufgabe des Nationalen Systems.


Gibt es einen speziellen Namen für den NS? Wie ein stochastisches neuronales Netz unbekannten Typs, entweder mit oder ohne Lehrer, und Optimierung der Eingaben statt der Ausgaben :)) Ich werde einige Bücher lesen,

Heikin "NS Complete Course Second Edition" ist auf Russisch erhältlich.

 
Maxim Dmitrievsky:

Gibt es einen speziellen Namen für NS selbst? Wie ein stochastisches neuronales Netzwerk, das unklar lernt, mit oder ohne Lehrer, und das die Eingaben statt der Ausgaben optimiert :))) Ich werde Bücher lesen,

Haikin "NS Complete Course Second Edition" ist auf Russisch erhältlich

Heikin ist, Bishop ist nicht auf Russisch erhältlich.

NS ist das übliche MLP, das Training ist das übliche BP, nur mit regelmäßigen manuellen Nachjustierungen auf dem Weg. Wenn keine derartigen Anpassungen vorgenommen werden oder die Stichprobe nur gemischt wird, lernt das System sehr schnell, funktioniert aber nur bei Lernsequenzen gut.

 
Yuriy Asaulenko:

Heikin ist dort, Bishop ist nicht auf Russisch verfügbar.

Das NS ist das übliche MLP, das Training ist das übliche BP, nur mit regelmäßigen manuellen Anpassungen im Verlauf. Wenn man solche Anpassungen nicht vornimmt oder das Sample nur mischt, lernt es sehr schnell, funktioniert aber nur in der Lernsequenz gut (sogar perfekt).


Vorerst begnüge ich mich mit Haykins Werk. Ich habe mich immer auf Artikel und Modellbeschreibungen beschränkt, Bücher sind zu überflüssig (damit genug Platz für den Verkauf ist).

 
Maxim Dmitrievsky:

Und Haykin's ist altes Zeug :) bis jetzt werde ich mich damit begnügen, ich habe mich immer auf Artikel und Modellbeschreibungen beschränkt, die Bücher haben eine Menge zusätzliches Material (um ein Volumen zum Verkauf zu haben)

Nun, das würde ich nicht sagen. Die Theorie wird nicht alt. Aber es gibt ein tieferes Verständnis des Themas. Artikel, natürlich, aber ohne allgemeine Theorie sind nicht sehr gut verstanden, und nur oberflächlich und unkritisch wahrgenommen - eine Menge Unsinn sie schreiben).
 
Aljoscha:

Falsche Aussage. Wälder und Aufschwünge unterscheiden sich in der Extrapolation nicht von NS.


  • Das Modell kann nur interpolieren, aber nicht extrapolieren (das Gleiche gilt für den Wald und das Boosten von Bäumen). Das heißt, der Entscheidungsbaum macht eine konstante Vorhersage für Objekte im Merkmalsraum außerhalb des Parallelepipeds, das alle Objekte in der Trainingsstichprobe abdeckt. In unserem Beispiel mit gelben und blauen Kugeln bedeutet dies, dass das Modell für alle Kugeln mit einer Koordinate > 19 oder < 0 die gleiche Vorhersage trifft.

Alle Artikel, auf die ich stoße, sagen das Gleiche

https://habrahabr.ru/company/ods/blog/322534/


  • wie Entscheidungsbäume ist der Algorithmus völlig unfähig zur Extrapolation
 
Maxim Dmitrievsky:

  • Das Modell kann nur interpolieren, aber nicht extrapolieren (dasselbe gilt für die Aufwertung von Wäldern und Bäumen). Das heißt, der Entscheidungsbaum macht eine konstante Vorhersage für Objekte im Merkmalsraum außerhalb des Parallelepipeds, das alle Objekte in der Trainingsstichprobe abdeckt. In unserem Beispiel mit gelben und blauen Kugeln bedeutet dies, dass das Modell für alle Kugeln mit einer Koordinate > 19 oder < 0 die gleiche Vorhersage trifft.

Alle Artikel, auf die ich stoße, sagen das Gleiche

https://habrahabr.ru/company/ods/blog/322534/


  • wie Entscheidungsbäume ist der Algorithmus völlig unfähig zur Extrapolation

Blödsinn wird von ungebildeten Menschen geschrieben. Sie haben noch nie etwas von Übertraining gehört, haben keine Ahnung von Datamining, haben noch nie etwas von Rauschprädiktoren gehört und sind nicht gut im Schätzen von Modellen. Sie sind nur eine Art unreife Snobs, die intellektuelle Spielchen spielen.

 
SanSanych Fomenko:

Blödsinn wird von ungebildeten Menschen geschrieben. Sie haben noch nie etwas von Umschulung gehört, haben keine Ahnung von Datamining, haben noch nie etwas von Rauschprädiktoren gehört und sind nicht gut im Schätzen von Modellen. Das ist genau die Art von übergroßen Snobs, die Gedankenspiele spielen.


Was hat das alles mit Extrapolation zu tun...

Diejenigen, die RF in die Alglib-Bibliothek geschrieben haben, sind auch ungebildete Menschen?

und r-Blogger sind anscheinend auch lahm

https://www.r-bloggers.com/extrapolation-is-tough-for-trees/

Extrapolation is tough for trees!
Extrapolation is tough for trees!
  • Peter's stats stuff - R
  • www.r-bloggers.com
This post is an offshoot of some simple experiments I made to help clarify my thinking about some machine learning methods. In this experiment I fit four kinds of model to a super-simple artificial dataset with two columns, x and y; and then try to predict new values of y based on values of x that are outside the original range of y. Here’s the...
 

Jeder ist ein Verlierer, außer dem Fußballverband.

nur die FAs wurden unterrichtet.

;))

 
Oleg Avtomat:

Jeder ist ein Verlierer, außer dem Fußballverband.

nur den FAs beigebracht worden sind.

;))


So benutzen die Leute RF, ohne die Prinzipien zu verstehen, und sagen dann, dass es nicht funktioniert. Aus dem letzten Artikel geht hervor, dass RF nicht extrapolieren kann, also nur mit bekannten Daten funktionieren sollte.

 
Aljoscha:

Aber leider irren sie sich, und das ist nicht nur für "Ignoranten" und Snobs normal, man erinnere sich an Minsky und seine maßgebliche Meinung über die "Sinnlosigkeit" von mehrschichtigen Perseptrons)))

Ich spreche nicht über Artikel auf hubra, es ist das gleiche wie Müll in Foren, 99,9% Werbung naychpop und outright trash 0,1% der vernünftigen Gedanken in impliziter Form "zwischen den Zeilen".

der Mann hat ein Beispiel für R gegeben, an welcher Stelle hat er einen Fehler gemacht? leider benutze ich R nicht, aber ich kann es sogar selbst reproduzieren