Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 563
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
ughh... lese den ganzen Thread von Anfang an bis zu meinem Auftritt... jetzt habe ich alles gesehen
aber kein Gral da... schade, dann werde ich weiter graben
Dies ist eine korrekte Lösung. Die NS-Theorie hier im Forum ist alles andere als ideal.
das Einzige, was ich aufgeschrieben habe, betrifft den ternären Klassifikator und die Lösung des Rätsels umJurij Asaulenko
Das ist die richtige Entscheidung. Die NS-Theorie hier im Forum ist alles andere als ideal.
Das Einzige, was ich aufgeschrieben habe, betrifft den ternären Klassifikator und die Lösung des Rätsels umJurij Asaulenko
Das Einzige, was ich aufgeschrieben habe, betraf den ternären Klassifikator und die Lösung des Rätselsum Jurij Asaulenko
Und wo haben Sie das Geheimnis gefunden?
MLP besteht aus ~60 Neuronen. Der Algorithmus ist ein Standard-BP. Learning - go hither and thither, d.h. ich weiß nicht, was NS dort lernt. Darüber hinaus sind alle Grundsätze des Lernens in klassischen Monographien - Heikin, Bishop - beschrieben. Soft ist nicht MMS.
Die Grundprinzipien werden in diesem Abschnitt erläutert.
Und wo haben Sie das Geheimnis gefunden?
Der MLP besteht aus ~60 Neuronen. Algorithmus - Standard-BP. Lernen - dorthin gehen, wo ich nicht weiß, wo. d.h. ich weiß nicht, was der NS dort lernt. Darüber hinaus werden alle Grundsätze des Lernens in klassischen Monographien - Heikin, Bishop - beschrieben. Soft ist nicht MMS.
Die Grundprinzipien werden in diesem Abschnitt erläutert.
Das war eine Art Scherz :))
das war eine Art Scherz :))
Nein. Es gibt dort wirklich nichts anderes. Sie sind der Meinung, dass Haykin und Bishop hoffnungslos veraltet sind und suchen nach etwas Neuem. Sie reichen mir völlig aus.
Nein, ich meine, es ist wie ein Scherz... du bist der einzige in diesem Thread, der am Ende etwas gefunden hat :)
googeln Sie mal nach Perceptron-Training mit der Monte-Carlo-Methode.
Im Allgemeinen ist diese Methode sehr ähnlich wie RL (Reinforcement Learning), wenn es einen lernenden Agenten gibt und der NS lernt, die beste Lösung zu finden.
So wird Alpha Go trainiert (obwohl man früher glaubte, es sei ein kreatives Spiel und eine Maschine könne einen Menschen darin nicht schlagen)
und hier ist der Gewinner.
https://techfusion.ru/nejroset-alphago-pereveli-na-samoobuchenie/
nein, ich meine, es ist wie ein Witz... du bist der einzige in diesem Thread, der am Ende etwas gefunden hat :)
googeln Sie mal nach Perceptron-Training mit der Monte-Carlo-Methode.
Im Allgemeinen ist diese Methode sehr ähnlich wie RL (Reinforcement Learning), wenn man einen lernenden Agenten hat und der NS lernt, die beste Lösung zu finden
Übrigens, das ist vor allem Ihnen zu verdanken. Als ich anfing, waren Sie es, der mir den Link zu Reshetovs Artikel gab. Im Großen und Ganzen ist der Artikel wertlos, eher ein Anwendungsbeispiel, aber es wurde mehr oder weniger deutlich, wo man das Pferd anspannen kann.
Ich weiß nicht, ob es solche Methoden in Google gibt, denn ich selbst bin schließlich auf Monte Carlo gekommen.
Ich kenne RL auch nicht, aber nach deiner kurzen Beschreibung klingt es nach meinen Methoden.
Ich habe Monte Carlo in Google gefunden -https://logic.pdmi.ras.ru/~sergey/teaching/mlbayes/08-neural.pdf Nur ist es völlig anders.