Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 563

 
Maxim Dmitrievsky:

ughh... lese den ganzen Thread von Anfang an bis zu meinem Auftritt... jetzt habe ich alles gesehen

aber kein Gral da... schade, dann werde ich weiter graben

Das ist die richtige Entscheidung. Die NS-Theorie hier im Forum ist alles andere als ideal.
 
Alexander_K2:
Dies ist eine korrekte Lösung. Die NS-Theorie hier im Forum ist alles andere als ideal.

das Einzige, was ich aufgeschrieben habe, betrifft den ternären Klassifikator und die Lösung des Rätsels umJurij Asaulenko

 
Alexander_K2:
Das ist die richtige Entscheidung. Die NS-Theorie hier im Forum ist alles andere als ideal.
Und sie wird hier überhaupt nicht gebraucht. Die gesamte Theorie wurde bereits lange vor uns dargelegt. )
 
Maxim Dmitrievsky:

Das Einzige, was ich aufgeschrieben habe, betrifft den ternären Klassifikator und die Lösung des Rätsels umJurij Asaulenko

Das ist das erste Mal, dass ich Bögen mache - Yury ist nicht so einfach, wie er aussieht. Physiker! Ich verstehe, was er tut - es ist, als ob er zwei parallele Prozesse ablaufen lässt. Die eine, probabilistische, besagt, dass es anscheinend an der Zeit ist, einen Deal zu machen. Der zweite - der NS - gibt oder lehnt ab. Ich werde nichts weiter sagen - lassen Sie ihn selbst erzählen.
 
Maxim Dmitrievsky:

Das Einzige, was ich aufgeschrieben habe, betraf den ternären Klassifikator und die Lösung des Rätselsum Jurij Asaulenko

Und wo haben Sie das Geheimnis gefunden?

MLP besteht aus ~60 Neuronen. Der Algorithmus ist ein Standard-BP. Learning - go hither and thither, d.h. ich weiß nicht, was NS dort lernt. Darüber hinaus sind alle Grundsätze des Lernens in klassischen Monographien - Heikin, Bishop - beschrieben. Soft ist nicht MMS.

Die Grundprinzipien werden in diesem Abschnitt erläutert.

 
Yuriy Asaulenko:

Und wo haben Sie das Geheimnis gefunden?

Der MLP besteht aus ~60 Neuronen. Algorithmus - Standard-BP. Lernen - dorthin gehen, wo ich nicht weiß, wo. d.h. ich weiß nicht, was der NS dort lernt. Darüber hinaus werden alle Grundsätze des Lernens in klassischen Monographien - Heikin, Bishop - beschrieben. Soft ist nicht MMS.

Die Grundprinzipien werden in diesem Abschnitt erläutert.


Das war eine Art Scherz :))

 
Maxim Dmitrievsky:

das war eine Art Scherz :))

Nein. Es gibt dort wirklich nichts anderes. Sie sind der Meinung, dass Haykin und Bishop hoffnungslos veraltet sind und suchen nach etwas Neuem (Sie haben es bereits geschrieben). Sie sind für mich völlig ausreichend.
 
Yuriy Asaulenko:
Nein. Es gibt dort wirklich nichts anderes. Sie sind der Meinung, dass Haykin und Bishop hoffnungslos veraltet sind und suchen nach etwas Neuem. Sie reichen mir völlig aus.

Nein, ich meine, es ist wie ein Scherz... du bist der einzige in diesem Thread, der am Ende etwas gefunden hat :)

googeln Sie mal nach Perceptron-Training mit der Monte-Carlo-Methode.

Im Allgemeinen ist diese Methode sehr ähnlich wie RL (Reinforcement Learning), wenn es einen lernenden Agenten gibt und der NS lernt, die beste Lösung zu finden.

 

So wird Alpha Go trainiert (obwohl man früher glaubte, es sei ein kreatives Spiel und eine Maschine könne einen Menschen darin nicht schlagen)

und hier ist der Gewinner.

https://techfusion.ru/nejroset-alphago-pereveli-na-samoobuchenie/

Нейросеть AlphaGo перевели на самообучение
Нейросеть AlphaGo перевели на самообучение
  • 2017.10.20
  • techfusion.ru
Искусственный интеллект AlphaGo показал прекрасные результаты самообучения: за три дня нейросеть от уровня начинающего игрока в «Го» дошла до уровня профессионала, одерживающего только победы Разработчики DeepMind усовершенствовали искусственный интеллект AlphaGo. Новая модель ИИ AlphaGo Zero обучалась «с нуля» без участия человека, играя сама...
 
Maxim Dmitrievsky:

nein, ich meine, es ist wie ein Witz... du bist der einzige in diesem Thread, der am Ende etwas gefunden hat :)

googeln Sie mal nach Perceptron-Training mit der Monte-Carlo-Methode.

Im Allgemeinen ist diese Methode sehr ähnlich wie RL (Reinforcement Learning), wenn man einen lernenden Agenten hat und der NS lernt, die beste Lösung zu finden

Übrigens, das ist vor allem Ihnen zu verdanken. Als ich anfing, waren Sie es, der mir den Link zu Reshetovs Artikel gab. Im Großen und Ganzen ist der Artikel wertlos, eher ein Anwendungsbeispiel, aber es wurde mehr oder weniger deutlich, wo man das Pferd anspannen kann.

Ich weiß nicht, ob es solche Methoden in Google gibt, denn ich selbst bin schließlich auf Monte Carlo gekommen.

Ich kenne RL auch nicht, aber nach deiner kurzen Beschreibung klingt es nach meinen Methoden.

Ich habe Monte Carlo in Google gefunden -https://logic.pdmi.ras.ru/~sergey/teaching/mlbayes/08-neural.pdf Nur ist es völlig anders.