Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 591

 
Yuriy Asaulenko:
Eigentlich muss alles in C++/C# geschrieben werden, und es gibt kein Problem, mit irgendetwas zu interagieren. Das Problem ist, dass die wichtigsten DM-Bibliotheken in Python und R vorliegen, und das muss man zumindest beherrschen. Und die Interaktion ist nichts, es gibt überall API (außer MQL). Sie können zumindest Dateien über die RAM-Disk übertragen.

Ja, das stimmt, damit gibt es kein Problem.

Das Problem ist, wie tief man sich in MO verwurzeln muss und in welchem Stadium man begreift, dass diese Modelle bereits ausreichend sind...

Ich habe mich für die Klassiker entschieden, und das reicht mir... Ich bin nicht auf der Suche nach einer 1-10%igen Steigerung der Genauigkeit :) jetzt konzentriere ich mich auf Strategien, viele Ideen habe ich - und all das muss getestet werden, tshe

Ich studiere PNN im Detail - sie arbeiten mit Wahrscheinlichkeitswerten und trainieren nicht sehr viel.

 
Evgeny Belyaev:

Yura, du bist wirklich etwas Besonderes! )) So spricht man im MQL-Forum. Jetzt werden deine Kameraden kommen und mit Steinen nach dir werfen.

Ich verwende MQL auch nur zum Öffnen/Schließen von Aufträgen. Ich verwende MQL nur zum Öffnen/Schließen von Aufträgen, alle Berechnungen erfolgen in Wissima. Dies ist jedoch das einzige Forum mit mehr oder weniger professionellen Physikern und Mathematikern, weshalb ich hier bin. Auf den übrigen Websites sind sie einfach nur Dorftrottel.
 
Alexander_K2:
Ich verwende MQL auch nur zum Öffnen/Schließen von Aufträgen. Alle Berechnungen werden in Wissima durchgeführt. Dies ist das einzige Forum, in dem wir mehr oder weniger professionelle Physiker und Mathematiker haben, deshalb bin ich hier. Auf den übrigen Websites sind sie einfach nur Dorftrottel.

Alexander, dieses Thema könnte dich interessieren :)

Die Methode der Annäherung von Wahrscheinlichkeitsdichtefunktionen mittels Kernel-Funktionen ist der Methode derradialen Basisfunktionensehr ähnlich, und so kommen wir natürlich zu den Begriffenprobabilistisches neuronales Netz (PNN) undverallgemeinertes neuronales Regressionsnetz (GRNN)(Speckt 1990, 1991). PNNNs sind fürKlassifizierungsaufgaben und GRNNs fürRegressionsaufgaben geeignet. Netze dieser beiden Typen sind Implementierungen von Kernel-Approximationsverfahren, die alsneuronales Netz konzipiert sind.

 
Maxim Dmitrievsky:

Alexander, dieses Thema könnte dich interessieren :)

Die Methode der Annäherung von Wahrscheinlichkeitsdichtefunktionen mittels Kernel-Funktionen ist der Methode derradialen Basisfunktionensehr ähnlich, und so kommen wir natürlich zu den Begriffenprobabilistisches neuronales Netz (PNN) undverallgemeinertes neuronales Regressionsnetz (GRNN)(Speckt 1990, 1991). PNNs sind fürKlassifizierungsaufgaben und GRNNs fürRegressionsaufgaben konzipiert. Bei diesen beiden Arten von Netzen handelt es sich um Implementierungen von Kernel-Approximationsmethoden, die alsneuronales Netz konzipiert sind.

Aha. Danke, Maxim!
 
Alexander_K2:
Ja, das stimmt. Vielen Dank, Maxim!
Maxim ist eigentlich ganz gut. Manchmal bin ich erstaunt über seine Ansichten. Aber bedenken Sie, dass Menschen, die viel lesen, aus Gewohnheit selbständig denken. Rate mal, wer?))
 
Yuriy Asaulenko:
Aber wir müssen bedenken, dass Menschen, die viel lesen, unfähig werden, selbst zu denken.(c) Und das habe ich nicht gesagt. Rate mal, wer?))

Es gibt auch diese Stellungnahme:

Der Mensch hört auf zu denken, wenn er aufhört zu lesen. Diderot

 
Yuriy Asaulenko:
Maxim ist wirklich gut. Manchmal bin ich erstaunt über seine Ansichten. Aber man darf nicht vergessen, dass Menschen, die viel lesen, aus Gewohnheit selbständig denken. Rate mal, wer?))
Ich stimme zu. Aber, der Link ist interessant - ich werde ihn lesen, wenn ich Zeit habe. Ich sehe den Gral am Horizont und bewege mich, angetrieben von den mächtigen Händen meines Schwiegervaters, auf ihn zu.
 
Evgeny Belyaev:

Es gibt auch diese Stellungnahme:

Der Mensch hört auf zu denken, wenn er aufhört zu lesen. Diderot

Das eine schließt das andere nicht aus.) Niemand hat behauptet, dass man überhaupt nicht lesen sollte.)
 
Alexander_K2:
Ich stimme zu. Aber der Link ist interessant - ich werde ihn lesen, wenn ich Zeit habe. Ich bin jetzt beschäftigt - ich sehe den Gral am Horizont und gehe, von den kräftigen Händen meines Schwiegervaters angetrieben, auf ihn zu.

Suchet und ihr werdet finden. (с)

Aber nicht dieses Mal.

 
Yuriy Asaulenko:
Maxim ist wirklich sehr gut. Manchmal bin ich erstaunt über seine Ansichten. Aber bedenken Sie, dass Menschen, die viel lesen, aus Gewohnheit selbständig denken. Rate mal, wer?))

Ja, ich bin gerade alle möglichen Artikel durchgegangen, um zu sehen, was es Interessantes zu diesem Thema gibt :) Nun, der Hauptvorteil gegenüber MLP, so wie ich es verstehe, ist die Geschwindigkeit und die minimalen Einstellungen (hier sind sie überhaupt nicht) und dass diese Netze fast nicht neu trainiert werden

Nun, und Gaußsche F-Kräfte werden anstelle von Stydent-Kräften verwendet. Für jede Eingabe wird eine Scheitelpunktdichtefie erstellt, dann werden die Ergebnisse am Ausgang linear summiert

Übrigens, PNN und GRNN sind in mql-Form verfügbar, aber ich habe sie noch nicht ausprobiert und nicht mit MLP verglichen

https://www.mql5.com/ru/code/1323

Класс нейронной сети PNN
Класс нейронной сети PNN
  • Stimmen: 41
  • 2012.11.30
  • Yury Kulikov
  • www.mql5.com
Класс CNetPNN реализует вероятностную нейронную сеть (Probabilistic Neural Network - PNN). Создание сети объявляется параметрическим конструктором класса. Нумерация классов(целей классификации) начинается с нуля и должна быть непрерывна. Например, если задано 3 класса, то номера классов должны быть: 0, 1, 2. Обучение сети осуществляется вызовом...