Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 816

 
Roffild:

Die Botschaft dieses Threads ist bedeutungslos, denn jeder hat ein anderes Modell. Das Einzige, was die Teilnehmer eint, ist die Integration von externen Tools in MQL5. Ich habe einen Konverter von Spark Random Forest in das Alglib (MQL5) Format. Ich weiß nicht, was ich damit machen soll, ich habe es schon anderen Händlern vorgestellt und es ist nirgends zu finden.

P.s. Ich bevorzuge Git

Wenn Sie einen Debugger haben, kann dies eine gute Lösung für einige Probleme sein.

 
Roffild:

Die Botschaft dieses Threads ist bedeutungslos, denn jeder hat ein anderes Modell. Das Einzige, was die Teilnehmer eint, ist die Integration von externen Tools in MQL5. Ich habe einen Konverter von Spark Random Forest in das Alglib (MQL5) Format. Ich habe eine gute Idee für einen Beitrag über Integration, der für alle nützlich sein könnte.

P.s. Ich bevorzuge Git.

Ich habe mir das Paket für Python angesehen, es hat nicht einmal Importoptionen.

Haben Sie eine nur für scikit learn?

 
Eidechse_:

Fa, du machst seit Jahren nur Mist. glm(.~...,family = "binomial") ist
logistisch))) Lassen Sie alles stehen und liegen. Nur Doc und Toxic sind in diesem Thread angemessen...

Der vernünftigste ist hrenfx, er hat eine Million Pfund von 5k gehandelt, er ist diesem Forum entwachsen, er ist wahrscheinlich im Bilderberg Club und entscheidet über das Schicksal der Menschheit, und du machst hier Einzahlungen mit 100$ Martin und Mashmas

 
Aljoscha:
er ist jetzt in diesem Forum aktiv )
 
Kombinator:
er ist jetzt in diesem Forum aktiv )

Wie ist der Name?

 
Eidechse_:
Nein, Alesha. Martin und ich gehen nicht mehr ins Mashkov's. Fa hat uns der Freuden des Lebens beraubt.

Es spielt keine Rolle, ob es sich um einen Marshkas mit Martin, ML auf Python oder R handelt, wenn irgendein Wachmann oder Angestellter aufgrund seiner "Intuition" an den Knöpfen dreht, das Ergebnis ist dasselbe, Fa bietet zumindest wissentlich ein lahmes GARCH an, bei dem der vergangene Preis der beste Prädiktor für die Zukunft ist, Fa versucht nicht, den Leuten Hoffnungen zu machen, er ist da ehrlicher.

 
Aljoscha:

Es spielt keine Rolle, ob es sich um Mashki mit Martin, ML auf Python oder R handelt, wenn irgendein Wachmann oder Angestellter das Rad auf der Grundlage seiner "Intuition" dreht, das Ergebnis ist dasselbe, Fa bietet zumindest wissentlich ein lahmes GARCH an, bei dem der vergangene Preis der beste Prädiktor für die Zukunft ist, Fa versucht nicht, die Menschen hoffnungslos zu machen, er ist ehrlicher in dieser Hinsicht.

Und eine Vorhersage mit 70 % Vertrauen in das Intervall ist nicht sehr aussagekräftig. Es ist nicht sehr schwer, aber es nützt auch nichts.

 

Ja, warum gehen wir nicht einfach von der Wahrscheinlichkeit aus, wenn niemand eine Idee hat?

Ich habe einfach das Gefühl, dass dies das letzte ist, was bleibt, und wenn es TS nicht verbessert, kann Umschulung im Prinzip nicht überwunden werden

Es gibt bereits einige interessante Ideen, die ich vorerst für mich behalte, um die Gemüter der "Sympathisanten" nicht zu erregen

hier ist ein interessanter Artikel

https://habrahabr.ru/post/276355/

Байесовская нейронная сеть — потому что а почему бы и нет, черт возьми (часть 1)
Байесовская нейронная сеть — потому что а почему бы и нет, черт возьми (часть 1)
  • 2029.02.16
  • habrahabr.ru
То, о чем я попытаюсь сейчас рассказать, выглядит как настоящая магия. Если вы что-то знали о нейронных сетях до этого — забудьте это и не вспоминайте, как страшный сон. Если вы не знали ничего — вам же легче, полпути уже пройдено. Если вы на «ты» с байесовской статистикой, читали вот эту и вот эту статьи из Deepmind — не обращайте внимания на...
 
Maxim Dmitrievsky:

Hier ist ein interessanter Artikel

https://habrahabr.ru/post/276355/

Ich erinnere mich nicht mehr, wahrscheinlich keine schlechten Artikel. Ich habe es vor allem gelesen, als ich anfing, NS zu machen. Ich meine vor fast einem Jahr.

 
Yuriy Asaulenko:

An mehr erinnere ich mich nicht, wahrscheinlich keine schlechten Artikel. Ich habe sie vor allem gelesen, als ich gerade mein NS-Studium begann. Das heißt, vor fast einem Jahr.

Ich habe es vor langer Zeit weggeworfen und bin jetzt zurückgekommen, weil es interessante Punkte gibt (nicht einmal über Bayesian NS selbst, aber im Prinzip)