Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 631

 
forexman77:

Haben Sie drei Neuronen am Eingang der zweiten Schicht, die von sigmoid verarbeitet werden? Wie passen Sie die Gewichte auf der zweiten Ebene an, deren Bereich von -1 bis 1 in Schritten von z. B. 0,1 gewählt wird?

In meinem Netz ist nach der Verarbeitung der zweiten Schicht die Zahl der Geschäfte zurückgegangen und meine Ergebnisse haben sich nicht wesentlich verbessert. Anders war es, als ich einfach ein Perzeptron mit 9 Eingängen und einem Ausgangsneuron einbaute und dann ein anderes unabhängiges Perzeptron nahm und es erneut einbaute, wobei die Einstellungen des ersten gespeichert wurden usw.

Das 4. Neuron verarbeitet die Ergebnisse der ersten drei, d.h. + 3 weitere Gewichte

Ja, von -1 bis 1 in Schritten von 0,1, aber nicht sigmoidal, sondern tangential

Ich habe versucht, eine Zwischenschicht mit denselben Gewichten wie die erste Eingabeschicht zu erstellen. Die Anzahl der Trades ist gesunken und die Qualität hat sich erheblich verbessert, aber die Optimierung von 9 zusätzlichen Gewichten ist zu viel :)

Ihre Version hört sich gut an... Ich habe darüber nachgedacht, konventionelle NS auf die Ergebnisse der Optimierung zu trainieren... Ich werde es versuchen müssen. Aber dieser Ansatz langweilt mich langsam

 
Maxim Dmitrievsky:

Das 4. Neuron verarbeitet die Ergebnisse der ersten drei, d.h. + 3 weitere Gewichte

Ich habe jetzt versucht, eine Zwischenschicht mit den gleichen Gewichten wie die erste Eingabeschicht zu erstellen - die Anzahl der Trades ist gesunken und die Qualität hat sich auch verbessert, aber die Optimierung von zusätzlichen 9 Gewichten ist schon zu viel :)

Ihre Version hört sich gut an... Ich habe darüber nachgedacht, konventionelle NS auf die Ergebnisse der Optimierung zu trainieren... Ich werde es versuchen müssen. Aber dieser Ansatz langweilt mich langsam.

Ich habe den Eindruck, dass ich einen Indikator für die erste Schicht erstellen und visuell sehen sollte, welche Gewichte auf die zweite Schicht angewendet werden sollten. Oder verarbeiten Sie es mit Sigmoid (dann erhalten Sie die Werte von etwa 0,2 bis 0,9), und dann können Sie kleine Gewichte nehmen und brauchen keinen großen Bereich von ihnen.

Plus zusätzliches Gewicht ohne Bindung an den Eingang ist nur ein Gewicht, was Dr.Trader mir vorgeschlagen hat. Das zusätzliche Bias-Gewicht verbessert die Ergebnisse ein wenig, zum Beispiel wird aus 1,7 mit Bias 1,8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699

Машинное обучение в трейдинге: теория и практика (торговля и не только)
Машинное обучение в трейдинге: теория и практика (торговля и не только)
  • 2017.10.04
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
forexman77:

Ich habe den Eindruck, dass Sie einen Indikator für die erste Schicht erstellen und visuell feststellen müssen, welche Gewichte Sie auf die zweite Schicht anwenden müssen. Oder verarbeiten Sie es mit Sigmoid (dann erhalten Sie Werte von 0,2 bis 0,9 oder so), und dann können Sie kleine Gewichte nehmen und brauchen nicht einen großen Bereich von Gewichten.

Plus zusätzliches Gewicht ohne Bindung an den Eingang ist nur ein Gewicht, was Dr.Trader mir vorgeschlagen hat. Zum Beispiel ist es 1,7 mit Vorspannung und jetzt ist es 1,8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699

es ist schwer, etwas aus dem Stegreif zu machen :) aber das Hauptproblem ist bisher die Umschulung
 
Maxim Dmitrievsky:
es ist schwer, etwas aus dem Stegreif zu tun :) aber das Hauptproblem bleibt - Umschulung

Nun, 5-10 Neuronen zum Umlernen sind überhaupt kein Problem). So ähnlich scheint es auch bei Ihnen zu sein.

Auf dem Computer befand sich ein interessantes Exemplar. Sie haben eine Rede zu halten. Es wird ein Rauschen erzeugt und dieser Sprache überlagert. Dann wird eine einfache MLP gelehrt, und wir hören wieder fast reine Sprache.

Das hat mich total verwirrt, obwohl es eine Beschreibung eines ähnlichen Geräuschmodifikators in Haikin als Beispiel gibt.

 
Yuriy Asaulenko:

Nun, 5-10 Neuronen zum Umlernen sind überhaupt kein Problem). So ähnlich scheint es auch bei Ihnen zu sein.

Auf dem Computer befand sich ein interessantes Exemplar. Sie haben eine Rede zu halten. Es wird ein Rauschen erzeugt und dieser Sprache überlagert. Dann wird eine einfache MLP gelehrt, und wir hören wieder fast reine Sprache.

Das hat mich wirklich verblüfft, obwohl es in Haikin als Beispiel beschrieben ist.

Ja, aber es ist nur einer der Bots... Wenn er nicht funktioniert - keine große Sache, ich wechsle zu einem anderen... und so weiter, bis die Synthese passiert :) oder mir langweilig wird
 
Bitte lassen Sie sich nicht zu Beleidigungen herab und achten Sie auf den Gebrauch von Schimpfwörtern.
 
Einige Prügeleien scheinen verpasst worden zu sein, ich wünschte, ich hätte Zeit gehabt, daran teilzunehmen.
 
Maxim Dmitrievsky:
Einiges an Müll scheint übersehen worden zu sein, ich wünschte, ich hätte Zeit gehabt, daran teilzunehmen.

Die andere ist, dass sie meinen Beitrag gelöscht haben, in dem ich Herrn Terenyevsky antwortete und sagte, dass die lokalen Autoren die einzigen sind, die über die Zeitreihentests geschrieben haben. Ich habe Terentiev auf die Zeitreihentests geantwortet und gesagt, dass die lokalen Autoren Amateure sind, weil sie nicht verstehen, dass bei einer Genauigkeit von 70-80 % das Sharp-Verhältnis über 20 liegen wird, aber sie machen keinen Sinn.

 
Ichbin es nicht:

meine Nachricht gelöscht, in der ich Herrn Terenyv geantwortet habe. Terentiev über Zeitreihentests und sagte, dass lokale Artikelschreiber nur Amateure sind, weil sie nicht verstehen, dass bei 70-80% Genauigkeit das Sharp-Verhältnis über 20 liegen wird, und sie haben irgendeinen Unsinn

ah, ok )

 

Ich habe mir Gedanken über das Erlernen von Re-Informationen gemacht und einen interessanten Artikel gefunden, den ich kaufen und vielleicht in den Bot einbauen möchte.

https://hackernoon.com/the-self-learning-quant-d3329fcc9915

Ich versuche, den Bot zu kaufen, aber es ist irgendwie dumm, er lernt aus irgendeinem Grund erst am Ende zu kaufen.

The Self Learning Quant – Hacker Noon
The Self Learning Quant – Hacker Noon
  • 2016.09.27
  • Daniel Zakrisson
  • hackernoon.com
Recently there has been a lot of attention around Google DeepMinds victory over Lee Sedol in the board game Go. This is a remarkable…