Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1067

 
Basurmans haben das Forum aufgepeppt. )
 
Schreiben Sie bitte langsamer, ich schreibe es auf. ) Vielleicht ist es an der Zeit, zu Russisch zu wechseln? Ich kann kein Wort verstehen, das ich nicht kenne.
 
Grigoriy Chaunin:
Schreiben Sie bitte langsamer, ich schreibe es auf. ) Vielleicht ist es an der Zeit, zu Russisch zu wechseln? Ich bin Analphabet, also verstehe ich nichts.
Ich stimme zu, was die Lautstärke betrifft.
 
Maxim Dmitrievsky:

ja, Sie können sie löschen

Durch die Art und Weise, diese Version des EA dauert ziemlich irgendwann während der Ausbildung und so ich denke, es ist nicht erforderlich für die Umschulung jeden Tag... aber immer noch werde ich entscheiden, nachdem ich die Drawdown und aufeinanderfolgende Verluste sehen...

Haben Sie auch eine Idee, wie man Zufallswerte in RDF für das Training einspeisen kann? Ich meine, ich möchte keine Daten aus der Vergangenheit in die RDF einspeisen. Ich weiß nicht, ob dies in dieser Version des RDF möglich ist oder nicht, und bevor ich fortfahre, wollte ich mich bei Ihnen erkundigen

Hier ist mein Algo, das ich versuche zu implementieren:

1.keine Optimierung

2. keine Datenschulung in der Vergangenheit

3. keine Indikatoren oder kein Preisfeed und nichts

4. nur mit zufälligen Kerzen-Simulationen

5. in Schritt 4 wird ein Agent zufällige Kerzenlängen erstellen, die auf einem maximalen Wert für die Kerzenlänge und die Kerzenrichtung (KAUFEN oder VERKAUFEN) basieren, und der zweite Agent wird

nimmt diese Werte der Kerzenlänge und der Richtung als Input für RDF bei jedem Schritt und platziert KAUF- und VERKAUFS-Aufträge und versucht, den Gewinn zu maximieren. In diesem Fall ist die Belohnung die Summe oder Subtraktion der Kerzenlängen vom Startpunkt.

Wir können dieses Modell also einfach für Millionen solcher Kerzen mit verschiedenen Variationen trainieren, wobei RDF lernt, die Gewinne direkt zu maximieren, und wir können das Training einfach auf ON stellen...

Wenn es machbar ist, ist die einzige Hürde nur die Rechenleistung, wie viele Simulationen und Prüfungen wir durchführen können...

Übrigens habe ich den Beispielcode für die zufällige Kerzengenerierung und die Kerzenrichtung (KAUFEN oder VERKAUFEN), aber ich habe keinen visuellen Modus, sondern nur Werte. Ich suche also nach einer Möglichkeit, diese Werte für das Training in RDF einzuspeisen, und dann sollte es dieses Modell beim Handel verwenden.

 

Ich sehe, der Magier zielt auf die Bürgerlichen. Das ist also mein Englisch.

Vi DURAKI

Wie hört sich das an? Ton? :-)))))))

 
mytarmailS:

Ebenen....

Ebenen arbeiten....

Ich werde es noch ein bisschen ausarbeiten, und dann kannst du ein Neuron als Filter hinzufügen)

Neuron?

Ich habe den Eindruck, dass sich das lokale Forum (um das es in diesem Thread geht) auf das maschinelle Lernen verlässt, um sich das Denken zu ersparen

Wenn Sie bereits ein visuell gutes Ergebnis haben, können Sie dann nicht einen Algorithmus nach dem Muster "wenn das" entwickeln?

 
Mihail Marchukajtes:

Ich sehe, der Magier zielt auf die Bürgerlichen. Das ist also mein Englisch.

Vi DURAKI

Wie hört sich das an? Ton? :-)))))))

Nee, das klappt nicht, das muss international sein: U LUSER!!!

))))

 
FxTrader562:

Durch die Art und Weise, diese Version des EA dauert ziemlich irgendwann während der Ausbildung und so ich denke, es ist nicht erforderlich für die Umschulung jeden Tag... aber immer noch werde ich entscheiden, nachdem ich die Drawdown und aufeinanderfolgende Verluste sehen...

Haben Sie außerdem eine Idee, wie man zufällige Werte für das Training in RDF einspeisen kann? Ich meine, ich möchte keine Daten aus der Vergangenheit in die RDF einspeisen. Ich weiß nicht, ob dies in dieser Version des RDF möglich ist oder nicht, und bevor ich fortfahre, wollte ich mich bei Ihnen erkundigen

Hier ist mein Algo, das ich versuche zu implementieren:

1.keine Optimierung

2. keine Datenschulung in der Vergangenheit

3. keine Indikatoren oder kein Preisfeed und nichts

4. nur mit zufälligen Kerzen-Simulationen

5. in Schritt 4 wird ein Agent zufällige Kerzenlängen erstellen, die auf einem maximalen Wert für die Kerzenlänge und die Kerzenrichtung (KAUFEN oder VERKAUFEN) basieren, und der zweite Agent wird

nimmt diese Werte der Kerzenlänge und der Richtung als Input für RDF bei jedem Schritt und platziert KAUF- und VERKAUFS-Aufträge und versucht, den Gewinn zu maximieren. In diesem Fall ist die Belohnung die Summe oder Subtraktion der Kerzenlängen vom Startpunkt.

Wir können dieses Modell also einfach für Millionen solcher Kerzen mit verschiedenen Variationen trainieren, wobei RDF lernt, die Gewinne direkt zu maximieren, und wir können das Training einfach auf ON stellen...

Wenn es machbar ist, ist die einzige Hürde nur die Rechenleistung, wie viele Simulationen und Prüfungen wir durchführen können...

Übrigens habe ich den Beispielcode für die zufällige Kerzengenerierung und die Kerzenrichtung (KAUFEN oder VERKAUFEN), aber ich habe keinen visuellen Modus, sondern nur Werte. Ich suche also nach einer Möglichkeit, diese Werte für das Training in RDF einzuspeisen, und dann sollte es dieses Modell beim Handel verwenden.

Sie können in der Lernphase einfach zufällige Preiswerte anstelle von Schlusskursen eingeben

void calcSignal()
  {
   sig1=0;
   
   if(learn==false)   
   for(int i=0;i<ArraySize(ag1.agent);i++)
     {   
      CopyClose(_Symbol,0,0,ArraySize(ag1.agent[i].inpVector),ag1.agent[i].inpVector);
      normalizeArrays(ag1.agent[i].inpVector);
     }
     
   else
   for(int i=0;i<ArraySize(ag1.agent);i++)
     {
      for(int l=0;i<ArraySize(ag1.agent[l].inpVector);l++)
        {
         double pr[];
         CopyClose(_Symbol,0,rand(),1,pr);
         ag1.agent[i].inpVector[l] = pr[0];
        }   
   
      normalizeArrays(ag1.agent[i].inpVector);
     }
   sig1=ag1.getTradeSignal();
  }
etwas wie dies
 
Maxim Dmitrievsky:

Sie können einfach einen zufälligen Preis kaufen

Ok, aber ich bin verwirrt über einige der Codes, die Sie zuvor verwendet haben.

CRLAgents * ag1 = new CRLAgents ("RlExp1iter", 5,100,50, regularize, learn);

und diese:

CopyClose (_Symbol, 0,0,100, ag1.agent [i] .inpVector);

Wenn wir also 100 Kerzen in copyclose. verwenden müssen, richtig? Ich meine, beide Kerzen und Funktionen sind gleich. oder?

Oder können wir unterschiedliche Werte für Merkmale und Kerzen verwenden?

Übrigens versuche ich, die 1000 Funktionen zu nutzen, und die Schulung läuft jetzt seit 1 Stunde.
 
FxTrader562:

Ok, aber ich bin verwirrt einige der Codes, bevor ich etwas von meinem own.The unten Code implementieren:

CRLAgents *ag1=new CRLAgents("RlExp1iter",5,100,50,regularize,learn);

und diese:

CopyClose(_Symbol,0,0,100,ag1.agent[i].inpVector);

Wenn wir also 100 Merkmale im obigen Code verwenden müssen, bedeutet das, dass wir 100 Kerzen in copyclose verwenden müssen, richtig?

Oder können wir unterschiedliche Werte für Merkmale und Kerzen verwenden?

Sie können auch verschiedene Werte für jeden Prädiktor verwenden, dies ist nur ein einfaches Beispiel: jeder nahe Wert = 1 abweichender Prädiktorwert