Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3394
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Ich schaue mir meinen Code an.
Mehrere Modelle befinden sich in der Mitte(?) des gesamten R-Codes. Wenn Sie die Modelle aus dem R-Code herausnehmen und woanders unterbringen, wäre es ein völlig anderer Code, der noch einmal von Grund auf neu getestet werden müsste!
Und warum?
Es gibt µl und R mit offensichtlicher funktionaler Trennung der TCs. Das Bündel mcl und R funktioniert stabil ..... und wo gehört ONNX hier hin ?
Requiem für RL und Ode an den Kausaltransformator
*jeder RL-Algorithmus kann als globaler Optimierer betrachtet werden
https://ai.plainenglish.io/reinforcement-learning-is-dead-long-live-the-transformer-228835689841
Requiem für RL und eine Ode an den Kausaltransformator
*jeder RL-Algorithmus kann als beliebiger globaler Optimierer aufgefasst werden
https://ai.plainenglish.io/reinforcement-learning-is-dead-long-live-the-transformer-228835689841
Leider ... auch kein Schwätzer
https://www.mql5.com/ru/articles/13712
LLMs sind derzeit wahrscheinlich das Lieblingsspielzeug von Linguisten :)
Willst du damit sagen, dass du cooler bist als ich?
Da der Kumpel sagte, es sei der Gral,
gib mir bitte eine objektive Einschätzung.
in den Trailer-Informationen
und Link:
GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: Ein Surrogat-basierter Optimierungsrahmen unter Verwendung von Neuronalen Netzwerken und Genetischen Algorithmen
weil der Kumpel sagte, es sei der Gral,
bitte eine objektive Bewertung abgeben
in der Trailer-Info
und Link:
GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: Ein Surrogat-basierter Optimierungsrahmen unter Verwendung von Neuronalen Netzwerken und Genetischen Algorithmen
Es ist unmöglich, etwas zu sagen, wenn man nicht weiß, was optimiert wird und warum. Die Methode selbst ist gut, aber sie kann langsam sein, wie die stochastische Abstiegsmethode. Das heißt, es kann sehr lange dauern, bis sie konvergiert.
Es ist unmöglich, etwas zu sagen, wenn man nicht weiß, was optimiert wird und warum. Die Methode selbst ist gut, aber sie kann langsam sein, wie die stochastische Abstiegsmethode. Das heißt, es kann sehr lange dauern, bis sie konvergiert.
Genetische Algorithmen + neuronale Netze = das Beste aus beiden Welten (skine.ru)
Ja-Hut
Ja Hut
höchstwahrscheinlich
ein Kumpel hatte ein Signal, das mit natürlichem Erfolg an Livantos ging.
höchstwahrscheinlich
ein Kumpel hatte ein Signal, das mit natürlichem Erfolg in die Livantos ging.
Normalerweise wird Hyperparameter-Optimierung über ein Gitter verwendet, NN+GA ist anders, dort sollten die Gewichte über GA ermittelt werden, nicht über einen Standard-Solver wie Adam.
Der Artikel im Link ist verwirrend.