トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3394

 
СанСаныч Фоменко #:

自分のコードを見ている。

いくつかのモデルが、Rコードの真ん中(?もしモデルをRコードから取り出して別の場所に置いたら、まったく別のコードになってしまい、デバッグをやり直す必要がある!

それはなぜか?

µlとRがあり、TCは明らかに機能的に分離されている。mclとRのバンドルは安定して動作している。そして、ONNXは どこに属しているのでしょうか?

あなたのスクリプトを市場で売ってみてください
 

RLへのレクイエムと因果変換器への頌歌

*あらゆるRLアルゴリズムは、あらゆる大域的最適化と考えることができる

 
Maxim Dmitrievsky #:

RLへのレクイエムと因果変換器への頌歌

*あらゆるRLアルゴリズムは、あらゆる大域的最適化器として認識できる

https://ai.plainenglish.io/reinforcement-learning-is-dead-long-live-the-transformer-228835689841

残念ながらシュムーズもない

https://www.mql5.com/ru/articles/13712

Нейросети — это просто (Часть 63): Предварительное обучение Трансформера решений без учителя (PDT)
Нейросети — это просто (Часть 63): Предварительное обучение Трансформера решений без учителя (PDT)
  • www.mql5.com
Продолжаем рассмотрение семейства методов Трансформера решений. Из предыдущих работ мы уже заметили, что обучение трансформера, лежащего в основе архитектуры данных методов, довольно сложная задача и требует большого количества размеченных обучающих данных. В данной статье мы рассмотрим алгоритм использования не размеченных траекторий для предварительного обучения моделей.
 

LLMは今、言語学者のお気に入りのおもちゃなのだろう :)


 
Maxim Dmitrievsky #:
あなたは私よりクールだと言っているのですか?

メイトが "聖杯 "だと 言ったんだ、

客観的な評価をお願いします。

予告編情報

とリンクしています:

GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: ニューラルネットワークと遺伝的アルゴリズムを用いたサロゲートベースの最適化フレーム ワーク

GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimization Framework Using Neural Network and Genetic Algorithm
GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimization Framework Using Neural Network and Genetic Algorithm
  • alfiyandyhr
  • github.com
NN+GA: A Surrogate-Based Optimization Framework Using Neural Network and Genetic Algorithm - GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimization Framework Using Neural Netwo...
 
Renat Akhtyamov #:

仲間はそれが聖杯だと言ったからだ、

客観的な評価をお願いします

トレーラー情報では

をご覧ください:

GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: ニューラルネットワークと遺伝的アルゴリズムを用いたサロゲートベースの最適化フレーム ワーク

何がなぜ最適化されているのかがわからない状態では、何も言うことはできない。手法自体はいいのだが、確率降下法のように時間がかかることがある。つまり、収束に時間がかかることがある。

 
Maxim Dmitrievsky #:

何が最適化され、なぜ最適化されるのかがわからない以上、何も言うことはできない。この方法自体はいいのだが、確率降下法のように時間がかかることがある。つまり、収束に時間がかかることがある。

遺伝的アルゴリズム+ニューラルネットワーク=両方の長所(skine.ru)
Генетические алгоритмы + нейронные сети = лучшее из обоих миров
  • skine.ru
Узнайте, как можно ускорить обучение нейронной сети с помощью генетических алгоритмов!
 
Maxim Dmitrievsky #:

イエス・ハット

おそらく

仲間はリヴァントスに信号を送り、自然に成功した。

 
Renat Akhtyamov #:

たいがい

仲間がシグナルを持っていて、それがリヴァントスに入って自然に成功したのだろう。

まず、それは学習曲線を加速させると言う。その後、それは控除可能なリソースの多くを取ると書かれています。それがあなたの情報スタイルだ。


通常、グリッド上でのハイパーパラメーター最適化が使われるが、NN+GAは違う。

リンク先の記事は分かりにくい。

理由: