トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3322

 
誰も何も議論していないのに、あなたはモデルの複雑さについての会話に飛び込んだり、投稿に反応したりしたので、あなたはオプティマイザーとして知られている。
 
Maxim Dmitrievsky #:
誰も何も議論していないのに、あなたはモデルの複雑さについての会話に口を挟んだり、投稿に反応したりしたので、あなたはオプティマイザーとして知られている。

以上だ、マキシム。これ以上議論する意味はない。みんなすでにすべてを知っている。サンシュはここで見ている。彼は何世紀にもわたって、大域を探すのは有害だと私と議論してきた。それに対して私は「大域の種類によっては」と答えたが、サンシュは結局大域を探していることをまだ理解していない。

私は、この議論を冷静で友好的かつ建設的な方向に戻したいと願っている。

そして、このスレッドを定期的に読んでいる皆さんは、誰が、何を、いつ言ったかを覚えておいてください。今日、私はミスを犯した-チャートの描き方を間違えた。間違いを認めるのは普通のことだよ、マキシム。

 
Andrey Dik #:

どうしてですか?ただ、多くの人がなぜか物事を正式名称で呼ぶことを好まないんだ。

具体的にいつ学習を止めるかは方法論の選択の問題であり、私はグローバルな極限を検出しない限り学習を止めることは不可能であることを強調したに過ぎない(まあ、あるいは強制的に止めることは実用的ではないだろうが)。

先ほど最適化についての話がありましたが、テスターでのオーバーフィットとモデルのトレーニングは異なるものです。It's just that in machine learning the process of predictor selection is usually a separate task, while in the terminal tester you can often change the readings of these predictors - a simple example here is the search of indicator settings, but at the same time in the tester you can use variables to process the values of these indicators - moving thresholds, comparison rules, coefficients with different logical meaning.

したがって、Expert Advisorのコードを見ることなく、最適化プロセスがどのようなものであるかを明確に言うことはできません - ルールの作成、または固定ルールでよりよく機能する予測子の検索、または一方と他方が実装されています。それゆえに、このトピックに関する議論全体があるのだと私は思う。

何でもかんでもオーバーフィッティングが一般的に適用されることを考慮すると、マークアップロジックが欠落している可能性があり、状況が互いに類似していないため、学習プロセスが複雑になり、これは教師との学習ではないとマキシムは主張する。それもそのはずで、要するに私たちは、好き嫌いによってグループ分けされたさまざまなクラスを持っているのだが、互いに属性が似ているとは限らないのだ。先に私は、学習済みモデルを使って最初のサンプルに矛盾がないことを分離し、残りのデータで学習するという漸進的学習によって、そのようなデータを徐々に淘汰していく方法を提案した。これは唯一の解決策ではない。このトピックは本当に注目に値する。

停止基準について - もちろんここでは、モデルの応答において何がより優先されるかに応じて、基準を選択し、その最適値を探索することができます。しかし、必ずしも機械学習における基準である必要はありません。一定の反復回数を設定するだけでよい場合もあります。問題は常に、新しいデータで機能するモデルをどのように選択するかということである。この疑問に答えてくれる基準を探す方が良い。

 
Andrey Dik #:


、ー機械学習におけるむいてー機械学習におけるー学習とはーとはー、ー損失関数をー最小化するモデルパラメータのーパラメータをー最小化するモデルーパラメーターーーこのーこのー。
私はそうは思わない。これはMOEのほんの一部に過ぎない。トランスフォーマー、MOにおける因果学習は、一般的に最適化ではない。
 
Andrey Dik #:

ビンゴだ!

これでようやく、どんな学習も大域的極限を探索する最適化にほかならないことに気づいただろう。あるいは、まだ気づいていないかもしれないが、いずれ気づくだろう。

それ以外にはありえない。学習を止めるには常に明確な基準が必要で、この基準は常に大域的極限となるように設計されている。通常は積分基準が設計されます(常にではありません)。あなたは積分基準をそう呼んだ。

私はいつも、関数の極値を探索することは関数解析であり、アルゴリズムを開発することは最適化であると考えている。結局のところ、我々はいくつかの基準に従って最適なものを選択するのです)
 
ああ、これらの用語とその解釈))))))
ある種の神聖なビジネスのようだ)))))
 

Pythonのneuroncsの問題は、マクロスケールでの統計の美しい絵である。このニューロンを解析し始めるとすぐに、ニューロンは移動平均 線になることが判明する - それは予測価格に近いが、方向を推測しない。方向は半々で推測されるので、このニューロンで取引することは不可能である。

ここの記事を試したところ、ChatGPTでは3層で1万ニューロン、10層で1000ニューロン、1層で10万ニューロン(私のRTX3080は完全に詰まっていて、もっと取るとpythonがメモリが足りないと書いていた)、RNN、LSTM、CNN、CNN-LSTM、CNN-BiLSTM、CNN-BiLSTM-MLPで2つのレギュレーションとドロップアウト、Q-learningを集めた。DQNは失敗ばかりで、ChatはActor-Criticを数ページ書いたが、そのコードにはバグがあることが判明し、私もChatも修正できなかった。

全部がうまくいかない。結果はどこも同じで、移動平均になってしまう。ニューラル・ネットワークに入力するもの」スレッドから可能な限りのものを入力したし、他にもいろいろと入力した。

。そして今、私はキッチンで玉ねぎを切っている。バックグラウンドでYouTubeが流れていて、価格を予測するニューラル・ネットワークを構築しようとしている巻き毛の男にお勧めのものを教えている。

、彼はGoogle-collabを開き、そこでPythonのコードを書き始めた(Pythonだと思う)。その日のビットコインの終値を入力する。それを訓練する。チェックする。

、結果は次のようになった:予測は実際の価格の次に行くが、...方向性のある推測で。つまり、35000とすると、予測は37500、事実は37100。次のステップ: 予測35700、実際35300。予想34000、実際-35000。などなど。彼は、次の価格ではなく、一度に12個の、確か連続した次の価格を予測するネットワークを書いた。そしてここでは、それぞれのステップの方向が一致した。


質問:Pythonで動くものを書くことは本当に可能なのだろうか?

 
Andrey Dik #:

以上だ、マキシム。これ以上の議論は意味がない。すべてがすでに判明している。ここでここに近いとSanychは、太古の昔から私と一緒に、例えば、グローバル検索が有害であることを主張し、私は "どのようなグローバルに応じて "と答えた観察し、Sanychはまた、 最終的にはグローバルを探していることをまだ実現していない

私は、この議論を穏やかで友好的かつ建設的な方向に戻したいと願っている。

そして、このスレッドを定期的に読んでいる皆さんは、誰が、何を、いつ言ったかを覚えておいてください。今日、私はミスを犯した-チャートの描き方を間違えた。間違いを認めるのは普通のことだよ、マキシム。

私のためにそれをしないでくれ。

私たちが話していたのはテスターのことであって、MOのことではない。

MOでは、最適を探すのではなく、トレイン、テスト、バリデーションでエラーの偶然の一致を探す。そして、もう1つのファイルでステップ・バイ・ステップで実行する。どこでもほぼ同じ誤差になるはずだ。

ここには最適化の余地はない。

 
СанСаныч Фоменко #:

僕のためじゃない。

議論はテスターについてであって、手口についてではない。

MOでは、最適を探すのではなく、トレイン、テスト、バリデーションでのエラーの偶然の一致を探すんだ。そして、さらに1ファイルずつステップ・バイ・ステップで実行する。 どこでもほぼ同じエラーがあるはず だ。

ここには最適化の余地はない。

赤が最適化で、あなたの場合は「分散を小さくする」、あるいは「分散をある値に固定する」というように聞こえるでしょう。)

 
Andrey Dik #:

赤は最適化であり、あなたの場合、何をしているかにもよるが、「分散を減らす」または「与えられた値の固定分散を設定する」ように聞こえるだろう)))

何となく文章を理解していないようだ。

最適化(?)は、モデルがトレーニングされたトレインでのみ可能です。トレーニング時にはアルゴリズムがあり、虫眼鏡で最適化を見ることができます。そして、このモデルのテストが行われますが、テスト結果に影響を与えるようなパラメータはモデルには存在しないため、「最適化」とのフィードバックはありません。影響を与えるためには、予測変数や教師に対して何かをしなければなりません。

MOEでは、前処理、モデルフィッティング、モデル推定を意味し、結果の誤差はこれら3つのステップの特性であるため、最適化はできない。

理由: