トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3293

 
Maxim Dmitrievsky #:

国防総省では別のスケジュールを使用

コゾール推論では、分散よりもバイアスを扱う方が簡単である。したがって、モデルの複雑さや特徴数の増加は、助けになるよりも妨げになるという、仮説ではない結論になる。


このグラフはどこから来たのでしょうか?

MOでは、パラメータが多すぎるとペナルティを受けるAICなど、まったく異なる基準を用いている。

この基準や他の情報基準は、同じ性能を持つ2つのモデルのうち、より少ないパラメータを持つモデルが選ばれるという、モデリングにおける一般的な仮定と一致している。

モデル」という概念そのものが、現実を矮小化していることを忘れてはならない。ここには極端なものはない。モデルの精度を粗くすることと、それを受け入れられるかどうかのバランスがある。しかし、重要なのはモデルの精度ではなく、その粗さ、つまり一般化能力である。モデル化の主な敵は、モデル精度の兄弟分であるオーバーフィッティングなのだから。

 
СанСаныч Фоменко #:

そのグラフはどこから?

基本中の基本

https://en.wikipedia.org/wiki/Bias%E2%80%93variance_tradeoff

 
СанСаныч Фоменко #:

モデル」という概念そのものが、現実の凝縮であることを忘れてはならない。ここに極端は ない。モデルの精度を粗くすることと、それを受け入れられるかどうかのバランスがある。しかし、重要なのはモデルの精度ではなく、その粗さ、つまり一般化能力である。モデル化の主な敵は、モデル精度の兄弟分であるオーバーフィッティングなのだから。

あなたは常に「極値」と「シャープピーク」(関数が微分を持たない点)の概念を混同している。

平らな表面にも極限はある。

もうひとつは、FFは常に、FFの表面ができるだけ滑らかになるように、そして大域的極値が唯一のものになるように選択しようとする。唯一の大域的極限は、問題の唯一の明確な解でなければならない。

もしFFの大域的極限が唯一のものでない場合、さらにそれが微分を持っていない場合は、FF(モデル評価の基準)の選択が正しくないことを意味します。これを誤解すると「オーバーフィッティング」と呼ばれるようになり、これを誤解すると曖昧な局所極値を探すことになる。

例えるなら、専門家(医師)は訓練を受け、資格認定試験(FF)が開発され、医師には「オーバートレーニング」や「オーバーフィット」という概念は存在しない。そしてあなたによれば、優秀な医師は常に訓練不足のアンダーアチーバーであるべきなのだ。

繰り返しになるが、「オーバートレーニング」の問題は、モデルを評価する基準の選択を誤ったことにある。フォーラムにはそのようなクールな専門家がいるようだが、彼らは何度も同じ間違いを繰り返す。正しい推定基準の開発は予測変数の選択に劣らず重要であり、そうでなければモデルを適切に推定することは単に不可能なのである。

異論が飛び交うことが予想されるが、大丈夫だ。誰かの役に立つのであれば、それは素晴らしいことだし、役に立たない人はどうでもいい。

 
Andrey Dik #:

あなたは「極値」と「シャープピーク」(関数が微分を持たない点)の概念を混同している。

平らな表面にも極限はある。

もうひとつは、FFは常に、FFの表面ができるだけ滑らかになるように、そして大域的極値が唯一になるように選択しようとする。唯一の大域的極限は、問題の唯一の明確な解でなければならない。

もしFFの大域的極限が唯一のものでない場合、さらにそれが微分を持っていない場合は、FF(モデル評価の基準)の選択が正しくないことを意味する。これを誤解すると「オーバーフィッティング」と呼ばれるようになり、これを誤解すると曖昧な局所極値を探すことになる。

例えるなら、専門家(医師)は訓練を受け、資格認定試験(FF)が開発され、医師には「オーバートレーニング」や「オーバーフィット」という概念は存在しない。そしてあなたによれば、優秀な医師は常に訓練不足の非科学者であるべきだという。

繰り返しになるが、「オーバートレーニング」の問題は、モデルを評価する基準の選択を誤ったことにある。このようなクールな専門家がこのフォーラムにはいるようだが、彼らは何度も同じ間違いを繰り返す。正しい推定基準を開発することは、予測因子を選択することに劣らず重要であり、そうでなければモデルを適切に推定することは不可能である。

異論が飛び交うことが予想されるが、大丈夫だ。誰かの役に立つのであれば、それは素晴らしいことであり、役に立たない人はどうでもいいのだから、そのままでいいと思っている。

あなたは実体を混同している。最適化を近似に当てはめようとしているか、その逆だ。

近似と最適化は、機械学習の問題を解く際の異なるアプローチだ。


近似とは、入力データと出力データの関係を近似するモデルを構築することを指す。これは例えば、データを最もよく記述する線形または非線形関数を構築することである。近似は、解決すべき目標や問題を考慮せず、データに最も適合するモデルを構築することのみを追求する。


一方、最適化とは、特定の目標や問題を達成するための最適なモデルパラメータを見つけることを指す。この場合、モデルは近似の場合よりも複雑になり、より多くのパラメータを含む可能性がある。最適化では、目標や目的を考慮し、最良の結果が得られるようにモデルパラメータを調整します。


一般的に、近似と最適化は、効果的な機械学習モデルを構築するために併用されることが多い。まず、モデルを構築するために近似が行われ、次に、目的のゴールやタスクを達成するために、モデルのパラメータを調整するために最適化が行われる。

 
ニューラルネットワークはあなたのFFを気にしない。それは既製のデータでタスクを実行する。ここでの議論は、このようなモデルの分散とバイアスのバランスをどのように見つけるかということだ。MitramilesはNSの2番目の端に異なるFFを置いた。結果はすべて同じだった。

あなたは目標とするf-iを見つけることについて書いているが、それはすでにデフォルトで設定されている。

あなたはまだその違いに気づく必要がある。
 
専門家の知識やアルゴリズムによる判断に基づく適切なマークアップやオラクルの重要性について、上に書いたのはそのためだ。それは、あなたが先験的にモデルに持ち込むものだ。どんなFFもあなたを救うことはできない。

すでに何度も議論され、堂々巡りになっている。何か具体的なことが議論されるか、みんなが自分の側に荷重を引っ張るかのどちらかだ。
 

だから言っただろう。

サンシュが反撃に転じるなら理解できるが、マックスは......。

FFは評価であり、我々はすべてを評価する。FFは評価であり、すべてを評価するものだ。適切な評価がなければ五分五分になってしまうし、あれもダメ、これもダメと言われてしまう......。私は評価設計の専門家だとは主張しない。

"同じことをグルグル言っているだけ"-これは私の言葉ではありません。)ところどころ言葉を変えることで、さらに悪く聞こえるようにすることは可能だ。ここでは「言葉の数」が評価基準になっているが、ところどころ言葉を変えることで意味が大きく変わってしまうので、正しい評価ではない。

 
SSGよりもさらに強力なアルゴリズムが発見されたのだ。
 
常に概念が入れ替わり、コミュニケーションは不可能だ。
 
Maxim Dmitrievsky #:
、、、、、、ののののののののののの...、...、...........

同感だ。誰もお互いを理解できないし、発言とその意味的負荷を評価する唯一の基準もない。、、、のののー:

- どういう意味ですか?

- という逸話のように。

、ーどういうー、ー、ー

理由: