Пробую оценить важность предикторов для обученного леса, удаляя 1 из них и обучая лес снова. После чего из ошибки полного леса вычитаю ошибку леса c удаленным предиктором. Если ошибка
Индикатор, который использует нейронные сети для прогнозирования ближайших нескольких цен открытия. Сеть обучается методом обратного распространения ошибки. Обучение проходит автоматически, результат — самообученная сеть и самообучающийся индикатор.
奇妙なことに、一般性を損なう特徴があります(特にキャットバストについてですが、おそらく他のものにも当てはまると思います)。新しい機能を追加しただけで、その機能がないときよりもモデルがエラーを出すので、不思議な感じがする
例:数種類のマッシュで学習させた後、数種類を削除したら精度が高くなった。
いいえ、1層はプリミティブで、1重の乗算に過ぎません
それはあなたの理論でしょう。
私のものではありません。
奇妙なことに、一般性を損なう特徴があります(特にキャットバストについてですが、おそらく他のものにも当てはまると思います)。新しい機能を追加しただけで、その機能がないときよりもモデルがエラーを出すのですから、不思議な感じがします。
例えば、いくつかのマッシュで学習させた後、いくつかのマッシュを削除したら、誤差が大きくなりました
この効果については、ずいぶん前に説明しました
https://www.mql5.com/ru/blogs/post/725189
モデルを完全に再トレーニングすることで検出されます。
仕事の邪魔になるノイズです。
昔、そんな効果を表現した
https://www.mql5.com/ru/blogs/post/725189
モデルの完全な再トレーニングによって特定される。
邪魔になるのは、ノイズです。
はい、しかしここでは、機能の相互作用を見ることができます。特定のMOフレームワークに縛られているのが残念
なぜなら、多重共線性によって重要性が過小評価される可能性があるからである。
もちろん、これだけたくさんのサインがあるのに、手探りでやるのはよくないですがいいえ、1層はプリミティブで、1重の乗算に過ぎません
それはあなたの理論でしょう。
それがこちら、Tsybenkoの定理です。
提示された式y = x1/x2。- は連続であり、2次元のみである。
https://www.mql5.com/ru/code/9002
推奨する。
提示された式y = x1/x2。- は連続であり、2次元のみである。
離散的か連続的か?
離散的なのか連続的な のか?
連続するのです。隙間や穴はありませんか?図面例をご覧になりましたか?
連続する。隙間や穴があいていないか?図面例をご覧になりましたか?
そうですね...。
連続関数とは、瞬間的な「ジャンプ」(ギャップと 呼ぶ)を伴わずに変化 する関数、つまり、引数の 小さな変化が関数の値の小さな 変化につながる関数の ことをいう。連続関数のグラフは 連続した線に なります。
そうですね...。
連続関数とは、瞬間的な「ジャンプ」(不連続と 呼ぶ)を伴わずに変化 する関数、つまり、引数の 小さな変化が関数の値の小さな 変化につながる関数の ことである。連続関数のグラフは 連続した線に なります。
y = x1/x2 はどこで途切れているのでしょうか?
x2=0