この集合が線形分離可能であれば、分離超平面の候補の数は無限である。このような場合、適切な超平面を特定するための何らかの基準を見つけなければならない。このような基準は、Vapnik V. N., Chervonenkis A. Y. The theory of pattern recognitionという本の中で、参照ベクトルの方法について 定式化されています。モスクワ: ナウカ, 1974.より正確には、本書ではさまざまな基準が検討されている。
SVMとVMRはともに参照ベクトル法である。
SVMは経験則に基づくデータから依存関係を再構築する手法である。この基準は、空間が線形分離可能であれば、参照超平面間の最大距離である。 Vapnik V. N. 経験的データからの依存性再構成を参照。モスクワ:ナウカ社、1979年。
この集合が線形分離可能であれば、分離超平面の候補の数は無限である。このような場合、適切な超平面を特定するための何らかの基準を見つけることが必要である。このような基準は、Vapnik V. N., Chervonenkis A. Y. The theory of pattern recognitionという本の中で、参照ベクトルの方法について定式化されています。モスクワ: ナウカ, 1974.より正確には、本書ではさまざまな基準が検討されている。
SVMとVMRはともに参照ベクトル法である。
SVMは経験則に基づくデータから依存関係を再構築する手法である。この基準は、空間が線形分離可能であれば、参照超平面間の最大距離である。 Vapnik V. N. 経験的データからの依存性再構成を参照。モスクワ:ナウカ社、1979年。
この集合が線形分離可能であれば、分離超平面の候補の数は無限である。このような場合、適切な超平面を特定するための何らかの基準を見つけることが必要である。このような基準は、Vapnik V. N., Chervonenkis A. Y. The theory of pattern recognitionという本の中で、参照ベクトルの方法について定式化されています。モスクワ: ナウカ, 1974.より正確には、本書ではさまざまな基準が検討されている。
SVMとVMRはともに参照ベクトル法である。
SVMは経験則に基づくデータから依存関係を再構築する手法である。この基準は、空間が線形分離可能であれば、参照超平面間の最大距離である。 Vapnik V. N. 経験的データからの依存性再構成を参照。モスクワ:ナウカ社、1979年。
ユーリ、あなたのデータで最初のトライアルを。
学習用の2種類のパラメータ値セット。注目すべきは、クロスバリデーションでAUCがプラマイゼロ以下になっていることである。
全体としては、51.5%のテスト精度が最高であることが判明しました。
6割をどう回避するのかもわからない。
その予測因子一式は捨てるべきだ。
もし、愚かにもすべてのステップ増分といくつかのオシレーターを100以上の予測因子と5000以上のオブザベーション、すなわちH1として、そのようなセットから10-15予測因子を選ぶことができ、40%以下の予測誤差しか与えませんが、最も重要なことはREFERREDモデルを与えないということです。
この予測変数のセットは捨てるべきだ。
もし我々が愚かにも、5000以上のオブザベーションを持つ100の予測変数の上に、いくつかの振動子を持つすべてのものの増分を取るなら、すなわちH1、そのようなセットから、予測誤差を40%未満にするばかりでなく、最も重要なことは、REPROVEDモデルを与えない10-15の予測因子を選ぶことができます。
一般的に、51.5%以上の分類精度を得たことはありません。したがって、それ以外の指標もランダムな推測に近いものになる。
テストの回答バランスは、ほぼ完璧に半々です。
Yuriさん、啓示を楽しみにしています。
一般的に、51.5%以上の分類精度を得たことはありません。従って、それ以外の指標もランダムな推測に近いものになる。
テストのバランス回答は、ほぼ完全に半々です。
ユーリ、啓示を待っていますよ。
私は何も隠していません。旧バージョンの結果については、すでに上記で紹介しましたが、すべての情報はオープンアクセスになっています。
二値分類器の構築方法の説明: https://sites.google.com/site/libvmr/
コメント付きJavaソースコード: https://sourceforge.net/p/libvmr/code/HEAD/tree/trunk/
ビルド: https://sourceforge.net/projects/libvmr/files/
Yuriさん、ありがとうございます。
この集合が線形分離可能であれば、分離超平面の候補の数は無限である。このような場合、適切な超平面を特定するための何らかの基準を見つけなければならない。このような基準は、Vapnik V. N., Chervonenkis A. Y. The theory of pattern recognitionという本の中で、参照ベクトルの方法について 定式化されています。モスクワ: ナウカ, 1974.より正確には、本書ではさまざまな基準が検討されている。
SVMとVMRはともに参照ベクトル法である。
どの方式が良いのか悪いのかは、長い間議論されることでしょう。しかし、一般化可能性を取り、確認することで、すべてがうまくいくのです。
この集合が線形分離可能であれば、分離超平面の候補の数は無限である。このような場合、適切な超平面を特定するための何らかの基準を見つけることが必要である。このような基準は、Vapnik V. N., Chervonenkis A. Y. The theory of pattern recognitionという本の中で、参照ベクトルの方法について定式化されています。モスクワ: ナウカ, 1974.より正確には、本書ではさまざまな基準が検討されている。
SVMとVMRはともに参照ベクトル法である。
どの方式が良いのか悪いのかは、長い間議論されることでしょう。しかし、一般化能力を取って確認することは可能であり、そうすれば、すべてがその場所に立つことになります。
問題は発生したときに解決すべきであり、馬(予測因子)より車(モデル)を優先させるのは絶対に無駄な行為です。ましてや、何が装着されているのか、装着されているのかどうかもわからないカートを比較するのは、なおさらです。
どのようなタイプのモデルでも適用する前に、予測変数のリストをノイズから取り除き、ターゲット変数に「関連する」予測変数のみを残すことが必要です。そうしないと、土星の輪やコーヒーのカスなど、数百年前から広く実用化されている予測因子に基づいてモデルを構築することになりかねないのだ。
上記のDr.Traderは、予測変数のセットからノイズを除去する作業を行おうとしました。
結果はマイナスです。
ネガティブな結果になったのは、予測変数の数が非常に多いのにオブザベーションの数が少ないからだと思います。しかし、これはANYモデルを適用する前に掘り下げるべき方向性である。
この集合が線形分離可能であれば、分離超平面の候補の数は無限である。このような場合、適切な超平面を特定するための何らかの基準を見つけることが必要である。このような基準は、Vapnik V. N., Chervonenkis A. Y. The theory of pattern recognitionという本の中で、参照ベクトルの方法について定式化されています。モスクワ: ナウカ, 1974.より正確には、本書ではさまざまな基準が検討されている。
SVMとVMRはともに参照ベクトル法である。
どの方式が良いのか悪いのかは、長い間議論されることでしょう。しかし、一般化能力を取って確認することは可能であり、そうすれば、すべてがその場所に立つことになります。
Rには必要なものがすべて揃っています。fTrading::sharpeRatioを参照。
あと、PerformanceAnaliticsも見ておいて損はないでしょう。
グッドラック