トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 75

 
ユーリー・レシェトフ

そのため、Dr.TraderはRで書き直したlibVMRをフルに動かすことができませんでした。計算が多すぎて、メモリを大量に消費してしまうのです。

ラージカーネル変換関数のコードに誤りがありました。Atachは、古いバージョン3.01と同じですが、修正されています。メモリはOKになったので、ビッグカーネルもOKになりました。でも、javaより遅いでしょう。

ファイル:
libVMR.txt  12 kb
 
Dr.トレーダー

私のコードには、大きなカーネル変換関数にバグがあったのです。アタックは旧バージョン3.01と同じですが、修正が入っています。メモリはもう大丈夫だから、大きなカーネルマシンも大丈夫。しかし、スピードはjavaより遅い。

スピードが台座より下にあるのが一番嫌ですね。

また、libVMRはバイナリ分類器であり、これは良いとは言えません。Ternaryは、糞から甘い物体を作ることができる。

ミハイル・マルキュカイツ
予測器そのものではデータの汎化度は90%ですが、アンロードモデルでは47%しかありません。 よくわからないですね...。しかも、まだMQLでは動いていない...。
つまり,2値分類器は47%の例しか汎化できず,ランダム - 50%よりもずっと悪いのです.そして、3元系はゴミをフィルタリングし、残りの例ですでに90%の汎化能力を獲得している。
 
徐々にモデルの汎化レベルを100%に上げていき、今後どのように機能するか見ていきましょう :-)
 
ミハイル・マルキュカイツ
少しずつですが、モデルの汎化レベルを100%まで上げてきましたので、今後どうなるか楽しみです :-)

一般化率100%が限界ではありません。予測因子を偏りによって選択することで、さらに改善することができる。2つの3値分類器が100%の汎化能力を持ち,バイアスが異なる場合,バイアスが最も小さい分類器の方が優れています - より多くの有意な予測変数を持っているからです.

バイアスが低いほど、テストサンプルの中でダッシュ(不確かさ)が付いている例は少なくなります。

 
ユーリー・レシェトフ

一般化率100%が限界ではありません。予測因子を偏りによって選択することで、さらに改善することができる。2つの3値分類器の汎化率が100%で,バイアスが異なる場合,バイアスが最も小さい分類器が,より有意な予測変数を持っているので,最良となるであろう.

バイアスが小さいほど、テストサンプルの中でダッシュでマークされている例が少なくなる(不確実性)。

LLong 興味はあったし、質問には戸惑いもあったと言える。レシェトフによるパラメータ指標とその意味するところそして、Biasは私のトレーニングでは100%一般化でゼロに等しいのですが...。
 
ミハイル・マルキュカイツ
ずっと不思議で不思議で仕方がなかったんです。Indicator by Reshetov parameterの意味とその効果について教えてください。どういう意味ですか?

要は、学習能力の指標にはなるけど、汎化能力には意味がないってことです。そのため、次のバージョンのjPredictionでは、これを削除し、迷惑をかけないようにするつもりです。

 
ユーリー・レシェトフ

要は、学習能力の指標にはなるけど、汎化能力には意味がないってことです。そのため、次のバージョンでは、これを削除して、迷惑にならないようにするつもりです。

ユーリ、質問です。予測器は、クラスではなく、確率を出すことができますか?
 
何か役に立つのだろうか https://news.mail.ru/society/26600207/?frommail=10
 
アレクセイ・ブルナコフ
ユーリ、質問です。予測器は、クラスの代わりに確率を与えることができますか?
確率というのが、特徴の発現の度合いを意味するのであれば、それは可能です。ただし、0か1か-1のどちらかを出力するので、委員会ではなく、2進数で。市場全体でモデルtを構築すると、モデルがゼロより上にジャンプし、ゼロが高いほどクラスの可能性が高いことがわかる。でも、パーセンテージで言うと......うーん、最大値を100%として、そこから計算すれば別なんですけどね。例えば、買いシグナルがあって、モデルの値が0.1を超え、最大値が1だったとすると、この買いシグナルの真理状態は10%であることがわかる、こんな感じです・・・。ということであれば......。
 
アレクセイ・ブルナコフ
ユーリ、質問です。予測器はクラスの代わりに確率を生成することができますか?

いや、libVMRのごく初期のバージョンでは確率は計算されていたのですが、確率の値を正しく計算するためには、すべての予測変数が厳密に独立していなければならないという大きな問題があったのです。また、多くのアプリケーション領域でそのような条件を強制することは、まったく現実的ではありません。例えば、トレーディングにおけるほとんどすべての指標やオシレーターは互いに相関しており、独立したものではありません。また、アルゴリズムにおける独立性の条件が、データに存在しない場合、汎化能力にマイナスの影響を与える。だから、そんな行き止まりの方向は捨てなければならない。

さて、jPredictionは予測変数の独立性には一切注目せず、汎化可能性の値のみに注目します。このような状況下で確率を計算すると、誤差が非常に大きくなり、非常に疑わしいものになる可能性があります。

理由: