トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 109

 
私も同感で、その思いは週末に起こりました。実際、「わからない」と言う回数が多ければ多いほど、ネットワークはオーバートレーニングに近づいていく。OOSの初期には、ほとんどすべての信号が明確に解釈されますが、時間の経過とともにネットワークが「わからない」と言い始めることが増えてきます。これは、解釈の難しい新しいデータが入ってきたことを示しています。ある一定の「わからない」レベルに達すると、ネットワークの再トレーニングが行われる。とても便利なものです.
 
OOSに関するモデルが徐々に減衰し、この情報が貿易に役立つという話は、予測因子の事前選択 という話がなければ説得力がないように思われます。
 
SanSanych Fomenko:
OOSに関するモデルが徐々に薄れ、この情報が貿易に役立つという話は、予測因子の事前選択という話がないと説得力がないように見えます。
だから、何を選択するのか。最大レベルの汎化能力を持つモデルを選び、トレーニング区間でどのようなパフォーマンスを発揮したかを見てみましょう。ユビキタスが均等に 育つように...。そして、運もある。これがないとどこにも行けない...。
 
アンドレイ・ディク

阿藤

もしモデルがOOSで間違ったシグナルを出したら、それはトレーニングの不備であり、市場が変化したことを示すものではありません。

それは私も同感です。しかし、2つのグリッドの信号をどのように解析するのでしょうか?よくわからないのですが?どの程度乖離しているのか、あるいは一致しているのか。
 
アレクセイ・ブルナコフ
これには同感です。2つのグリッドの信号をどのように解析するのか?よくわからないのですが?どのように乖離しているのか、あるいは一体化しているのか。

信号をこのように共通のパターンに持っていくこと。

売 買 解 釈

-1 0 売却

0 0 フェンス

0 1 購入

-1 1 フェンス

よく訓練されたモデルでは、信号が互いに矛盾することはほとんどありません。トレーニングエリアでのシグナル数が同じであることは要求されないし、原則的に異なるが、これは、市場が世界的な傾向を長く持つことがあるので、理解できる。ただし、片方のグリッドからの信号数がもう片方のグリッドからの信号数の2倍を超えないように制限しています。なぜ2倍なのかは答えられないが、経験的な比率である。例えば、トレンドが上昇から下降に変わり、売りのシグナルが増え、買いのシグナルが嘘をつき始め、矛盾が生じ、取引量が 減少した場合、新たなトレーニングが必要なサインとなります。

 
アンドレイ・ディク

信号をこのように共通のパターンに持っていくこと。

売 買 解 釈

-1 0 売却

0 0 フェンス

0 1 購入

-1 1 フェンス

よく訓練されたモデルでは、信号が互いに矛盾することはほとんどありません。トレーニングエリアでのシグナル数が同じであることは要求されないし、原則的に異なるが、これは、市場が世界的な傾向を長く持つことがあるので、理解できる。ただし、片方のグリッドからの信号数がもう片方のグリッドからの信号数の2倍を超えないように制限しています。なぜ2倍なのかは答えられないが、経験的な比率である。例えば、トレンドが上昇から下降に変わり、売りのシグナルが増え、買いのシグナルが嘘をつき始め、矛盾が生じ、取引量が 減少した場合、新たなトレーニングが必要なサインとなります。

ありがとうございます。これは作業用のアイデアかもしれません。
 
コンビナート です。

はい、でもニューロニクスのコンフィギュレーションにはありません。

Andreiは、どのモデルもデフォルトでその入力に従うほど強力な、未調整の良好な結果をもたらすような入力についてほのめかしているようです。

それとも別のことを指しているのだろうか。しかし、もう少し詳しい回答があるとありがたい。

 

jPrediction 9.00 Releaseをリリースしました。

ユーザーマニュアルより引用

"jPrediction "と他の機械学習ソフトウェアとの違いについて

jPredictionとの大きな違いは、ユーザー定義の設定が一切ないことです。これにより、アルゴリズムの設定・選択プロセスにおいても、ニューラルネットワークのアーキテクチャの選択プロセスにおいても、ヒューマンエラーという人的要因を排除することが可能です。 jPredictionの機械学習の全プロセスは完全に自動化されており、ユーザーによる特別な知識や介入は必要ありません。

jPredictionが自動モードで行う機能

  1. 複数の事例を含むファイルを読み込んで解析し、数学的な分類モデルを構築する。
  2. 機械学習の前にデータを正規化する。
  3. サンプルからのすべての例のセットを、トレーニングサブセットとテストサブセットの2つのサブセットに分割すること。
  4. トレーニングサブセットからの例のバランス調整。
  5. ニューラルネットワークのアーキテクチャを形成する。
  6. 予測因子(ファクター)の組み合わせを変えて、症例のトレーニングサブセットでモデルのセットをトレーニングします。
  7. ニューラルネットワークのアーキテクチャの削減 - 余分な要素の削除。
  8. 例題のテスト部分集合に対するモデル群のテストと汎化能力の計算。
  9. 最大一般化可能性の基準による最適なモデルの選択。

予測変数の組み合わせがそれぞれ異なるモデルの集合から、最大限の汎化能力を持つものだけが選択されるため、最も有意な予測変数の削減(選択)が自動的に行わ れることになるのである。"

なお、バージョン8以降、jPredictionは学習サンプルの予測変数の最大数に制限を設けなくなりました。バージョン8以前では、トレーニングサンプルの予測変数の数は10個に制限されていました。

バージョン8以前のjPredictionは、シングルモデルでした。つまり、サンプルを採取し、それに対して1つの単一モデルのみを学習・テストしたのである。

バージョン8以降、jPredictionはマルチモデルになっています。つまり、サンプルの異なる部分に対して、多くの異なるモデルを学習・テストし、それぞれの部分が予測変数の異なる組み合わせを含んでいます。これらのモデルのいずれかが、サンプルのテスト部分について最大の一般性を与えるだろう。

問題は、予測変数の組み合わせが異なる場合、その組み合わせを完全に探索すると、いわゆる組合せ論的(combinatoricsから)な「爆発」が起こることです。つまり、予測変数の追加ごとに、追加しない場合に比べて2倍のモデルの学習とテストが必要になります。予測変数の数が数十から数百になると、すべての組み合わせモデルの学習とテストを合理的な時間で待つことが問題になることは明らかである。

jPredictionの組み合わせの「爆発」の問題は、可能な限りの組み合わせを試すのではなく、逐次探索方式で解決してきた。その手法のエッセンスは以下の通りです。

N個以下の予測変数のすべての可能な組み合わせを試すことによって,最大の一般化能力を持つN個の予測変数を含むある組み合わせを見つけたとする.これにN+1個の予測器を追加する必要があります。このために,組み合わせに含まれなかったすべての予測変数を標本から1つずつ追加し,その汎化能力を測定する.このような探索の過程で、N個の予測変数の最良の組み合わせよりも汎化能力が高いN+1個の予測変数の組み合わせを見つけた場合、同じ方法でN+2個の予測変数の組み合わせを見つけることができます。そして、もし見つからなかったら、それ以上探しても無駄であることは明らかで、組み合わせを試すアルゴリズムは、N個の予測変数の最適な組み合わせで停止するのです。その結果、モデルの予測変数の組み合わせを探索するアルゴリズムは、すべての可能な組み合わせを完全に試行する場合と比較して、はるかに早く停止します。また、少ない予測変数の数から、その数を増やす方向で探索を行うため、計算資源の 節約にもなる。また、学習に必要な予測変数が少なければ少ないほど、モデル構築にかかる時間や計算量も少なくて済みます。

そういうパイなんです。

もしご興味があれば、添付のZIPアーカイブには、ロシア語のjPrediction 9のユーザーマニュアルがPDF形式で含まれています。

ファイル:
 
カッコイイ!あなただけが引きずっているのですか?削減」という用語が不明確である。テクノロジーを見てみると、何かを何倍にも縮小しているんです。そして、あなたとなら、選り取り見取りです。
 
ユーリー・レシェトフ

新しいjPrediction 9.00 Releaseをリリースしました。


他機種との比較がないことを除けば、すべて良好です。

比較のために私のサービスを提供します

1.予測変数と目的変数を含む入力Excelファイルを準備します。

2.計算するのはあなたです

3.入力ファイルを送るのです。

4.randomforest、ada、SVMを使って計算しています。

比較するのです。

理由: