トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 92

 
ヴィザード_。
OK)))ただし、条件をよく読んでください -。
"両サンプル(train = xx%, test = xx%)の結果を%(予測成功例)で投稿。手法やモデルの指定は不要で、数字だけでいい」。
さらなる結果を待っています。ミハイル・マルキュカイツはどんな結論を出すのだろう。

私の結果(ご希望であれば、方法もお教えします)。

# predict with best models

glm_predict_train <- as.data.frame(predict(glm_obj

, newx = training

, type = "class"

, s = best_models$bestTune$lambda))

glm_predict_train$observed <- train_y

table(glm_predict_train[, 2], glm_predict_train[, 1])

table(glm_predict_train[, 2], glm_predict_train[, 1]) / nrow(training)

# validate with best models

glm_predict_validate <- as.data.frame(predict(glm_obj

, newx = validating

, type = "class"

, s = best_models$bestTune$lambda))

glm_predict_validate$observed <- validate_y

table(glm_predict_validate[, 2], glm_predict_validate[, 1])

table(glm_predict_validate[, 2], glm_predict_validate[, 1]) / nrow(validating)

56%がトレーニング中。

> table(glm_predict_train[, 2], glm_predict_train[, 1])

      

       down  up

  down  333 181

  up    256 230

> table(glm_predict_train[, 2], glm_predict_train[, 1]) / nrow(training)

      

        down    up

  down 0.333 0.181

  up   0.256 0.230

テストでは52%。

> table(glm_predict_validate[, 2], glm_predict_validate[, 1])

      

       down  up

  down  332 173

  up    309 186

> table(glm_predict_validate[, 2], glm_predict_validate[, 1]) / nrow(validating)

      

        down    up

  down 0.332 0.173

  up   0.309 0.186

 
とにかく、一般化のレベルは最大で53%くらいですから......。時折、Garbage in Garbage out、つまりゴミが出る...。Excelは長い数式をサポートしていないので、テストする方法がありません。MKULで書きたいわけではなく、モデルが普通の品質であれば試してみたいのですが、この程度の汎化率では、テストではあまり良い結果が得られないと思います...。
 
mytarmailS:
この「予測可能性」がどのように計算されているのか、ターゲットを考慮しなければ意味がないのか、理解できない

信号がどの程度ノイズが多いか、あるいは逆にどの程度ノイズが多いかを推定する公式がある。これらの計算式がどのように、何を計算しているのかは作者のみが知っており、我々は彼が何をやっているかを知っていると信じるしかないのです。
要するに、予測因子自体が「ノイズ」でなければ、それを使って何かを予測するのは簡単だという、非常にシンプルな話なのです。そして、それを何らかの方法で処理すれば、さらに安定した信号が得られます。安定したシグナルは予測の根拠となる。

本パッケージのOmega()関数を用いて予測変数を自分で素早く推定し、ある特定の予測変数(トレーニングテーブルから1列)の値を適用することもできます。 結果は0%-ノイズと予測変数は役に立ちません。100% - すべて良好、予測器を使用することができます。
私は、純粋な指標値を関数に送り込むのではなく、例えば移動平均の 場合 - c(MA[0]-MA[1], MA[1]-MA[2], MA[2]-MA[3], など)のように、それらの増分を送り込むべきだと考えています。

目標値について - はい、パッケージでは使用されていません。このパッケージは何も予測できません。ただ、信頼できる予測因子とそうでないものをなんとなく判断し、それをもとにさらに新しい予測因子を作っているだけなのです。ターゲット変数の選択と予測モデルの学習は、別の方法で処理する必要があります。ターゲット変数の中には、より良く予測できるものと、より悪く予測できるものがあるのは論理的なことである。
ターゲット変数は、どのパッケージでも全く問題ありません。使用するターゲット変数が、利用可能な予測因子で予測できるかどうかも定かでない。例えば、ターゲット変数に「次のバーでの価格の上昇/下降」または「上昇/下降ジグザグ」のいずれかを使用することができますね。利用可能な予測変数に最も適合するように、新しいターゲット変数を作成する方法を学びたいのですが。もしかしたら、私のプレディクターで完璧にパンクを予知できるかもしれませんが、試していないのでわかりません。

 
私の理解では、誰も条件(どんなデータ操作も許される)を読まないので、拷問はしないでしょう。実は、すべてがシンプルなのです。
A6からラグを取り、簡単な計算式で5分の1以下を適用し、両方のサンプルで100%を得るだけでいいのです。皆さん、ありがとうございました。がんばってください・・・。
 
ヴィザード_。
私の理解では、誰も条件(どんなデータ操作も許される)を読まないので、拷問はしないでしょう。実は、すべてがシンプルなのです。
A6からラグを取り、簡単な計算式で5分の1以下を適用し、両方のサンプルで100%を得るだけです。皆さん、ありがとうございました。がんばってください・・・。
で、キャッチは?私も、あのように入力のガラクタの山に出力変数をコーディングすることができます。想像もつかないでしょう。これのどこがいいのか、まだわからない。
 
ミハイル・マルキュカイツ
何が楽しいんだ?入力のゴミの山で出力変数をエンコードすることもできるんだ。当てられないでしょう。あれが何のためにあるのか、今でもよくわからないんです。
その際、使用するデータ量が予測に十分でない場合があることに注意を促した。例えば、9小節に限定すると、より遠い小節の重要な情報を見逃してしまう可能性がある。また、他の予測因子との相互作用を考慮せずに予測因子を評価することはできないということです。
 
ミハイル・マルキュカイツ
何が楽しいんだ?入力のゴミの山で出力変数をエンコード することもできるんだ。当てられないでしょう。やっぱり意味がわからない。
ゴキちゃんには見えないけど、見えるということ)
さあ、やってみよう。簡単なものでいいんです。
 
ヴィザード_。
ゴキちゃんは見えないけど、そこにいる、ということで)))
さあ、挑戦してみよう。簡単なものでいいんです。
さあ、何か考えますよ...。
 
例えば、このファイル。チッソの列車は、テストする必要がありません。レシェトフのオプティマイザーはゴミか56%と表示されるが、ゴハンはそこそこある。誰が見つけることができるのか......?入力したものを変換して出力するのであれば、ネットワークも必要ないのでは......と思うのですが。というわけで......。
 
ミハイル・マルキュカイツ
例えばこのようなファイルです。チッソの列車は、テストする必要がありません。レシェトフのオプティマイザーはゴミか56%と表示されるが、ゴハンはそこそこある。誰が見つけることができるのか......?入力したものを変換して出力するのであれば、ネットワークも必要ないのでは......と思うのですが。其れ故に...
単純なrarアーカイブが添付できないなんて、このフォーラムはムカつくぜ...。一言で言うと情けない...。
ファイル:
理由: