トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 141

 
Dr.トレーダー

標準的なやり方はわからないけど、ライブラリを使ってこんな感じで。


ありがとうございました!!!あなたはパッケージについて非常によく知っています。私は同じ質問で特別なフォーラムでもう一度format()クラスを書くことを提案され、コードの〜300行の例を示しました、私はすでに松葉杖について考え始め、ここに素晴らしい解決策があります。

 

もう一つ質問です。私は3つのデータフレームを持っていますが、観測が異なる時間に行われたため、長さが若干異なっています。

3フレームすべてにある観測データだけを残し、別々のフレームにしかない観測データを破棄するには、どのように同期させればよいのでしょうか?

> head(sec1)
        date  time   open   high    low  close vol
1 2016.09.06 08:45 3081.5 3082.5 3080.5 3080.5   6
2 2016.09.06 08:50 3081.5 3081.5 3079.5 3080.5   6
3 2016.09.06 08:55 3081.5 3082.5 3081.5 3082.5  19
4 2016.09.06 09:00 3083.5 3083.5 3081.5 3082.5  19
5 2016.09.06 09:05 3083.5 3085.5 3082.5 3085.5   8
6 2016.09.06 09:10 3086.5 3086.5 3084.5 3086.5  15
> head(sec2)
        date  time  open  high   low close vol
1 2016.09.13 13:00 95.34 95.40 95.33 95.39  36
2 2016.09.13 13:05 95.40 95.43 95.39 95.41  40
3 2016.09.13 13:10 95.42 95.44 95.40 95.42  37
4 2016.09.13 13:15 95.41 95.42 95.39 95.39  25
5 2016.09.13 13:20 95.40 95.41 95.38 95.38  21
6 2016.09.13 13:25 95.39 95.42 95.38 95.42  32
> head(sec3)
        date  time    open    high     low   close vol
1 2016.09.14 18:10 1.12433 1.12456 1.12431 1.12450 137
2 2016.09.14 18:15 1.12444 1.12459 1.12424 1.12455 139
3 2016.09.14 18:20 1.12454 1.12477 1.12446 1.12469 148
4 2016.09.14 18:25 1.12468 1.12474 1.12442 1.12453 120
5 2016.09.14 18:30 1.12452 1.12483 1.12442 1.12482 156
6 2016.09.14 18:35 1.12481 1.12499 1.12472 1.12474 126
 
https://www.mql5.com/en/blogs/post/650079

面白いですね。機械学習で既存の戦略を改善する。サンプリングに関する情報が不足しているのが難点だが、発想は面白い。
 
mytarmailS:

もう一つ質問です。私は3つのデータフレームを持っていますが、観測が異なる時間に行われたため、長さが若干異なっています。

3つのフレームに含まれる観測データのみを残し、別々のフレームに含まれる観測データを破棄するために、時間軸で同期させるにはどうすればよいでしょうか。

真正面から見るとこんな感じです。


a <- data.frame(c1 = c('a','b','c','d','e','f'), c2 = c(1,2,3,4,5,6))

b <- data.frame(c1 = c('a','b','c','d','e'), c2 = c(1,2,3,4,5))

c <- data.frame(c1 = c('b','c','d','e','f'), c2 = c(2,3,4,5,6))


a$concat <- do.call(paste0, a[1:2])

b$concat <- do.call(paste0, b[1:2])

c$concat <- do.call(paste0, c[1:2])


concat_vec <- append(unique(a$concat)

    , c(unique(b$concat)

    , unique(c$concat)))

concat_vec_tbl <- as.data.frame(table(concat_vec))

concat_vec_tbl <- concat_vec_tbl[concat_vec_tbl$Freq == 3, ]



a <- a[a$concat %in% concat_vec_tbl$concat_vec, ]

b <- b[b$concat %in% concat_vec_tbl$concat_vec, ]

c <- c[c$concat %in% concat_vec_tbl$concat_vec, ]

 
アレクセイ・ブルナコフ
https://www.mql5.com/en/blogs/post/650079

面白いですね。機械学習で既存の戦略を改善する。サンプリングに関する情報が不足しているのが難点だが、発想は面白い。
良い記事ですね。私も最近「SMM」を試していますが、もっと普通のやり方です。
 
アレクセイ・ブルナコフ

真正面から見ると、このようになります。

しゃい
 
アレクセイ・ブルナコフ
https://www.mql5.com/en/blogs/post/650079

面白いですね。機械学習で既存の戦略を改善する。サンプリングに関する情報が不足しているのが難点だが、発想は面白い。

アレクセイ!

なんて面白い人なんだ

インジケーターのリアルTSの性能を上げるためにrfを使っているとここに何度も書いているのですが、反応がありませんね。

さらに、私は何度か提案しています。

1.本物のTSを手にする。

2.TSの問題点を洗い出し、Rツールで解決に乗り出す

私の場合、通常1小節目(-1)の情報を与えるインジケーターの遅れを解決するためにrfを使い、rfは1小節先の情報を与えるようにしたのです。H4は8時間です。その結果、ドローダウンをかなり減らすことができた。

 
アレクセイ・ブルナコフ
https://www.mql5.com/en/blogs/post/650079

面白いですね。機械学習で既存の戦略を改善する。サンプリングに関する情報が不足しているのが難点だが、発想は面白い。

この記事の考え方は、記事(https://www.mql5.com/ru/articles/1628)では少し違った形で実装されています。

このサイトの機械学習の記事ってみんな1年遅れで読んでるのかなぁ(暴論)

グッドラック

Глубокая нейросеть со Stacked RBM. Самообучение, самоконтроль
Глубокая нейросеть со Stacked RBM. Самообучение, самоконтроль
  • 2016.03.31
  • //www.mql5.com/ru/users/vlad1949">
  • www.mql5.com
Статья является продолжением предыдущих статей по глубоким нейросетям и выбору предикторов. В ней мы рассмотрим особенность нейросети, инициируемой Stacked RBM, а также её реализации в пакете "darch".
 
サンサニッチ・フォメンコ

アレクセイ!

なんて面白い人なんだ

指標上の実TSの性能を上げるためにrfを使うってここに100回くらい書いてるけど反応ないよね。

さらに、私は繰り返しこう表現してきました。

1.本物のTSを手にする。

2.TSの問題点を洗い出し、Rツールで解決に乗り出す

私の場合、通常1小節目(-1)の情報を与えるインジケーターの遅れを解決するためにrfを使い、rfは1小節先の情報を与えるようにしたのです。H4は8時間です。その結果、ドローダウンをかなり減らすことができた。

了解しました。ただ、具体的な内容がないと「思考の深さ」を評価するのは難しいですね。そして、その記事には写真も掲載されていました。ペレヴェンコも似たようなものを持っています。そして、彼の記事も読みました。
 
アレクセイ・ブルナコフ
了解しました。ただ、具体的な内容がないと、思想の深さを評価するのは難しいですね。そして、その記事には写真も掲載されていました。ペレヴェンコもそのような顔をしています。そして、彼の記事も読みました。

さて、ここからが本題なのですが...。

私の目的は、実用的な方向に話を導くことであり、決して誰かを不快にさせることではありません...。

これまでは断片的なものを散在させていました。

あなたの学術的なアプローチ...。私にとっては、あなたの計算の価値は疑いようのないものですが、しかし......。以上、疑念を述べてきた。

私はVladimir Perervenkoの 研究をよく見ていますが、モデルが再トレーニングされないという証拠は見たことがありません。最後のリンクです。変数の重要度は、木型アルゴリズムによって決定される。しかし、木はノイズの値を利用できる利便性から、これらのノイズ予測器を頻繁に使う傾向があり、その結果、重要度推定にノイズが入り込んでしまう...。

そこで、ノイズ予測器を除去するためのアルゴリズムから始めなければなりません。それ以外のステップでは、すべてのモデルの推定値を未来に外挿することができないため、実用的ではありません。

そして、ウィンドウ単位でモデルを学習させ、ウィンドウの幅を何らかの方法で正当化する必要があります。そして、学習したモデルをワーキングウィンドウの予測変数の事前選択で使用する...。

こんな感じ。

理由: