トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3162

 
Maxim Dmitrievsky #:
そうですね、ノイズが多い場合、分散が最大の成分は何も表示できません。2つ目のデータセットがどのように関係しているのか理解できなかったのですが、これもkozulのもので、彼のビデオにはtritmentに関するものがありました。

まあ、2つ目のデータセットは1つ目のデータセットとの対比を見つけるためだけに必要なようです。両方のデータセットの共分散行列を巧妙に比較しているようだ。

 
Aleksey Nikolayev #:

これらは非線形のように見えるが、PCAのように線形である。

ええ、非線型ですが、それは悪いことなのでしょうか?


このコントラストPCAを試したところ、PCAとほぼ同じ結果が得られた。

このビネットは、すべての異なるタイプの比較である。

これは、PCAが他の手法の前にいかに「淡白」に見えるかを示しているが、もしデータが正規化されるだけでなく中心化されるなら(これは私が別に行った)、通常のPCAはそこで示されたデータに対して同じ結果を与える。

 
mytarmailS #:

しかし、それは悪いことなのだろうか?


このコントラストPCAを試してみたが、PCAとほぼ同じ結果が得られた。

このビネットは、すべてのタイプの比較を示している。

これは、PCAが他の手法の前にいかに "青白く "見えるかを示しているが、もしデータが正規化されるだけでなく中心化された場合(これは私が別に行った)、通常のPCAはそこで示されたデータに対して同じ結果を与える。

おそらく、これらのテストデータと比較すると「貧弱」であり、大脳皮質でも同じ結果が得られるのだろう。
 
Forester #:
おそらく、これらのテストデータと比較すると "お粗末 "であり、コトロフキで得られた結果は同じなのだろう。

いや、彼ら自身のデータでも同じだ


=============

library(scPCA)
label <- toy_df$label
data <- toy_df[, -31]


pca <- prcomp(data,center = TRUE)
plot(pca$x,col=label,lwd=2,main = "обычный РСА")

cpca <- scPCA(target = data, background = background_df, penalties = 0, n_centers = 4)
plot(cpca$x, col=label, lwd=2,main = "контрасный РСА")

そういうことだ。

npca <- prcomp(data,center = TRUE,scale. = TRUE)
plot(npca$x,col=label,lwd=2,main = "обычный РСА + нормализация")

library(umap)
um <- umap(data)
plot(um$layout,col=label,lwd=2,main = "umap без нормализации данных")

num <- umap( scale(data,center = TRUE,scale = TRUE) )
plot(num$layout,col=label,lwd=2,main = "umap + нормализация")



こういうことなんだ......。自分たちで結論を出す。

 

ゴールは特定のデータセットに何かを集中させることではなく、柔軟な方法でデータをうまく表現する方法を見つけることだ。この方法はそれを可能にする。yumapでもそれは可能だと思うが、安定性という点では、通常は非線形よりも線形がほとんど常に優れている。

それはいい方法だが、もっといい方法がある。

cPCAを練習している人がいれば、議論する準備はできている。

 


M5の5000行(3,5週間)を週1回トレーニングする良いバリエーションを見つけた。そして、すべてのデータを300行にシフトすることにした - 土曜日ではなく火曜日にトレーニングするように。その結果、OOSのモデルは黒字から不採算になった。
これらの新しい300ライン(全体の約8%)は、他のチップや他のスプリットをもたらし、わずかに変化したデータに対してより良くなった。
300行ずつのシフトを50000行分繰り返した。新しい行のわずか0.8%にしか見えないだろう。しかし、5000行ほどではないが、OOSの変化も大きい。

一般的に、ウィンドウのサイズだけでなく、ウィンドウの開始位置にも適合性がある。小さなオフセットは結果に大きな違いをもたらす。強い特徴はなく、すべてが50/50±1~2%の範囲にある。
 
インターバル再トレーニングのことは忘れよう。RLはすでにこの問題で失敗している。私がこの種のことに夢中になっていた頃、ウィザードもそれについて書いていた。そこには50以上の記事がある。たくさんのアプローチがあり、何かに集中するのは不可能だ。)
 

このスレッドをご覧の皆さん、専門家、学識経験者の皆さん、以下についてご意見をお聞かせください:

FXをゲームのゲームとして見たらどうだろう。チェスのように。あるいは囲碁でも何でもいい。
ゲームを500のステップに分割する。各ステップは1時間ごとの終値。500ステップは平均的な1ヶ月の取引に相当する。
何でも入力し、残高の状態を入力する。
残高が30%減少した場合、または残高がマイナスでゲームが終了した場合、再度ゲームを開始する。
合計Nゲーム(仮に120とする-10年のように)
目標は、どんなプラスがあってもすべてのゲームで勝つことである。

エージェントの行動:
1) 0.01を買う
2) 0.02を買う
3) 0.03を買う
4) 0.04を買う
5) 0.05を買う
6) 0.06を買う
7) 0.07を買う 8) 0.07を買う 07
8) 買い 0.08
9) 買い 0.09
10) 買い 0.1

11) 売り 0.01
12) 売り 0.02
13) 売り 0.03
14) 売り 0.04
15) 売り 0.05
16) 売り 0.06
17) 売り 0.07
18) 売り 0.08
19) 売り 0.09
20) 売り 0.10

21) 終値 0.01
22) 終値 0.02
23) 終値 0.03
24) 終値 0.04
25) クローズ 0.05
26) クローズ 0.06
27) クローズ 0.07
28) クローズ 0.08
29) クローズ 0.09
30) クローズ 0.10

31) すべてクローズ

32) ポジションをオープンしない
33) 手仕舞いをスキップする

合計 33 回のアクション。

報酬は繰り延べられる。ポジションの開始 価格と、部分ポジションとフルポジションの終値の差に等しい。
入力残高は、エージェントが知っている状態の何分の一かを示す。結局のところ、ルールによれば、環境の状態はエージェントの行動によって変化しなければならない。エージェントは、価格グラフを変更することはできませんが、状態に入る彼のバランスに影響を与えることができます。これは、盤上の駒のアナログのようなものである。

このように、次のローソク足(マイナスになるかプラスになるか)をすべて記憶する必要はありませんが、最後に利益を得るために、小さなドローダウン(盤上の駒)を犠牲にすることを学びます。

インターネットで、ニューラルネットワークに1つ以上の出力がある場合の学習方法を読んだところ、DQNについて書かれていました。q-learningは状態を馬鹿正直に記憶するもので、新しい状態の場合、結果は嘆かわしいものになる。DQNは記憶した状態を新しい状態に投影するもので、その結果、over_dofigアクションから最適なものが選択される。


結局のところ、チェスには条件付きで未知の状態があり、この条件ではニューラルネットワークが人間に勝つ
同じような方法を、"freaking forex for fuck's sake "というゲームで試してみてはどうだろう。

 
Ivan Butko #:


ったな?
 
mytarmailS #:
それで質問は何だ?

エージェントにゲームを教えることによって、FXを教えようとすることについての意見。

魚は、多分このような何かを試してみて、任意の経験はありますか。
理由: