要するに、提案する強化学習ツリー(RLT)モデルは、分離変数の選択とノイズ変数の抑制の特別なタイプを持つ伝統的なランダムフォレストモデルである 。 これらの特徴は、各内部ノードに強化学習メカニズムを実装することで利用可能になる。まず、強化学習の影響を示すチェッカーボードの例を考えて みよう : X ~ uni f [ 0, 1 ] p とし、 E ( Y | x ) = i { i ( i ) p と する 。 x ) = i { i ( x (1) 0 .5) = i ( x (2) >0 .5)}と仮定する。通常のランダム・フォレストを用いてこの構造を推定することの難しさは 、 2つの強い変数のどちらも重要でない効果を示さないことである 。 これらの2つの変数に分割することによる 即時の 報酬、すなわち予測誤差の削減は、ノイズ変数のどちらかに分割することによって得られる報酬と漸近的に同じである。 したがって 、 pが 比較的 大きい とき 、 X (1) 、 または X (2)の どちらかが 分離変数として選択 さ れる可能性は低い。 しかし 、 X (1) , X (2) の どちらかに分割することが、後の分割に大きな将来の利益をもたらすことがあらかじめわかっていれば、当面の報酬に関係なく、自信を持ってどちらかの 変数に 分割させることができます。
In this paper, we introduce a new type of tree-based method, reinforcement learning trees (RLT), which exhibits significantly improved performance over traditional methods such as random forests (Breiman, 2001) under high-dimensional settings. The innovations are three-fold. First, the new method implements reinforcement learning at each...
エージェントにゲームを教えることでFXを教えようとすることについての意見。
このようなことを試したことのある人はいますか?
一般的に、ウィンドウのサイズだけでなく、ウィンドウの開始位置にも適合性がある。ャ ン プ ル の ャ ン プ ル は ャ ン プ ル の ャ ン プ ル に ャ ン プ ル の ャ ン プ ル の ャ ン プ ル の ャ ン プ ル の ャ ン プ ル ャ ン プ ル強い特徴はなく、すべてが50/50±1~2%の範囲にある。M5の5000行(3,5週間)を週1回トレーニングする良いバリエーションを見つけた。そして、すべてのデータを300行にシフトすることにした - 土曜日ではなく火曜日にトレーニングするように。その結果、OOSのモデルは黒字から不採算になった。
これらの新しい300ライン(全体の約8%)は、他のチップや他のスプリットをもたらし、わずかに変化したデータに対してより良くなった。
ー50000行のー300行シフトをー。、、ー50000行のー300行ずらして、ーわずか0.8%。しかし、5000行ほどではないが、OOSの変化も大きい。
、、ーこれはーこのーこれはー
より精巧な(matstat的に)分割ルールに移行することで、何らかの改善が可能なのではないかというかすかな期待がある。これは、先日記事へのリンクを貼った「差分木」と同じようなものだ。ーCHAIDカイ二乗統計のー。
もちろん、これは万能薬ではないし、これらの分割ルールの具体例が私たちにまったく効かないという事実でもない。ーCHAIDカイ二乗統計のー。
matstatから得られる主なアイデアは、臨界p値に達したときに木の成長を止めることであり、左翼的な理由ではない。
一般的に、ウィンドウのサイズだけでなく、ウィンドウの開始位置にも適合性がある。小さなオフセットは結果に大きな違いをもたらす。強い特徴はなく、すべてが50/50±1~2%の範囲にある。M5の5000行(3,5週間)を週1回トレーニングする良いバリエーションを見つけた。そして、すべてのデータを300行にシフトすることにした - 土曜日ではなく火曜日にトレーニングするように。その結果、OOSのモデルは黒字から不採算になった。
これらの新しい300ライン(全体の約8%)は、他のチップや他のスプリットをもたらし、わずかに変化したデータに対してより良くなった。
300行ずつのシフトを50000行分繰り返した。新しい行のわずか0.8%にしか見えないだろう。しかし、5000行ほどではないが、OOSの変化も大きい。
どんなモデル?
どんなモデル?
木製
樹木と強化学習に関する興味深い記事。
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4760114/
============================
主旨
2.2 動機
要するに、提案する強化学習ツリー(RLT)モデルは、分離変数の選択とノイズ変数の抑制の特別なタイプを持つ伝統的なランダムフォレストモデルである 。 これらの特徴は、各内部ノードに強化学習メカニズムを実装することで利用可能になる。まず、強化学習の影響を示すチェッカーボードの例を考えて みよう : X ~ uni f [ 0, 1 ] p とし、 E ( Y | x ) = i { i ( i ) p と する 。 x ) = i { i ( x (1) 0 .5) = i ( x (2) >0 .5)}と仮定する。通常のランダム・フォレストを用いてこの構造を推定することの難しさは 、 2つの強い変数のどちらも重要でない効果を示さないことである 。 これらの2つの変数に分割することによる 即時の 報酬、すなわち予測誤差の削減は、ノイズ変数のどちらかに分割することによって得られる報酬と漸近的に同じである。 したがって 、 pが 比較的 大きい とき 、 X (1) 、 または X (2)の どちらかが 分離変数として選択 さ れる可能性は低い。 しかし 、 X (1) , X (2) の どちらかに分割することが、後の分割に大きな将来の利益をもたらすことがあらかじめわかっていれば、当面の報酬に関係なく、自信を持ってどちらかの 変数に 分割させることができます。
=========================
さて、それに従ってRのパッケージ
https://cran.r-project.org/web/packages/RLT/RLT.pdf
木製
正確な名前は?それとも自家製ですか?
長年さまざまな "木製 "のモデルを使ってきましたが、このようなものは見たことがありません。
強制することはできるが、X1、X2、X157のどのフィッシュを使えばいいのかわからない。
正確な名前は?それとも自家製ですか?
長年さまざまな "木製 "のモデルを使ってきましたが、このようなものは見たことがありません。
あるパターンを持つコアセットを見つけ、それだけで学習する必要がある。それはグラフのどの部分でもよく、列挙によって探索される。そうしないと、ノイズによってモデルが集中できません。現在のトレンドは、コアセット(小さな代表的なサブサンプル)である。これは非常にシンプルで、結果が得られる。
検索方法は?すべてのチャンク(例えば100×5000pp)を調べ、そのモデルで他の50万行がどの程度うまく予測できるかを見る?