В предыдущей статье мы познакомились с алгоритмом Random Decision Forest и написали простого самообучающегося эксперта на основе Reinforcement learning (обучения с подкреплением). Было отмечено основное преимущество такого подхода: простота написания торгового алгоритма и высокая скорость "обучения". Обучение с подкреплением (далее просто RL...
なぜ近似するかというと、ビタビアルゴリズムですでに10個の状態に分割されており、要するにクラスターのようなものだからです
返品をする前に価格を概算する必要があるのか、返品をしないほうがいいのか、どちらでしょうか。
近似値でいいのか、そうでないのか、わからない。
ちなみに、"cmm "を使ってみたいという方がいらっしゃいましたら、Rでのコードと例のある記事をご紹介します。
http://gekkoquant.com/2014/09/07/hidden-markov-models-examples-in-r-part-3-of-4/
ちなみに、記事にあるSMMの状態はかなり解釈しやすいものです。
そして、そこには依存性が...。
帰国子女にSMM(隠れマルコフモデル)を学習させ、10個の状態に分割し、教師なしで教えたので、勝手に違う分布に分割されました
の状態分布です。
そして、ここではリターンを州ごとにグループ化し、各行が個別の市場の状態を表しています。
一部の状態(1,4,6,8,9)は観測回数が少なすぎるため、全く知覚することができない
そして今、私はシリーズの再生、つまり累積和を作ろうと思うのですが、もしいくつかの状態に何らかの傾向、つまり方向の規則性が見つかれば
累計の集計をしました。
ステート5と7は、ベイが5、ビレッジが7と、安定した構造になっています。
非常に興味深い分布とカーブです。ほぼすべての製品で非対称性があります。ありがとうございます、もう一回見て感心します。
ところで、記事にあるSMMの状態は、かなり解釈しやすいですね。
まあ、誰も議論しているわけではなく、マキシムに書いただけなのですが
まあ、誰も反論してないし、マキシムに書いただけなんだけどね。
もうすぐgrailが 公開されるから、ちょっとだけ待っててね...現金分配でお礼の手紙を送るのは後回しでOK
貪るように食べる)
https://www.mql5.com/ru/articles/4777
ザ・グレイルはもうすぐ出版されます、ちょっと待ってください。
貪るように食べる)
https://www.mql5.com/ru/articles/4777
かっこいい!魔法の研究所を覗いているような感覚です。オーダーマジックの値は、この感覚を裏付けるものでしかない)
クールで、まるで魔法の研究所に足を踏み入れたような感覚です。オーダーマジックの値は、この感覚を裏付けるものでしかない)
PCAや予測変数の再構築など、もう少し資料があるので、後日、Python MOに行く前にもう一本記事を書こうかと思います
PCAやオーバークロックの予測器など、まだまだ資料があるので、Python MOに切り替える前に、後でもう1記事書こうかなと思っています。
そうですね、場違いなことはしないでしょう。
記事にしていただきありがとうございます。
ついに「モンテカルロ」と「RDF」を組み合わせたんですね:)))
記事の内容は面白そうなのですが...ライブテストでどの程度の効果があるのか、どんな改善ができるのかを見て、またご報告したいと思います...。
フォワードテストの結果を改善するために、このバージョンで対処すべき重要な懸念事項があれば、それを教えてください。
shift_prob(コードではシフトした確率)を使った「ランダムサンプリング」の代わりに、現在の市場の状態に依存する異なる分布からサンプルを作りたいのですが......。思ったりもする
は、さまざまなディストリビューションを試すことができます。
ここで興味を持ったのは、それがきっかけで
Rで学ぶベイズデータ解析の基礎!