トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1068

 
FxTrader562:
ちなみに、1000の機能を使おうとしていて、今1時間トレーニング中です。

エージェントCRLAgentsは 1つだけ設定可能*ag1=new CRLAgents("RlExp1iter",1,100,50,regularize,learn);


そしてライブラリセットでは #define _models 1

ということで、早くなります。

 
マキシム・ドミトリエフスキー

確かに、それぞれの予測変数に異なる値を使用することができます。

つまり、100や1000、500などの数字は、コピークローズと 宣言の両方で同じでなければならないのですね?

 
FxTrader562 です。

つまり、100や1000、500などの数字は、コピークローズと宣言の両方で同じでなければならないのですね?

 
マキシム・ドミトリエフスキー

しかし、現在のサンプルコードと実装では、トレーニング中に何が起こっているのか、エージェントとモデルの違いは何なのか、よくわかりません:))

このことは、記事を掲載する際に説明してほしい。カーネルを使って エージェントが何をしているのか、モデルが何をしているのか、ということですが......。

 
FxTrader562 です。

しかし、現在のサンプルコードと実装では、トレーニング中に何が起こっているのか、エージェントとモデルの違いは何なのか、よくわかりません:))

このことは、記事を掲載される際にご説明いただければと思います。カーネルを使って エージェントが何をしているのか、モデルが何をしているのか、ということですが......。

すべてのRLエージェントは一意な予測子を持つことができ、すべてのエージェントの結果を平均する。

モデル数 - cosによる特徴変換の繰り返し数.もう忘れてください、私たちはgdmhを作っているのですから

 
マキシム・ドミトリエフスキー

すべてのRLエージェントは一意な予測子を持つことができ、すべてのエージェントの結果を平均する。

モデル数 - cosによる特徴変換の繰り返し数.今、私たちはgdmhを作るので、それについて議論してください。

でも、GDMHのアルゴを調べてみると、とても期待できそうです。

ちなみに、最適化や学習式の場合は、なるべく自然対数を使うようにしてください。私の経験では、指数のMathpow() を使うと、割と早く解が変換されるようです。

 
FxTrader562 です。

でも、GDMHのアルゴを見ると、とても期待できそうですね。

ちなみに、最適化や学習式の場合は、なるべく自然対数を使うようにしてください。私の経験では、指数のMathpow()を使うと、割と早く解が変換されるようです。

また、三角多項式を使ってもよい。これは「再帰的特徴抽出」のようなもので、実際にはgdmhではないだろう...。中物)

というのも、gdmhは線形2次アルゴリズムですが、RDFを使うので
 
マキシム・ドミトリエフスキー

は、三角多項式を使うこともできます。これは、「再帰的特徴除去」のようなもので、実際にはgdmhではないのですが...。中物)

そんなの知らないよ...読まないとわからないよ :))...実はGDMHのこと何も知らなくて、昨日教えてもらって、今勉強してコード書いたんだ...勉強早いなぁ:)))))

私が言っているのは、解を得るためにランダムな関数を 近似しているときに、自然対数や指数を使うと一般的に早く収束する、ということです。

以下は、私が言っているコードの例です。

double x=MathRandomUniform(0,1,unierr);

double likelyhood = 1/(1+exp(MathPow(x,3)));

GDMHはなんとなくわかるのですが...RDFはまだ100%ではありません。私はRDFの代わりにモンテカルロを実装しようとしていただけなのですが、RDFでできるのであれば、モンテカルロの使い道はないですよね。モンテカルロとRDF、どちらが優れていると思いますか?

しかし、私がこのアルゴに期待していることをここにまとめておきます。

1.指標や終値を取得し、m個の小片に分割し、学習中に多項式や近似関数を作成します。

2.トレーディングで実行する場合、ローソク足ごとに過去の学習データをチェックし、現在の価格にマッチする多項式を見つけ出し、次に何が起こるかを予測し、それを繰り返す必要があります。

 
FxTrader562 です。

それはどうかな...読まないとわからないですね:))

私が言っているのは、解を得るためにランダムな関数を 近似しているときに、自然対数や指数を使うと一般的に早く収束する、ということです。

以下は、私が言っているコードの例です。

double x=MathRandomUniform(0,1,unierr);

double likelyhood = 1/(1+exp(MathPow(x,3)));

GDMHはなんとなくわかるのですが...RDFはまだ100%ではありません。私はRDFの代わりにモンテカルロを実装しようとしていただけなのですが、RDFでできるのであれば、モンテカルロの使い道はないですよね。モンテカルロとRDF、どちらが優れていると思いますか?

しかし、私がこのアルゴに期待していることをここにまとめておきます。

1.指標や終値を取得し、m個の小片に分割し、学習中に多項式や近似関数を作成します。

2.トレーディングで実行する場合、ローソク足ごとに過去の学習データをチェックし、現在の価格にマッチする多項式を見つけ出し、次に何が起こるかを予測し、それを繰り返す必要があります。

一方、モンテカルロ法やTD法、マルコフ連鎖を用いたq-learningでは、反復回数が多すぎるため、時間がかかってしまう

1,2 はい、全くその通りです。

 
マキシム・ドミトリエフスキー

RDFはエージェントのポリシラバスを直接近似するが、モンテカルロ法やTDによるq-learningは反復回数が多すぎて時間がかかる

1,2はい、全くその通りです。

つまり、RDFはモンテカルロよりも高速で、ローソクの終値で即座に取引を決定するのに必要なものだということですね。

の「ALPHA ZERO」...見よう:))))))))))))))))))))))))))))))))))))))))))

理由: