トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1068 1...106110621063106410651066106710681069107010711072107310741075...3399 新しいコメント Maxim Dmitrievsky 2018.09.16 07:27 #10671 FxTrader562: ちなみに、1000の機能を使おうとしていて、今1時間トレーニング中です。エージェントCRLAgentsは 1つだけ設定可能*ag1=new CRLAgents("RlExp1iter",1,100,50,regularize,learn); そしてライブラリセットでは #define _models 1 ということで、早くなります。 FxTrader562 2018.09.16 07:28 #10672 マキシム・ドミトリエフスキー: 確かに、それぞれの予測変数に異なる値を使用することができます。つまり、100や1000、500などの数字は、コピークローズと 宣言の両方で同じでなければならないのですね? Maxim Dmitrievsky 2018.09.16 07:28 #10673 FxTrader562 です。つまり、100や1000、500などの数字は、コピークローズと宣言の両方で同じでなければならないのですね?は FxTrader562 2018.09.16 07:38 #10674 マキシム・ドミトリエフスキーはしかし、現在のサンプルコードと実装では、トレーニング中に何が起こっているのか、エージェントとモデルの違いは何なのか、よくわかりません:)) このことは、記事を掲載する際に説明してほしい。カーネルを使って エージェントが何をしているのか、モデルが何をしているのか、ということですが......。 Maxim Dmitrievsky 2018.09.16 07:41 #10675 FxTrader562 です。しかし、現在のサンプルコードと実装では、トレーニング中に何が起こっているのか、エージェントとモデルの違いは何なのか、よくわかりません:)) このことは、記事を掲載される際にご説明いただければと思います。カーネルを使って エージェントが何をしているのか、モデルが何をしているのか、ということですが......。すべてのRLエージェントは一意な予測子を持つことができ、すべてのエージェントの結果を平均する。 モデル数 - cosによる特徴変換の繰り返し数.もう忘れてください、私たちはgdmhを作っているのですから FxTrader562 2018.09.16 07:47 #10676 マキシム・ドミトリエフスキー: すべてのRLエージェントは一意な予測子を持つことができ、すべてのエージェントの結果を平均する。モデル数 - cosによる特徴変換の繰り返し数.今、私たちはgdmhを作るので、それについて議論してください。でも、GDMHのアルゴを調べてみると、とても期待できそうです。 ちなみに、最適化や学習式の場合は、なるべく自然対数を使うようにしてください。私の経験では、指数のMathpow() を使うと、割と早く解が変換されるようです。 Maxim Dmitrievsky 2018.09.16 07:50 #10677 FxTrader562 です。でも、GDMHのアルゴを見ると、とても期待できそうですね。 ちなみに、最適化や学習式の場合は、なるべく自然対数を使うようにしてください。私の経験では、指数のMathpow()を使うと、割と早く解が変換されるようです。また、三角多項式を使ってもよい。これは「再帰的特徴抽出」のようなもので、実際にはgdmhではないだろう...。中物) というのも、gdmhは線形2次アルゴリズムですが、RDFを使うので FxTrader562 2018.09.16 08:05 #10678 マキシム・ドミトリエフスキーは、三角多項式を使うこともできます。これは、「再帰的特徴除去」のようなもので、実際にはgdmhではないのですが...。中物)そんなの知らないよ...読まないとわからないよ :))...実はGDMHのこと何も知らなくて、昨日教えてもらって、今勉強してコード書いたんだ...勉強早いなぁ:))))) 私が言っているのは、解を得るためにランダムな関数を 近似しているときに、自然対数や指数を使うと一般的に早く収束する、ということです。以下は、私が言っているコードの例です。double x=MathRandomUniform(0,1,unierr);double likelyhood = 1/(1+exp(MathPow(x,3))); GDMHはなんとなくわかるのですが...RDFはまだ100%ではありません。私はRDFの代わりにモンテカルロを実装しようとしていただけなのですが、RDFでできるのであれば、モンテカルロの使い道はないですよね。モンテカルロとRDF、どちらが優れていると思いますか? しかし、私がこのアルゴに期待していることをここにまとめておきます。 1.指標や終値を取得し、m個の小片に分割し、学習中に多項式や近似関数を作成します。 2.トレーディングで実行する場合、ローソク足ごとに過去の学習データをチェックし、現在の価格にマッチする多項式を見つけ出し、次に何が起こるかを予測し、それを繰り返す必要があります。 Maxim Dmitrievsky 2018.09.16 08:10 #10679 FxTrader562 です。それはどうかな...読まないとわからないですね:)) 私が言っているのは、解を得るためにランダムな関数を 近似しているときに、自然対数や指数を使うと一般的に早く収束する、ということです。以下は、私が言っているコードの例です。double x=MathRandomUniform(0,1,unierr);double likelyhood = 1/(1+exp(MathPow(x,3))); GDMHはなんとなくわかるのですが...RDFはまだ100%ではありません。私はRDFの代わりにモンテカルロを実装しようとしていただけなのですが、RDFでできるのであれば、モンテカルロの使い道はないですよね。モンテカルロとRDF、どちらが優れていると思いますか? しかし、私がこのアルゴに期待していることをここにまとめておきます。 1.指標や終値を取得し、m個の小片に分割し、学習中に多項式や近似関数を作成します。 2.トレーディングで実行する場合、ローソク足ごとに過去の学習データをチェックし、現在の価格にマッチする多項式を見つけ出し、次に何が起こるかを予測し、それを繰り返す必要があります。一方、モンテカルロ法やTD法、マルコフ連鎖を用いたq-learningでは、反復回数が多すぎるため、時間がかかってしまう 1,2 はい、全くその通りです。 FxTrader562 2018.09.16 08:14 #10680 マキシム・ドミトリエフスキーRDFはエージェントのポリシラバスを直接近似するが、モンテカルロ法やTDによるq-learningは反復回数が多すぎて時間がかかる 1,2はい、全くその通りです。つまり、RDFはモンテカルロよりも高速で、ローソクの終値で即座に取引を決定するのに必要なものだということですね。 の「ALPHA ZERO」...見よう:)))))))))))))))))))))))))))))))))))))))))) 1...106110621063106410651066106710681069107010711072107310741075...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
ちなみに、1000の機能を使おうとしていて、今1時間トレーニング中です。
エージェントCRLAgentsは 1つだけ設定可能*ag1=new CRLAgents("RlExp1iter",1,100,50,regularize,learn);
そしてライブラリセットでは #define _models 1
ということで、早くなります。
確かに、それぞれの予測変数に異なる値を使用することができます。
つまり、100や1000、500などの数字は、コピークローズと 宣言の両方で同じでなければならないのですね?
つまり、100や1000、500などの数字は、コピークローズと宣言の両方で同じでなければならないのですね?
は
は
しかし、現在のサンプルコードと実装では、トレーニング中に何が起こっているのか、エージェントとモデルの違いは何なのか、よくわかりません:))
このことは、記事を掲載する際に説明してほしい。カーネルを使って エージェントが何をしているのか、モデルが何をしているのか、ということですが......。
しかし、現在のサンプルコードと実装では、トレーニング中に何が起こっているのか、エージェントとモデルの違いは何なのか、よくわかりません:))
このことは、記事を掲載される際にご説明いただければと思います。カーネルを使って エージェントが何をしているのか、モデルが何をしているのか、ということですが......。
すべてのRLエージェントは一意な予測子を持つことができ、すべてのエージェントの結果を平均する。
モデル数 - cosによる特徴変換の繰り返し数.もう忘れてください、私たちはgdmhを作っているのですから
すべてのRLエージェントは一意な予測子を持つことができ、すべてのエージェントの結果を平均する。
モデル数 - cosによる特徴変換の繰り返し数.今、私たちはgdmhを作るので、それについて議論してください。
でも、GDMHのアルゴを調べてみると、とても期待できそうです。
ちなみに、最適化や学習式の場合は、なるべく自然対数を使うようにしてください。私の経験では、指数のMathpow() を使うと、割と早く解が変換されるようです。
でも、GDMHのアルゴを見ると、とても期待できそうですね。
ちなみに、最適化や学習式の場合は、なるべく自然対数を使うようにしてください。私の経験では、指数のMathpow()を使うと、割と早く解が変換されるようです。
また、三角多項式を使ってもよい。これは「再帰的特徴抽出」のようなもので、実際にはgdmhではないだろう...。中物)
というのも、gdmhは線形2次アルゴリズムですが、RDFを使うのでは、三角多項式を使うこともできます。これは、「再帰的特徴除去」のようなもので、実際にはgdmhではないのですが...。中物)
そんなの知らないよ...読まないとわからないよ :))...実はGDMHのこと何も知らなくて、昨日教えてもらって、今勉強してコード書いたんだ...勉強早いなぁ:)))))
私が言っているのは、解を得るためにランダムな関数を 近似しているときに、自然対数や指数を使うと一般的に早く収束する、ということです。
以下は、私が言っているコードの例です。
double x=MathRandomUniform(0,1,unierr);
double likelyhood = 1/(1+exp(MathPow(x,3)));
GDMHはなんとなくわかるのですが...RDFはまだ100%ではありません。私はRDFの代わりにモンテカルロを実装しようとしていただけなのですが、RDFでできるのであれば、モンテカルロの使い道はないですよね。モンテカルロとRDF、どちらが優れていると思いますか?
しかし、私がこのアルゴに期待していることをここにまとめておきます。
1.指標や終値を取得し、m個の小片に分割し、学習中に多項式や近似関数を作成します。
2.トレーディングで実行する場合、ローソク足ごとに過去の学習データをチェックし、現在の価格にマッチする多項式を見つけ出し、次に何が起こるかを予測し、それを繰り返す必要があります。
それはどうかな...読まないとわからないですね:))
私が言っているのは、解を得るためにランダムな関数を 近似しているときに、自然対数や指数を使うと一般的に早く収束する、ということです。
以下は、私が言っているコードの例です。
double x=MathRandomUniform(0,1,unierr);
double likelyhood = 1/(1+exp(MathPow(x,3)));
GDMHはなんとなくわかるのですが...RDFはまだ100%ではありません。私はRDFの代わりにモンテカルロを実装しようとしていただけなのですが、RDFでできるのであれば、モンテカルロの使い道はないですよね。モンテカルロとRDF、どちらが優れていると思いますか?
しかし、私がこのアルゴに期待していることをここにまとめておきます。
1.指標や終値を取得し、m個の小片に分割し、学習中に多項式や近似関数を作成します。
2.トレーディングで実行する場合、ローソク足ごとに過去の学習データをチェックし、現在の価格にマッチする多項式を見つけ出し、次に何が起こるかを予測し、それを繰り返す必要があります。
一方、モンテカルロ法やTD法、マルコフ連鎖を用いたq-learningでは、反復回数が多すぎるため、時間がかかってしまう
1,2 はい、全くその通りです。
RDFはエージェントのポリシラバスを直接近似するが、モンテカルロ法やTDによるq-learningは反復回数が多すぎて時間がかかる
1,2はい、全くその通りです。
つまり、RDFはモンテカルロよりも高速で、ローソクの終値で即座に取引を決定するのに必要なものだということですね。
の「ALPHA ZERO」...見よう:))))))))))))))))))))))))))))))))))))))))))