トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 923 1...916917918919920921922923924925926927928929930...3399 新しいコメント Dr. Trader 2018.05.17 20:11 #9221 アレクセイ・ヴャジミキン今、モデル学習用のデータを拝見して、木のパラメータを探す練習をしたいと思いました。しかし、ファイルが見つからず、20ページほどで行方不明になってしまいました。また、ここに掲載してください。 Aleksey Vyazmikin 2018.05.17 21:59 #9222 Dr.トレーダー今、モデル学習用のデータを拝見して、木のパラメータを探す練習をしたいと思いました。しかし、ファイルが見つからず、20ページほどで行方不明になってしまいました。もう一度ここに添付していただけますか?もちろんできるのですが、部分的にやらなければならないので(サーバーの不具合)、Filter set - 売買が許されない場所を検出、MaloVhodov set - きちんと利益を出せるトレンドエントリー、MnogoVhodov set - 損切り以外のすべてのエントリーです。 ツリーにサンプル以外の作業を教えることはできない。マロヴォドフ - ターゲット -1 のセットに安全に影響を与えた予測因子のうち、私は以下のものを選び出しました。 arr_iDelta_H4arr_iDelta_D1arr_iDelta_MN1arr_TimeHarr_Den_Nedeliarr_iDelta_Max_D1arr_iDelta_Min_D1arr_Regresorarr_LastBarPeresekD_Downarr_LastBarPeresekD_Up_M15arr_LastBarPeresekD_Down_M15arr_DonProc_M15 ファイル: Filter.zip 3502 kb Aleksey Vyazmikin 2018.05.17 22:00 #9223 続きが決まりました - MaloVhodov ファイル: MaloVhodov.zip 3471 kb Aleksey Vyazmikin 2018.05.17 22:02 #9224 継続が決まった - MnogoVhodov ファイル: MnogoVhodov.zip 3500 kb Maxim Dmitrievsky 2018.05.18 06:29 #9225 1. https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-i-q-learning-sarsa-dqn-ddpg-72a5e0cb6287 2. https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-part-ii-trpo-ppo-87f2c5919bb9 ウラジミールさんの記事にも参考になりそうです。連続的なタスクの場合、限られた数の状態/遷移に対する表形式メソッドがあるため、DDPG以前のすべては関係ない Introduction to Various Reinforcement Learning Algorithms. Part I (Q-Learning, SARSA, DQN, DDPG) 2018.01.12黃功詳 Steeve Huangtowardsdatascience.com Reinforcement Learning (RL) refers to a kind of Machine Learning method in which the agent receives a delayed reward in the next time step… Vladimir Perervenko 2018.05.18 07:48 #9226 マキシム・ドミトリエフスキー1. https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-i-q-learning-sarsa-dqn-ddpg-72a5e0cb6287 2. https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-part-ii-trpo-ppo-87f2c5919bb9 ウラジミールは記事に役立つかもしれません。DDPG以前は、限られた状態・遷移に対して表形式のメソッドがあるため、記事とは関係ないありがとうございます。アンサンブル(別記事)を終えて、RLに備えようと思っています。 グッドラック Aleksey Vyazmikin 2018.05.18 11:12 #9227 マキシム・ドミトリエフスキー証明する。 トレーニングの後は、このようなチャート表があります。(04.01 OOSより) 黄色でハイライトされたエージェント7は、最も誤差が小さい。彼以外を捨てて見よう。 その結果、改善されました。カッコイイ!さて、(一日二日?早い?そのうちに...)一つのアイデアを完成させて、あなたの記事に取り掛かります Maxim Dmitrievsky 2018.05.18 11:15 #9228 アレクセイ・ヴャジミキンカッコイイ!さて、(1日2日?早い?場合によっては...)1つのアイデアを終わらせて、あなたの記事に取り掛かろうと思います!(笑)私が話を聞いた人たちは、何のアイデアも出さず、与えられたものを使うだけでしたから、それはいいことでしょう とブレインストーミングは常に有効です Renat Akhtyamov 2018.05.18 14:18 #9229 Dr.トレーダーマックスにTS信号の反転を教える :) なぜなら、彼のポンドは厳密にはマイナスで、逆にトレードするとプラスになってしまうからです。 NSはスーパーサンプリングTSなんですね。 しかし、とにかく、FXブローカーは、TSがどこで買われ、どこで売られるかを事前に知っています。 だから、すべてが計画通りに進み、ひっくり返すかひっくり返さないかは無駄なことなのです。 Maxim Dmitrievsky 2018.05.18 14:56 #9230 レナト・アフティアモフ しかし、見積もりは、TSがどこで買われ、どこで売られるかを先験的に認識していることに変わりはありません を発見したのでしょうか? 1...916917918919920921922923924925926927928929930...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
今、モデル学習用のデータを拝見して、木のパラメータを探す練習をしたいと思いました。しかし、ファイルが見つからず、20ページほどで行方不明になってしまいました。また、ここに掲載してください。
今、モデル学習用のデータを拝見して、木のパラメータを探す練習をしたいと思いました。しかし、ファイルが見つからず、20ページほどで行方不明になってしまいました。もう一度ここに添付していただけますか?
もちろんできるのですが、部分的にやらなければならないので(サーバーの不具合)、Filter set - 売買が許されない場所を検出、MaloVhodov set - きちんと利益を出せるトレンドエントリー、MnogoVhodov set - 損切り以外のすべてのエントリーです。
ツリーにサンプル以外の作業を教えることはできない。マロヴォドフ - ターゲット -1 のセットに安全に影響を与えた予測因子のうち、私は以下のものを選び出しました。
arr_iDelta_H4
arr_iDelta_D1
arr_iDelta_MN1
arr_TimeH
arr_Den_Nedeli
arr_iDelta_Max_D1
arr_iDelta_Min_D1
arr_Regresor
arr_LastBarPeresekD_Down
arr_LastBarPeresekD_Up_M15
arr_LastBarPeresekD_Down_M15
arr_DonProc_M15
1.
https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-i-q-learning-sarsa-dqn-ddpg-72a5e0cb6287
2.
https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-part-ii-trpo-ppo-87f2c5919bb9
ウラジミールさんの記事にも参考になりそうです。連続的なタスクの場合、限られた数の状態/遷移に対する表形式メソッドがあるため、DDPG以前のすべては関係ない
1.
https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-i-q-learning-sarsa-dqn-ddpg-72a5e0cb6287
2.
https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-part-ii-trpo-ppo-87f2c5919bb9
ウラジミールは記事に役立つかもしれません。DDPG以前は、限られた状態・遷移に対して表形式のメソッドがあるため、記事とは関係ない
ありがとうございます。アンサンブル(別記事)を終えて、RLに備えようと思っています。
グッドラック
証明する。
トレーニングの後は、このようなチャート表があります。(04.01 OOSより)
黄色でハイライトされたエージェント7は、最も誤差が小さい。彼以外を捨てて見よう。
その結果、改善されました。
カッコイイ!さて、(一日二日?早い?そのうちに...)一つのアイデアを完成させて、あなたの記事に取り掛かります
カッコイイ!さて、(1日2日?早い?場合によっては...)1つのアイデアを終わらせて、あなたの記事に取り掛かろうと思います!(笑)
私が話を聞いた人たちは、何のアイデアも出さず、与えられたものを使うだけでしたから、それはいいことでしょう
とブレインストーミングは常に有効です
マックスにTS信号の反転を教える :)
なぜなら、彼のポンドは厳密にはマイナスで、逆にトレードするとプラスになってしまうからです。
NSはスーパーサンプリングTSなんですね。
しかし、とにかく、FXブローカーは、TSがどこで買われ、どこで売られるかを事前に知っています。
だから、すべてが計画通りに進み、ひっくり返すかひっくり返さないかは無駄なことなのです。
しかし、見積もりは、TSがどこで買われ、どこで売られるかを先験的に認識していることに変わりはありません