トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1780 1...177317741775177617771778177917801781178217831784178517861787...3399 新しいコメント Farkhat Guzairov 2020.05.10 18:24 #17791 アレクセイ・ヴャジミキン 研修に参加しなかったという報告。 それなら、もっといい結果が出るはずです。 Farkhat Guzairov 2020.05.10 18:25 #17792 mytarmailS: 高精度は70%ではない 95%を下回らないように自分自身で判断した。 Aleksey Vyazmikin 2020.05.10 19:18 #17793 ファルハット・グザイロフ 戦略・・・MOの後も、やはり全体の戦略が必要なのですね。MOの目的は、最終的にトレード(ロング/ショート)するかどうかのアドバイスをアウトプットすることだと思っていました。 まあ、このターゲットは私のものではないので、別のターゲットに対する予測因子の有効性を見る機会として、私にとっては興味深いものです。 ファルハット・グザイロフ 95%以上という自分の中での判断に同意。 これはターゲットによって大きく異なりますが、私のメインターゲットにとっては、トレンドで動くので、非常に良い結果だと思います。 Aleksey Vyazmikin 2020.05.10 19:18 #17794 mytarmailS: 降ろしなさいが、今日は見ません、すみません、他の用事の最中です。 わかった、後でね。 mytarmailS 2020.05.11 07:00 #17795 アレクセイ・ヴャジミキン よし、後で投稿しよう。 はい、できます、私はちょうど私が一度に見ることができないと言いました。 MrBobr1 2020.05.11 07:59 #17796 mytarmailS: 高精度は70%ではない 冗談でしょう?70%は非常に高い入力精度です。損切りに手をこまねいてトレードしていたら、ずっと高い成績は望めません。そして95%は、ファンタジーの域を出ないものです。私は今、興味本位でオーバークロックの預託の案件を数えてみました。というわけで、初挑戦で42件の取引を行い、そのうち6件が負けでした。2回目の試行では67回の取引が行われ、そのうち10回が負けとなった。そのため、このように一見控えめな入力精度でも、アカウントは10倍に増えました。言い忘れていましたが、+1点取って、-200点負けるような状況は、考えていません。もちろん、95%の入力精度を実現することも可能です。 Farkhat Guzairov 2020.05.11 08:59 #17797 MrBobr1 です。 1pip取って、-200pip失うようなところは、考えていません。確かに95%の入力精度を実現することは可能です。 1を取ると200ピップを与えるために、まず最初に私のために許容されていない、主にないブローカーは、長い時間のためのそのようなモードで自分自身を許可しないため、連続利益の割合はあなたが持っているとしてでなければなりません"それらの10の67"、個人的に私はそのような結果を達成したことがない。もし、あなたが彼らから利益を得ることを知らなければ、あなたの利益のために何かをしなければならないでしょう。すべての取引は、システムが95%以上の精度を予測したときに行われた。 すぐに言いたいのは、手口は100%の確率で市場に入ることを予測できますが、実際に何が起こるか、どうなるか、これは手口の仕事ではなく、数学的統計に加えて、言葉の環境の要因も考慮するAIの仕事だと思うのです。 Aleksey Vyazmikin 2020.05.11 09:47 #17798 mytarmailS: ええ、どうぞ。ただ、すぐに見るのは無理だと思いますよ。 なるほど。アーカイブには学習用サンプルと学習済みモデルのテスト用サンプルの2つのファイルがあり、どちらにも予測変数が必要です。 このような特殊性は、それぞれの新しい線が 新しいバーであることです。読み取りはバーのオープニングの瞬間に行われ、読み取り自体は前のバーのものなので、もし予測器がゼロバーのオープニングデータを使用するならば、次のバーからこの読み取りを取ればいいのです。 ファイル: CB_ZZ_M1.zip 2957 kb mytarmailS 2020.05.11 10:40 #17799 アレクセイ・ヴャジミキン OKです。アーカイブには、学習用のサンプルと学習済みモデルのテスト用のサンプルの2つのファイルがあり、どちらにも予測変数が必要です。 このような特殊性は、それぞれの新しい線が 新しいバーであることです - 読み取りはバーのオープニングの瞬間に取られ、読み取り自体は前のバーのものですので、予測はゼロバーからオープニングデータを使用している場合、次のバーからこの指標を取ります。 まあ、ターゲットのも付けてくれればいいのに、そうでないと比較にならないですからね。 また、なぜ日付を削除したのですか? 400,000,000行のモデルをトレーニングしたのですか? UPD====================================================== データを操作しようとすると、100の属性を作るだけで、100*400 000の行列になり、その行列をRAMに保存して、同時にモデルを訓練する必要があるのですが、ラップトップはただ試しているだけで死んでしまいます......。 このような大きなデータセットを作成するのに1分も必要ない、5分でも1時間でも十分だ。データを歪めないように、日付と時間のOHLCV形式を使い、モデルを訓練したターゲットを追加して、後で誤差を比較できるようにすること。 Aleksey Vyazmikin 2020.05.11 13:16 #17800 mytarmailS: まあ、ターゲットも付けてくれればいいのですが、そうでなければどうやって比較すればいいのでしょう。また、なぜ日付を消したのですか?400,000,000本って、マジですか? 400,000本分のモデルを訓練したんですか? 日付を削除したわけではなく、ファイルの容量を確保するために保存しなかっただけです。 はい、2年以上にわたって分単位のトレーニングを行いました。 mytarmailS: UPD======================================================申し訳ありませんが、私の古いラップトップはちょうど私を台無しに...私はちょうど私が唯一の100の属性を行う場合、データを操作しようとすると、それは行列100 * 400 000を判明し、メモリ内のような行列を維持しても同時にモデルを訓練すべきである、ノートパソコンはちょうど試みて死ぬ... 予測変数は最初から順次ファイルに保存しておき、学習時にロードするだけではだめなのでしょうか? 現在、1ギガバイト以下の学習用サンプルを持っていますが、CatBoostは 簡単に対応できますし、Rで遺伝木を構築するリスクもありません...。 mytarmailS: 最初に5万件くらいのデータセットを作ってみて、1分もかからず、5分でも1時間でも十分です。 データを歪めず、本来と同じフォーマットで与え、日付 時間 OHLCV、ターゲット、モデルを学習させ、後で誤差を比較できます。 5万は固体のような観測では少なすぎる、ZZセグメント300くらいにしかならない。主なプレディクターは分単位で研ぎ澄まし、上位TFからのプレディクターもありますが、それだけでは足りないかもしれませんね。 ボリュームを使っているのか、ボリュームがあるだけで便利なのか? 予測変数の調整にZZパラメータは必要ないのでは? データの歪みについて理解できません。ゼロバーのバーデータをすべて知るには、データをシフトする必要があるのでしょうか?その場合、ゼロバーを覗くことはないのでしょうか? 1...177317741775177617771778177917801781178217831784178517861787...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
研修に参加しなかったという報告。
それなら、もっといい結果が出るはずです。
高精度は70%ではない
95%を下回らないように自分自身で判断した。
戦略・・・MOの後も、やはり全体の戦略が必要なのですね。MOの目的は、最終的にトレード(ロング/ショート)するかどうかのアドバイスをアウトプットすることだと思っていました。
まあ、このターゲットは私のものではないので、別のターゲットに対する予測因子の有効性を見る機会として、私にとっては興味深いものです。
95%以上という自分の中での判断に同意。
これはターゲットによって大きく異なりますが、私のメインターゲットにとっては、トレンドで動くので、非常に良い結果だと思います。
降ろしなさいが、今日は見ません、すみません、他の用事の最中です。
わかった、後でね。
よし、後で投稿しよう。
はい、できます、私はちょうど私が一度に見ることができないと言いました。
高精度は70%ではない
冗談でしょう?70%は非常に高い入力精度です。損切りに手をこまねいてトレードしていたら、ずっと高い成績は望めません。そして95%は、ファンタジーの域を出ないものです。私は今、興味本位でオーバークロックの預託の案件を数えてみました。というわけで、初挑戦で42件の取引を行い、そのうち6件が負けでした。2回目の試行では67回の取引が行われ、そのうち10回が負けとなった。そのため、このように一見控えめな入力精度でも、アカウントは10倍に増えました。言い忘れていましたが、+1点取って、-200点負けるような状況は、考えていません。もちろん、95%の入力精度を実現することも可能です。
1pip取って、-200pip失うようなところは、考えていません。確かに95%の入力精度を実現することは可能です。
1を取ると200ピップを与えるために、まず最初に私のために許容されていない、主にないブローカーは、長い時間のためのそのようなモードで自分自身を許可しないため、連続利益の割合はあなたが持っているとしてでなければなりません"それらの10の67"、個人的に私はそのような結果を達成したことがない。もし、あなたが彼らから利益を得ることを知らなければ、あなたの利益のために何かをしなければならないでしょう。すべての取引は、システムが95%以上の精度を予測したときに行われた。
すぐに言いたいのは、手口は100%の確率で市場に入ることを予測できますが、実際に何が起こるか、どうなるか、これは手口の仕事ではなく、数学的統計に加えて、言葉の環境の要因も考慮するAIの仕事だと思うのです。
ええ、どうぞ。ただ、すぐに見るのは無理だと思いますよ。
なるほど。アーカイブには学習用サンプルと学習済みモデルのテスト用サンプルの2つのファイルがあり、どちらにも予測変数が必要です。
このような特殊性は、それぞれの新しい線が 新しいバーであることです。読み取りはバーのオープニングの瞬間に行われ、読み取り自体は前のバーのものなので、もし予測器がゼロバーのオープニングデータを使用するならば、次のバーからこの読み取りを取ればいいのです。
OKです。アーカイブには、学習用のサンプルと学習済みモデルのテスト用のサンプルの2つのファイルがあり、どちらにも予測変数が必要です。
このような特殊性は、それぞれの新しい線が 新しいバーであることです - 読み取りはバーのオープニングの瞬間に取られ、読み取り自体は前のバーのものですので、予測はゼロバーからオープニングデータを使用している場合、次のバーからこの指標を取ります。
まあ、ターゲットのも付けてくれればいいのに、そうでないと比較にならないですからね。
また、なぜ日付を削除したのですか?
400,000,000行のモデルをトレーニングしたのですか?
UPD======================================================
データを操作しようとすると、100の属性を作るだけで、100*400 000の行列になり、その行列をRAMに保存して、同時にモデルを訓練する必要があるのですが、ラップトップはただ試しているだけで死んでしまいます......。
このような大きなデータセットを作成するのに1分も必要ない、5分でも1時間でも十分だ。データを歪めないように、日付と時間のOHLCV形式を使い、モデルを訓練したターゲットを追加して、後で誤差を比較できるようにすること。
まあ、ターゲットも付けてくれればいいのですが、そうでなければどうやって比較すればいいのでしょう。
また、なぜ日付を消したのですか?
400,000,000本って、マジですか? 400,000本分のモデルを訓練したんですか?
日付を削除したわけではなく、ファイルの容量を確保するために保存しなかっただけです。
はい、2年以上にわたって分単位のトレーニングを行いました。
UPD======================================================
申し訳ありませんが、私の古いラップトップはちょうど私を台無しに...私はちょうど私が唯一の100の属性を行う場合、データを操作しようとすると、それは行列100 * 400 000を判明し、メモリ内のような行列を維持しても同時にモデルを訓練すべきである、ノートパソコンはちょうど試みて死ぬ...
予測変数は最初から順次ファイルに保存しておき、学習時にロードするだけではだめなのでしょうか?
現在、1ギガバイト以下の学習用サンプルを持っていますが、CatBoostは 簡単に対応できますし、Rで遺伝木を構築するリスクもありません...。
最初に5万件くらいのデータセットを作ってみて、1分もかからず、5分でも1時間でも十分です。 データを歪めず、本来と同じフォーマットで与え、日付 時間 OHLCV、ターゲット、モデルを学習させ、後で誤差を比較できます。
5万は固体のような観測では少なすぎる、ZZセグメント300くらいにしかならない。主なプレディクターは分単位で研ぎ澄まし、上位TFからのプレディクターもありますが、それだけでは足りないかもしれませんね。
ボリュームを使っているのか、ボリュームがあるだけで便利なのか?
予測変数の調整にZZパラメータは必要ないのでは?
データの歪みについて理解できません。ゼロバーのバーデータをすべて知るには、データをシフトする必要があるのでしょうか?その場合、ゼロバーを覗くことはないのでしょうか?