トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 393 1...386387388389390391392393394395396397398399400...3399 新しいコメント Forester 2017.06.10 16:07 #3921 ミハイル・マルキュカイツ みなさん、こんにちは!!!!このスレッドが枯れずに生きているのが嬉しいので、一般の方に質問させてください。学習用のデータセットがあるのですが、残念ながら大きくなりすぎてしまい、学習に時間がかかりすぎています。誰か自分の経験でモデルを作って、一緒に見てくれないかな!!!!入力を残すようにしてください(0から順に、0が1列目)。0,4,50,53,59,61,64,92,98,101,104, ファイル: normalized_cleared.txt 59 kb Mihail Marchukajtes 2017.06.10 16:31 #3922 データセットの切り捨て部分を計算することができました。サンプル外のネットワークの結果はこちらですが、モデルを完全にミラーリングする必要がありました。これは05.29の作品ですが、なかなかいい出来だと思います。 Mihail Marchukajtes 2017.06.10 16:35 #3923 エリブラリウス入力を残してみてください(0から順番に、0が1列目)。0,4,50,53,59,61,64,92,98,101,104, オプティマイザーの利点は、不要なカラムを削除してくれることです。だから、時間がかかるんです。しかし、今、私は完全なデータセットを最適化しようとしますが、あなたの勧告と、その後、サンプル外の結果がどうなるかを見てください。 Mihail Marchukajtes 2017.06.10 16:40 #3924 ミハイル・マルキュカイツ オプティマイザーの利点は、不要なカラムを削除してくれることです。だから、計算に時間がかかるんです。しかし、今、私はあなたの勧告を考慮して、フルデータセットを最適化しようとし、その後、サンプル外の結果がどうなるかを見る、大丈夫ですか? よくやった!!!トレーニングを開始しました。列がかなり少ないことを考えると、すぐにカウントされると思いますので、結果を投稿します :-)そうなんです、最初のトレーニングでは汎化率が55%だったんです。 Mihail Marchukajtes 2017.06.10 16:56 #3925 不思議なことに、これらの入力で、モデルも反転させる必要があり、同じ領域で次のような持分を得ることができるのです。少し悪くなっていますが、まだ応用は可能です。オプティマイザーでデータセット全体を実行できればいいのですが。そうすれば、より多くのカラムが選択され、一般化のレベルも高くなり、それ故に非サンプリング領域のネットワークの質も高くなったと思うのですが...。 Forester 2017.06.10 17:00 #3926 ミハイル・マルキュカイツ よくやった!!!トレーニングを開始しました。列の数が大幅に減ったので、すぐにカウントされると思います。結果を投稿します :-)そうなんです、最初のトレーニングでは汎化率が55%だったんです。 一般化率55%って何? 通常のMLPでは11-5-1となります。 学習時の平均誤差(60.0%) plot =0.057 (5.7%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2 検証時の平均誤差(20.0%) plot =0.038 (3.8%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2 テスト時の平均誤差 (20.0%) plot =0.023 (2.3%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2 Mihail Marchukajtes 2017.06.10 17:08 #3927 elibrarius: 一般化率55%とは? 学習時の平均誤差 (60.0%) plot =0.057 (5.7%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2 バリデーション時の平均誤差 (20.)nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2 テスト時の平均誤差 (20.0%) section =0.023 (2.3%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2 何を答えたらいいのかもわからない。報告書から例を挙げるしかない。最適化の 結果はこのようになります。どう解釈するかは人それぞれですが、最適化が終わると、次のようになります。* 汎化能力感度:55.12820512820513%。* 汎化能力の特異性:55.5045871559633%。* 一般化能力: 55.309734513274336%。* TruePositives: 129* 偽陽性:105件* TrueNegative: 121* FalseNegatives: 97* 統計処理されたサンプルのパターン数:452個赤で示したのは、汎化能力の総合結果です。1つ目は1を当てる割合、2つ目は0を当てる割合、3つ目は合計です。 Forester 2017.06.10 17:17 #3928 Mihail Marchukajtes: なんて言ったらいいのかわからない。報告書から一例を挙げるとすれば。最適化の結果は このようになり、どのようにでも解釈できますが、最適化が終了すると、次のようになります。* 汎化能力感度:55.12820512820513%。* 汎化能力の特異性:55.5045871559633%。* 一般化能力: 55.309734513274336%。* TruePositives: 129* 偽陽性:105件* TrueNegative: 121* FalseNegatives: 97* 統計処理されたサンプルのパターン数:452個赤で示したのは、汎化能力の総合結果です。1つ目はシングルを当てる割合、2つ目はゼロを当てる割合、3つ目は合計を当てる割合です。 MLPって95%くらい当ててるよね...。バイクの作り方を間違えているのでは)悪気はないんです。 私も自分のバイクを作っていますが、何十年も実績のあるMLP(これは、彼らが言うように時代遅れで、もっとクールなものが必要です)をベースにしています。 だから、バイクには大賛成です。もしかしたら、あなたのコードはどこかに欠陥のあるロジックを持っているかもしれませんね?私のところでも、さまざまなバリエーションをテストしているうちに、すでにいくつか見つかりました。このスレッドの最初の投稿から問題を解決することを含む。しかし、この同じフィルターが、あなたの問題で不要なものをカットし、その中で必要なものをカットしている((。そこで、入力の重みを使ってふるいにかけ、フルデータでフィールドランする必要があると思います。 Mihail Marchukajtes 2017.06.10 17:26 #3929 エリブラリウス MLPって95%くらい当ててるよね...。バイクの作り方を間違えているのでは)悪気はないんです。 私も自分のバイクを作っていますが、何十年も実績のあるMLP(時代遅れで、もっとクールなものが必要だと言われています)をベースにしています。 だからバイクには賛成です。もしかして、コードのどこかにロジックエラーがあるのではありませんか?私のところでも、さまざまなバリエーションを試しながら、すでにいくつか発見しています。 私はプログラマーではないということです。このオプティマイザは私が書いたものではなく、私が使っているだけですが、とにかく指定した入力は55%の汎化率を与え、推測よりも優れています。したがって、正の利益を持つサンプル以外の結果を見ることができます。今、唯一止まっているのは、モデルが鏡面でないと得をしないし、モデルがまっすぐだと損をしてしまうということです...。しかし、すべての入力に対してオプティマイザーを実行すると、モデルはより複雑になり、より多くの入力を選択することになると思います。そして理論的には、そのようなモデルはより良く、より長く機能するはずです。しかし、フルデータセットでオプティマイザーを実行することはできません。読み込むのに1ヶ月はかかると思います。ですから、私の希望としては、GPUでオプティマイザーを動かしてみて、それから考えたいと思います。 Forester 2017.06.10 17:32 #3930 ミハイル・マルキュカイツ プログラミングをしないことです。このオプティマイザは私が書いたものではなく、私が使っているだけですが、とにかく指定した入力は55パーセントの汎化率を与え、推測よりも優れていますし、それゆえサンプル外の結果が正の利益となります。今、私を止めているのは、モデルが鏡面であればうまくいき、モデルが直線であれば失敗することです。しかし、すべての入力に対してオプティマイザーを実行すると、モデルはより複雑になり、より多くの入力を選択することになると思います。そして理論的には、そのようなモデルはより良く、より長く機能するはずです。しかし、フルデータセットでオプティマイザーを実行することはできません。読み込むのに1ヶ月はかかると思います。ですから、私の希望としては、GPUでオプティマイザーを動かしてみて、それから考えたいと思います。 1ヶ月間何かを始めるなら無停電電源装置を使いましょう、私は2計算週ぐらいで電気を切りました))。 また、GPUを待つのではなく、コードを書き直すのに時間がかかるかもしれませんし、作者がやっていなければ、ほとんど誰もその作業を終わらせてくれません。 1...386387388389390391392393394395396397398399400...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
みなさん、こんにちは!!!!このスレッドが枯れずに生きているのが嬉しいので、一般の方に質問させてください。学習用のデータセットがあるのですが、残念ながら大きくなりすぎてしまい、学習に時間がかかりすぎています。誰か自分の経験でモデルを作って、一緒に見てくれないかな!!!!
入力を残すようにしてください(0から順に、0が1列目)。
0,4,50,53,59,61,64,92,98,101,104,
データセットの切り捨て部分を計算することができました。サンプル外のネットワークの結果はこちらですが、モデルを完全にミラーリングする必要がありました。
これは05.29の作品ですが、なかなかいい出来だと思います。
入力を残してみてください(0から順番に、0が1列目)。
0,4,50,53,59,61,64,92,98,101,104,
オプティマイザーの利点は、不要なカラムを削除してくれることです。だから、時間がかかるんです。しかし、今、私は完全なデータセットを最適化しようとしますが、あなたの勧告と、その後、サンプル外の結果がどうなるかを見てください。
オプティマイザーの利点は、不要なカラムを削除してくれることです。だから、計算に時間がかかるんです。しかし、今、私はあなたの勧告を考慮して、フルデータセットを最適化しようとし、その後、サンプル外の結果がどうなるかを見る、大丈夫ですか?
よくやった!!!トレーニングを開始しました。列がかなり少ないことを考えると、すぐにカウントされると思いますので、結果を投稿します :-)
そうなんです、最初のトレーニングでは汎化率が55%だったんです。
不思議なことに、これらの入力で、モデルも反転させる必要があり、同じ領域で次のような持分を得ることができるのです。
少し悪くなっていますが、まだ応用は可能です。
オプティマイザーでデータセット全体を実行できればいいのですが。そうすれば、より多くのカラムが選択され、一般化のレベルも高くなり、それ故に非サンプリング領域のネットワークの質も高くなったと思うのですが...。
よくやった!!!トレーニングを開始しました。列の数が大幅に減ったので、すぐにカウントされると思います。結果を投稿します :-)
そうなんです、最初のトレーニングでは汎化率が55%だったんです。
通常のMLPでは11-5-1となります。
学習時の平均誤差(60.0%) plot =0.057 (5.7%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
検証時の平均誤差(20.0%) plot =0.038 (3.8%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
テスト時の平均誤差 (20.0%) plot =0.023 (2.3%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
一般化率55%とは?
学習時の平均誤差 (60.0%) plot =0.057 (5.7%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
バリデーション時の平均誤差 (20.)nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
テスト時の平均誤差 (20.0%) section =0.023 (2.3%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
何を答えたらいいのかもわからない。報告書から例を挙げるしかない。最適化の 結果はこのようになります。どう解釈するかは人それぞれですが、最適化が終わると、次のようになります。
* 汎化能力感度:55.12820512820513%。
* 汎化能力の特異性:55.5045871559633%。
* 一般化能力: 55.309734513274336%。
* TruePositives: 129
* 偽陽性:105件
* TrueNegative: 121
* FalseNegatives: 97
* 統計処理されたサンプルのパターン数:452個
赤で示したのは、汎化能力の総合結果です。1つ目は1を当てる割合、2つ目は0を当てる割合、3つ目は合計です。
なんて言ったらいいのかわからない。報告書から一例を挙げるとすれば。最適化の結果は このようになり、どのようにでも解釈できますが、最適化が終了すると、次のようになります。
* 汎化能力感度:55.12820512820513%。
* 汎化能力の特異性:55.5045871559633%。
* 一般化能力: 55.309734513274336%。
* TruePositives: 129
* 偽陽性:105件
* TrueNegative: 121
* FalseNegatives: 97
* 統計処理されたサンプルのパターン数:452個
赤で示したのは、汎化能力の総合結果です。1つ目はシングルを当てる割合、2つ目はゼロを当てる割合、3つ目は合計を当てる割合です。
私も自分のバイクを作っていますが、何十年も実績のあるMLP(これは、彼らが言うように時代遅れで、もっとクールなものが必要です)をベースにしています。 だから、バイクには大賛成です。もしかしたら、あなたのコードはどこかに欠陥のあるロジックを持っているかもしれませんね?私のところでも、さまざまなバリエーションをテストしているうちに、すでにいくつか見つかりました。このスレッドの最初の投稿から問題を解決することを含む。しかし、この同じフィルターが、あなたの問題で不要なものをカットし、その中で必要なものをカットしている((。そこで、入力の重みを使ってふるいにかけ、フルデータでフィールドランする必要があると思います。
MLPって95%くらい当ててるよね...。バイクの作り方を間違えているのでは)悪気はないんです。
私も自分のバイクを作っていますが、何十年も実績のあるMLP(時代遅れで、もっとクールなものが必要だと言われています)をベースにしています。 だからバイクには賛成です。もしかして、コードのどこかにロジックエラーがあるのではありませんか?私のところでも、さまざまなバリエーションを試しながら、すでにいくつか発見しています。
私はプログラマーではないということです。このオプティマイザは私が書いたものではなく、私が使っているだけですが、とにかく指定した入力は55%の汎化率を与え、推測よりも優れています。したがって、正の利益を持つサンプル以外の結果を見ることができます。今、唯一止まっているのは、モデルが鏡面でないと得をしないし、モデルがまっすぐだと損をしてしまうということです...。
しかし、すべての入力に対してオプティマイザーを実行すると、モデルはより複雑になり、より多くの入力を選択することになると思います。そして理論的には、そのようなモデルはより良く、より長く機能するはずです。しかし、フルデータセットでオプティマイザーを実行することはできません。読み込むのに1ヶ月はかかると思います。ですから、私の希望としては、GPUでオプティマイザーを動かしてみて、それから考えたいと思います。
プログラミングをしないことです。このオプティマイザは私が書いたものではなく、私が使っているだけですが、とにかく指定した入力は55パーセントの汎化率を与え、推測よりも優れていますし、それゆえサンプル外の結果が正の利益となります。今、私を止めているのは、モデルが鏡面であればうまくいき、モデルが直線であれば失敗することです。
しかし、すべての入力に対してオプティマイザーを実行すると、モデルはより複雑になり、より多くの入力を選択することになると思います。そして理論的には、そのようなモデルはより良く、より長く機能するはずです。しかし、フルデータセットでオプティマイザーを実行することはできません。読み込むのに1ヶ月はかかると思います。ですから、私の希望としては、GPUでオプティマイザーを動かしてみて、それから考えたいと思います。
また、GPUを待つのではなく、コードを書き直すのに時間がかかるかもしれませんし、作者がやっていなければ、ほとんど誰もその作業を終わらせてくれません。