トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 393

 
ミハイル・マルキュカイツ
みなさん、こんにちは!!!!このスレッドが枯れずに生きているのが嬉しいので、一般の方に質問させてください。学習用のデータセットがあるのですが、残念ながら大きくなりすぎてしまい、学習に時間がかかりすぎています。誰か自分の経験でモデルを作って、一緒に見てくれないかな!!!!

入力を残すようにしてください(0から順に、0が1列目)。

0,4,50,53,59,61,64,92,98,101,104,

ファイル:
 

データセットの切り捨て部分を計算することができました。サンプル外のネットワークの結果はこちらですが、モデルを完全にミラーリングする必要がありました。

これは05.29の作品ですが、なかなかいい出来だと思います。


 
エリブラリウス

入力を残してみてください(0から順番に、0が1列目)。

0,4,50,53,59,61,64,92,98,101,104,


オプティマイザーの利点は、不要なカラムを削除してくれることです。だから、時間がかかるんです。しかし、今、私は完全なデータセットを最適化しようとしますが、あなたの勧告と、その後、サンプル外の結果がどうなるかを見てください。
 
ミハイル・マルキュカイツ

オプティマイザーの利点は、不要なカラムを削除してくれることです。だから、計算に時間がかかるんです。しかし、今、私はあなたの勧告を考慮して、フルデータセットを最適化しようとし、その後、サンプル外の結果がどうなるかを見る、大丈夫ですか?


よくやった!!!トレーニングを開始しました。列がかなり少ないことを考えると、すぐにカウントされると思いますので、結果を投稿します :-)

そうなんです、最初のトレーニングでは汎化率が55%だったんです。

 

不思議なことに、これらの入力で、モデルも反転させる必要があり、同じ領域で次のような持分を得ることができるのです。

少し悪くなっていますが、まだ応用は可能です。

オプティマイザーでデータセット全体を実行できればいいのですが。そうすれば、より多くのカラムが選択され、一般化のレベルも高くなり、それ故に非サンプリング領域のネットワークの質も高くなったと思うのですが...。

 
ミハイル・マルキュカイツ


よくやった!!!トレーニングを開始しました。列の数が大幅に減ったので、すぐにカウントされると思います。結果を投稿します :-)

そうなんです、最初のトレーニングでは汎化率が55%だったんです。

一般化率55%って何?
通常のMLPでは11-5-1となります。
学習時の平均誤差(60.0%) plot =0.057 (5.7%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
検証時の平均誤差(20.0%) plot =0.038 (3.8%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
テスト時の平均誤差 (20.0%) plot =0.023 (2.3%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
 
elibrarius:
一般化率55%とは?

学習時の平均誤差 (60.0%) plot =0.057 (5.7%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
バリデーション時の平均誤差 (20.)nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
テスト時の平均誤差 (20.0%) section =0.023 (2.3%) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2


何を答えたらいいのかもわからない。報告書から例を挙げるしかない。最適化の 結果はこのようになります。どう解釈するかは人それぞれですが、最適化が終わると、次のようになります。

* 汎化能力感度:55.12820512820513%。

* 汎化能力の特異性:55.5045871559633%。

* 一般化能力: 55.309734513274336%。

* TruePositives: 129

* 偽陽性:105件

* TrueNegative: 121

* FalseNegatives: 97

* 統計処理されたサンプルのパターン数:452個

赤で示したのは、汎化能力の総合結果です。1つ目は1を当てる割合、2つ目は0を当てる割合、3つ目は合計です。


 
Mihail Marchukajtes:


なんて言ったらいいのかわからない。報告書から一例を挙げるとすれば。最適化の結果は このようになり、どのようにでも解釈できますが、最適化が終了すると、次のようになります。

* 汎化能力感度:55.12820512820513%。

* 汎化能力の特異性:55.5045871559633%。

* 一般化能力: 55.309734513274336%。

* TruePositives: 129

* 偽陽性:105件

* TrueNegative: 121

* FalseNegatives: 97

* 統計処理されたサンプルのパターン数:452個

赤で示したのは、汎化能力の総合結果です。1つ目はシングルを当てる割合、2つ目はゼロを当てる割合、3つ目は合計を当てる割合です。


MLPって95%くらい当ててるよね...。バイクの作り方を間違えているのでは)悪気はないんです。
私も自分のバイクを作っていますが、何十年も実績のあるMLP(これは、彼らが言うように時代遅れで、もっとクールなものが必要です)をベースにしています。 だから、バイクには大賛成です。もしかしたら、あなたのコードはどこかに欠陥のあるロジックを持っているかもしれませんね?私のところでも、さまざまなバリエーションをテストしているうちに、すでにいくつか見つかりました。このスレッドの最初の投稿から問題を解決することを含む。しかし、この同じフィルターが、あなたの問題で不要なものをカットし、その中で必要なものをカットしている((。そこで、入力の重みを使ってふるいにかけ、フルデータでフィールドランする必要があると思います。
 
エリブラリウス
MLPって95%くらい当ててるよね...。バイクの作り方を間違えているのでは)悪気はないんです。
私も自分のバイクを作っていますが、何十年も実績のあるMLP(時代遅れで、もっとクールなものが必要だと言われています)をベースにしています。 だからバイクには賛成です。もしかして、コードのどこかにロジックエラーがあるのではありませんか?私のところでも、さまざまなバリエーションを試しながら、すでにいくつか発見しています。


私はプログラマーではないということです。このオプティマイザは私が書いたものではなく、私が使っているだけですが、とにかく指定した入力は55%の汎化率を与え、推測よりも優れています。したがって、正の利益を持つサンプル以外の結果を見ることができます。今、唯一止まっているのは、モデルが鏡面でないと得をしないし、モデルがまっすぐだと損をしてしまうということです...。

しかし、すべての入力に対してオプティマイザーを実行すると、モデルはより複雑になり、より多くの入力を選択することになると思います。そして理論的には、そのようなモデルはより良く、より長く機能するはずです。しかし、フルデータセットでオプティマイザーを実行することはできません。読み込むのに1ヶ月はかかると思います。ですから、私の希望としては、GPUでオプティマイザーを動かしてみて、それから考えたいと思います。

 
ミハイル・マルキュカイツ


プログラミングをしないことです。このオプティマイザは私が書いたものではなく、私が使っているだけですが、とにかく指定した入力は55パーセントの汎化率を与え、推測よりも優れていますし、それゆえサンプル外の結果が正の利益となります。今、私を止めているのは、モデルが鏡面であればうまくいき、モデルが直線であれば失敗することです。

しかし、すべての入力に対してオプティマイザーを実行すると、モデルはより複雑になり、より多くの入力を選択することになると思います。そして理論的には、そのようなモデルはより良く、より長く機能するはずです。しかし、フルデータセットでオプティマイザーを実行することはできません。読み込むのに1ヶ月はかかると思います。ですから、私の希望としては、GPUでオプティマイザーを動かしてみて、それから考えたいと思います。

1ヶ月間何かを始めるなら無停電電源装置を使いましょう、私は2計算週ぐらいで電気を切りました))。
また、GPUを待つのではなく、コードを書き直すのに時間がかかるかもしれませんし、作者がやっていなければ、ほとんど誰もその作業を終わらせてくれません。
理由: