トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1885

 
Evgeny Dyuka:
そう、すべてを経験しないと、だめなんです。
パラメータが結果にどのように影響するかを理解するのに適しているので、ぜひプレイしてみて ください。

ああ、見たよ。自分のものを入れられないのが残念だね。

手始めにlerning_rateを下げてみてください。


オーバートレーニングの成果がよくわかる写真です。


 
マキシム・ドミトリエフスキー

クラスターを取引する、ちょうど私が言ったように

そして、新しいデータでの誤差は0.82%です

モールを作ってチェックしろと言ったのを聞いていればよかったのに、オプティマイザーとかパーサーとか、くだらないものを作ってしまった。

 

通常のネットワークは、lstmより良いようです。そして、reluよりtanhの方が良い。

ネットワークのパラメータはどこでも同じです。データは+-1の範囲に正規化されています。

左側はトレーンの誤差とエポックからの検証結果。中央はトレイに載せた正味の出力とベンチマーク。右側は、検証結果とベンチマークでの正味の出力です。

タン

タン だんがんれっしゃ タンバリン

リラ

リラ リールトレイン しんゆうちゅう

エルストーム

育て上げる ヴァル

0.5からなくなるには、lstmに時間をかけなければなりませんでした。しかも、結果はあまり良くなく、パラメータウィンドウも非常に狭かった。しかも、トレーニングにかかった時間は10分程度。しかし、ここではネットワークは1分より少し長い時間練習していたのです。lstmは訓練に時間がかかると言われていますが、この例では、ネットは同じ時間で訓練しました(upd yet lstmは訓練に時間がかかる)。

 
ロールシャッハ

通常のネットワークは、lstmより良いようです。そして、reluよりtanhの方が良い。

ネットワークの設定はどこでも同じです。

タン

リラ

エルストーム

0.5からずっとlstmで揺さぶっていたのですが、それがなくなりました。しかも、結果はあまり良くなく、パラメータウィンドウも非常に狭かった。しかも、トレーニングにかかった時間は10分程度。しかし、ここではネットワークは1分より少し長い時間練習していたのです。lstmはトレーニングに時間がかかると言われていますが、この例ではグリッドのトレーニングは同じ時間で行われます。

は、通常のものは Sequential Denseですか?
 
ロールシャッハ
ある種の活性化は負の値では機能しない、そのことには触れなかったのですか?
 

訓練を受けていない原始的なNSを持っています。トレーニングの意味がわからない。 決して誰かをディスっているわけではないんです。

パーセントの棒グラフは、将来起こりうる動きの方向性を示しています。

正しい情報をネットワークに送り込むことが重要です。

屑に餌を与えたらどんなパッケージでも、結果はカオスになる。

青が上、ニンジンが下というのがはっきりすればいいのですが。

d462

 
Evgeny Dyuka:
Sequential Denseは 正常 ですか?

はい

Evgeny Dyuka:
ある種の活性化は負の値では機能しませんが、そのことには触れていないのですか?

tanh +-1, relu 0-inf
アップは例を見て、reluはやはり平均0になる。

 
Uladzimir Izerski:

訓練を受けていない原始的なNSを持っています。トレーニングの意味がわからない。 決して誰かをディスっているわけではないんです。

パーセントの棒グラフは、将来起こりうる動きの方向性を示しています。

正しい情報をネットワークに送り込むことが重要です。

屑に餌を与えたらどんなパッケージでも、結果はカオスになる。

青が上、ニンジンが下というのがはっきりすればいいのですが。


m5ショート、d1買い、他は同意。

 
ロールシャッハ

m5ショート、d1買い、他の方と同意見です。

1時間の間に変化があった。

d245

 
mytarmailS:

クラスターを取引する、私が言ったように。

と、新しいデータでの誤差が0.82%であるにもかかわらず。

だから、モールを作って一度見てみろと言ったのを聞いていればよかったのに、オプティマイザーやパーサーなどのガラクタがいくつか見られた

ガラクタではなく、お菓子...。

時計仕掛けのようにすべてがうまくいくはずです。

が、公の場で議論するのはやめましょう。なぜなら、このような独創的な発見の後、私のポケットに現金が流れ込んでくることを想像したからです。誰とも共有したくない。

理由: