トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2278

 
mytarmailS:

私の記憶では、TCはしばらく働いていて、死んだと思うのですが・・・。

通常の意味での濾過(ウィザード、フィルターなど)は常に遅れ、市場での遅れは流出...。

別のパラダイムを(遅滞なく)構築すべきです、例えばレベルなど...。

同じオーバーフィットなのに、ディレイがどうしたっていうんだ?

あたまからさがす

 
mytarmailS:

何を待っているんだ?

#

こんなアイデアもあるんだ......ワゴンとワゴン、行列ができてる。

このファイルでは、2本のマイクの例を示していますが、同じ目的で複数の通貨を使用する別のアイデアもあります。

また、ブラインド適応についても調べる必要がありますね。



損失関数の可視化

 
マキシム・ドミトリエフスキー

同じオーバーフィットなんだから、教え方がどうのこうのって関係ないでしょ?

ファーストのパターンを探さなければならない。

ジンバルで過給ってなんだよw 俺の言ってることちゃんと読んでるのか?

 
elibrarius:

グラフを圧縮・解凍するようなことはアルグリーブにあるのでしょうか?

内挿については、いくつか見受けられます。どれが一番効果的なんだろう?そして、どちらが速いのか?

もう、あきらめました...。

グラフを圧縮・解凍するものを発見しました。次はどうする?どのように使用するのですか?

1)圧縮された、圧縮されていない12個の現在の状況を認識する?じゃあ、何?平均に?結局、50%が買い、50%が売りということなのかもしれません。

2)トレーニングでは、何か使い道があるのでしょうか?トレーニング用のアレイのサイズを 小さくする?

 
elibrarius:

その構想は頓挫してしまったが...。

私には効き目がありませんでした...

を拡大し、×10回ほど絞り込みました。

ごみ


不変量と戦わずに次元を縮めるという方法もあります。

または無視する)

 
mytarmailS:

マシュカのどこがオーバーフィットなんだ? 俺の書いた文章をちゃんと読んでるのか?

頭を使う)

あなたのニューラルネットワークのアプローチは、単純なオーバーフィットです。
 
mytarmailS:

私には効果がなかった...。

拡大-10倍に絞られる

ごみ


不変量と戦わずに次元を縮めるという方法もあります。

またはスキップする)

10倍は多すぎる。

50%以下が必要だと思います。例えば、1.1倍、1.3倍、1.5倍と試してみてください。


既成のコードがあり、乗数を変更するだけでよい場合は、以下のオプションをチェックしてください。

 
mytarmailS:

私には効果がなかった...。

拡大-10倍に絞られる

ごみ


不変量と戦わずに次元を縮めるという方法もあります。

または無視する)

1の項目は試されましたか?つまり、予測する際に、スケーリングされた現在の状況のいくつかのバリエーションをモデルに投入しているのでしょうか?
 
マキシム・ドミトリエフスキー

脳をオンにする)

MA期間の上書きというニューラルネットワークのアプローチは、単純なオーバーフィットです。

消していない...。

ネットワークがウェービングの周期をコントロールするのですが、周期は2〜500だと思います......。

2〜500の 周期は2〜500の ラグに等しい

ネットワークがオーバーフィットしているかどうかは問題ではないのですが...。ポイントは、周期と周期==ラグを制御することです。

elibrarius:
ステップ1は試されましたか?例えば、予測をする際に、現状をスケーリングしたバリエーションを複数、モデルに投入していますか?

 

このSPADEアルゴリズムには 非常に興味があるのですが、まだどうアプローチしていいかわからず、半年ほど前から頭の中をグルグルしています...。

そのためにデータをどのように前処理すればいいのか、ターゲットもそうだし、非常にリソースを食うし、「ビッグデータ」アルゴリズムでないことは間違いないのですが...。

しかし、データマイニング市場には最適なアルゴリズムと言えそうだ。

理由: