トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2478

 
Maxim Dmitrievsky#:
バランス調整というより、標準化の効果があると思います。さらに、分布からサンプリングすることで、オーバートレーニングの防止にもつながります。

サンプル数が多いほど規格に近いということでよかったでしょうか?

 
iwelimorn#:

サンプル数が多ければ多いほど、標識が標準化に近づくということでよかったのでしょうか?

最適なサンプルサイズを言うのは難しいのですが、おそらくガウス混合分布の成分数に依存するのでしょう。密度推定と生成にガウシアンを用いるため、ノイズの多いデータセットでサンプリングが大きすぎると、非常に類似したサンプルが生成される、つまり、頻繁に繰り返されるサンプルの発生確率が高くなるのです。したがって、イエスよりもノーの方が可能性が高い。
GMMは大規模なデータセットではうまく機能しないという話をどこかで読んだことがあるのですが。
 
Maxim Dmitrievsky#:
最適なサンプルサイズを言うのは難しいです。おそらくガウス混合成分の数に依存するのでしょう。密度推定と生成にガウシアンを用いるため、ノイズの多いデータセットでサンプルが大きすぎると、非常に類似したサンプルが生成される、つまり、頻繁に繰り返されるサンプルの発生確率が高くなります。だから、イエスというよりノーの可能性が高い。

ありがとうございます。私が言いたかったのは、より多くのサンプルを作成することで、より標準化されたサンプルが得られる可能性があるかということです。

 
iwelimorn#:

ありがとうございます。私が言いたかったのは、より多くのサンプルを作成することで、より標準化されたサンプルが得られる可能性があるかということです。

はい、もちろんです
 
iwelimorn#:

ありがとうございます。私が言いたかったのは、より多くのサンプルを作成することで、より標準化されたサンプルが得られる可能性があるかということです。

重要なのは、サンプルを生成するときにできるだけ矛盾がないようにすることで、そうでなければトレーニングの意味がない。同じ入力ベクトルの場合、ターゲットの値は1であり、同じ入力ベクトルの場合、ターゲットの値は0であるとします。このとき、アルゴリズムはどうすればよいでしょうか?どう反応すればいいのか?ですから、トレーニングサンプルを増やすことは、矛盾の増加につながらない場合にのみ意味があるのです。哲学的な問いかけです。例えば、M5で3ヶ月分のマーケットを100のトレーニングサンプルでカバーします。一例として...
 
ところで、我々の仲間には、やはり女性がいますね。それは本当に稀なケースで、例外と言えるかもしれません...。:-)
 
Mihail Marchukajtes#:
サンプルを形成する際に、できるだけ矛盾がないようにすることが重要で、そうでなければトレーニングは無駄になります。あるケースでは入力ベクトルが同じでターゲットは値1であり、次のケースでは入力ベクトルが同じでターゲットは値0 であると仮定する。どう反応すればいいのか?つまり、トレーニングサンプルを増やすことは、矛盾の増加につながらない場合にのみ意味があるのです。哲学的な問いかけです。例えば、M5で3ヶ月分のマーケットを100のトレーニングサンプルでカバーします。一例として...

自分が何を書いたか理解してるのか?

 

Mihail Marchukajtes#:
サンプルを形成する際に、できるだけ矛盾がないようにすることが重要で、そうでなければトレーニングは無駄になります。あるケースでは入力ベクトルが同じでターゲットは値1であり、次のケースでは入力ベクトルが同じでターゲットは値0であると仮定する。どう反応すればいいのか?つまり、トレーニングサンプルを増やすことは、矛盾の増加につながらない場合にのみ意味があるのです。哲学的な問いかけです。例えば、M5で3ヶ月分のマーケットを100のトレーニングサンプルでカバーします。一例として...

同じ例が複数の状態を記述している場合、利用可能なアルゴリズムで分類すると、1/nに近い確率になります(nは状態の数)。

しかし、絶対に似ている例というのはなく、ある程度似ている。問題は、この「類似性」をどのように検出するかである。


M5で3ヶ月で100例...不思議なんですが、オリジナルサンプルの中からルールに従ってサンプルを選び それをトレードに使っているのでしょうか?

 
iwelimorn#:

同じ例が複数の状態を記述している場合、どのアルゴリズムで分類しても、1/n(nは状態の数)に近い確率を得ることができますね。

しかし、絶対に似ている例というのはなく、ある程度似ている。問題は、この「類似性」をどのように検出するかである。


M5で3ヶ月で100例...不思議なんですが、オリジナルサンプルの中からルールに従ってサンプルを選び それをトレードに使っているのでしょうか?

学習サンプルの独立変数の同じセットが1つの従属変数にのみ対応する場合,それは決定論的系列である.

そこには分類すべきものはなく、予測誤差は0である。

はい、もう悶絶ものです。

 
Dmytryi Nazarchuk#:

学習サンプルの独立変数の同じセットが1つの従属変数にのみ対応する場合,それは決定論的系列である.

そこには分類すべきものはなく、予測誤差は0である。

そう、これは苦行なのだ。

ありがとうございます。悶々としているのではなく、私の基礎知識が不足しているのかもしれません。

複数の独立変数のセットが同じ変数に対応している場合もそうなのでしょうか?

理由: