トレーディングにおけるニューラルネットワークの活用 - ページ 14

 
TheXpert:
ああ、それは簡単なことです。学習し始めたら、それで十分です。


それでは、新しいネットワークのデモンストレーションを行います。すべてのテストと。
 
TheXpert:
あ、簡単ですね。学習し始めたら、それで十分です。

レシェトフのペルセプトロンも何かを学ぶが、明らかに足りない......。

私の考えでは、十分性を語るためには、OVで、訓練期間(入力例数)に応じて、訓練結果を分析することを何とか学ばなければならず、OOSだけでは、ここでは役に立ちません。私はずっとここでつまずいています。真実は近くにあるような気がするのですが、つかめないのです。

 
Figar0:

ずっとこの場所でつまずいている。真実はすぐ近くにあるような気がするのだが、掴みどころがない。

まあダンナ、それは初歩的なことなんだけどね。
 
Figar0:

レシェトフのペルセプトロンも何かを学ぶが、明らかに足りない......。

私の考えでは、十分性を語るためには、OV上で、訓練期間(入力例数)に応じて、訓練結果を分析することを何とか学ばなければならず、OOSだけでは、ここでの助けにはならないと思います。ずっとここでつまずいています。真実は近くにあるような気がするのですが、つかめないのです。


把握したようです。大きなサンプルで最適化する。ドローダウンが純利益より低くなるようにするんだ。そして、サンプルを減らして、最後の絞り込みニューロンを追加します。間違っているかもしれません。一例を掲載します。
 

私はこれまで、いくつかのアプローチで研究を行ってきました。

1)ネットワークに左の入力、例えば太陽の天気の日変化など、うまく突発的に与え、例えば1ヶ月間この入力で取引するように教える。ここでは、純粋な形のネットが、記憶・追従能力を発揮するはずです。そして、通常の入力を行った。トレーニングの成果の違いを何とか分析しようとしたのです。

2)学習サンプルのサイズを大きくした場合の学習結果の分析を試みました。ほとんどすべてのネットワークと構成で、ある瞬間までは結果の増加が見られるが、その後は通常停滞が起こり、さらに入力サンプル数を増やすと結果が悪くなることがある。

この研究結果をもとに、ネットワークの充足度と学習期間について、何か関係があるのかどうか、結論を出そうとしています。 そのために、このスレッドに入りました。もしかしたら、誰かが何か提案してくれるかもしれません。

 
二乗平均平方根の累積誤差があります。異なるネットワークで比較することができます。そして、それが何かを全く学習していないかどうかを判断するために使用します。
 
TheXpert:
二乗平均平方根の累積誤差があります。異なるネットワークで比較することができます。そして、それが何かを全く学習していないかどうかを判断するために使用します。

何のエラー?
 
grell:
何の間違い?
もちろん、出口です。
 
TheXpert:
もちろん、出口です。


また、出力が予測できないとしたら、どのように?
 
grell:

ちょっと手探り状態でした。大きなサンプルで最適化する。ドローダウンが純利益より低くなるようにするんだ。そして、サンプルを減らして、最後の絞り込みニューロンを追加します。間違っているかもしれません。一例を掲載します。
例えば、Expert Advisorがトレーニング期間中にどのように動作するのか、成功したと思うのか、正確に見ることができたらいいと思います。