ハイブリッドニューラルネットワーク - ページ 20

 
rip >> :

エムエスイー

不思議なことに、これと同じツールをMSEでFXに適用し始めると、うまくいかなくなったのです。全く別のエラーを適用する必要があると思います。

 
registred >> :

不思議なことに、これと同じツールをMSEでFXに適用し始めると、うまくいかなくなったのです。全く別のエラーを適用する必要があると思います。



よし、どれにする?先生と一緒に学ぶ場合は、MSEで十分だと思います。

 
rip >> :

よし、どれにする?先生と一緒に学ぶ場合は、MSEで十分だと思います。


考えているんです。でも、MSEがダメなのは確かです。少なくとも私は、上記の理由で。ニューラルネットワークの場合、教師(ルール)はエラーであり、普遍的な近似器であるため、この近似の程度、近似の質を、市場の収量を考慮しながら何とか決めて、いわば系列をより定常形に近づけなければならないと考えているのですが、いかがでしょうか。これについて何かアイディアがあれば、議論することができます。

 
registred >> :


考えているんです。でも、MSEがダメなのは確かです。少なくとも私にとっては上記のような理由で。ニューラルネットワークにとって教師(ルール)は誤差であり、普遍的な近似器であるため、市場の出方を考慮しながら、この近似の度合い、近似の質を何とか決めて、より定常的な形にシリーズを持っていく必要があると考えています。これについて何かアイディアがあれば、議論することができます。


数字が定常形になれば、FXというのはなくなると思うのですが......。)

 

要するに、ニューラルネットワークの応用で 成功した例がすでにあるのだから、これをさらに短くする努力が必要なのだ。

 
registred >> :

要するに、ニューラルネットワークの応用で成功した例がすでにあるのだから、これをさらに短くする努力が必要なのだ。

なぜ、あったのか、あるのです。2007年の記憶が正しければ、ベターは確率論的なNSで優勝しています。

ネットワークの課題は、コースの動きを予測することでした。

 
rip >> :

なぜ、あったのか、あるのか。2007年の記憶が正しければ、ベターは確率論的なNSだけで勝ちました。

ネットワークの課題は、コースの動きを予測することでした。



はい、読みました。確率的ネットワークには、データのノイズに敏感という大きな問題があります。簡単に言うと、BackPropなどの反復法と違って経験主義的な部分が少ないということです。

 
registred писал(а)>>

確率的ネットワークには、データ中のノイズに弱いという大きな問題があります。

そのあたりを詳しく教えてください。文献でいろいろな意見を見たような気がします。

 

VNSは類似の手法(k-NNなど)と比較すると、データのノイズに弱いが、MLPや類似の手法と比較すると、逆転している可能性が高い...」という。

 
lea >> :

もっと詳しく説明してもいいですか?文献でいろいろな意見を見たような気がします。


また、そこで調整するパラメータは何でしょうか?シグマ?どのように調整するのですか?最適な解を見つけるには?これらは、私にはよくわからない質問です。もうひとつは、MLPではエラーの種類だけが必須のパラメータですが、それでも私はそれを主張します。もちろん、MLPはローカルミニマムにはまり込むので、それに対抗する方法もある。いずれにせよ,MLPの最適解は,多くのタスクのグローバルミニマムを見つけることではなく,最適解を見つけることができるかもしれません.PNNと連携しているものがあれば、それはとても良いことだと思います。