ニューラルネットワーク - ページ 4

 
joo писал(а)>> 唯一の正解は「先生を使わない学習」だろう。

もちろんです。なぜなら、ネットワークに完璧な教師は存在しないからです。というか、ネットワークに最適な先生というのは、私たちにはわからないのです......)))

 
LeoV >> :

もちろんです。なぜなら、ネットワークに完璧な教師は存在しないからです。というか、ネットワークに最適な先生というのは、私たちにはわからないのです......)))

そのとおりです。先生と一緒だと、正弦波など、すでに知っている関数のグリッドしか教えられないんです。ここでは、迷うことなく、ネットに以下のものを送り込むことができます。

教師として鍛えられた点のこの仕掛けは市場には通用しない。

 
joo писал(а)>> その通り!すでに知っている関数、例えば正弦波に対してのみ、先生と一緒にグリッドを訓練することができます。ここで我々は、良心で、教師として訓練されたポイントに次のグリッドを供給することができます。これでは市場が 成り立ちません。

そうですね、この場合、学習サンプルの誤差が小さいほど、ネットワークにとっては有利です。それでは市場には 通用しない。

 

教師による訓練だけでネットワークを構築するのは得策ではなく、すべてのパターンを手作業でコードに記述した方が、エラーが少なくなります。

ニューラルネットワークの真の目的は、教師がいなくても教えることができる、教師が知らないことを教えることができることです。

あなた個人が見ていない(誰も見ていない、それが強み)パターンを特定することができるようになるのです。

金髪から友人へ:「知らない」の意味を知っているのか?

ガールフレンド。 "知らない "のです。

金髪:そうですね、誰も知らないです。

 
LeoV >> :
gpwr wrote(a)>> テスト対象サンプルの誤差が減らなくなるまでネットワークを学習させる必要があると、あちこちに書いてありますね。

実際はもっと複雑なんですけどね。テスト対象のサンプルで最小の誤差まで学習させると、過学習のネットワークになりやすい......ということですね。

ありえない、です。真実です。また、一般性を高めるために主電源を落としても、何の役にも立ちません。テストでの最小限のミスはフォワードでの失敗となります。
 
muallch писал(а)>>
ありえないけど、あるんです。真実です。また、一般性を高めるために主電源を落としても、何の役にも立ちません。テストでの最小限のミスはフォワードでの失敗となります。

同意見です。最も可能性が高い」という言葉を、曖昧でないオーバートレーニングの意味で当てはめました・・・)))また、主電源を下げると効果がある場合もありますが......。

 
muallch >> :
ありそうでなかった、本当の話です。>> 本当です。また、より良い汎化のためにネットワークのパワーを落としても、何の役にも立ちません。テストでの最小限のミスはフォワードでの失敗となります。

あなた方市民は、何かに気づいている。新しいものを発明したのか、それともお互い理解しあえないのか。

どの教科書にも、教師によるネットワークの学習は、データを学習用サンプルとテスト用サンプルに分割して行う、と書いてある。ネットワークは、テストサンプルに誤差がある間、トレーニングサンプルの誤差を最小にすることで学習される(サンプル外テストまたは検証)。テストサンプルの誤差が減少しなくなった時点で学習が停止します(下図破線)。そして、学習用サンプルの誤差は、この図のように減少し続ける可能性があります。


写真の点線よりもさらに早い段階で、ネットワークの学習を停止しなければならないと主張していますね。具体的にはどこですか?では、なぜネットワークを鍛えるのか?あなたのロジックで、重みの値を自由に決めて、ネットワークを使って取引してください。その時に、確実に流すことができるのです。

 
LeoV >> :

同意見です。最も可能性が高い」という言葉を、曖昧でないオーバートレーニングの意味で当てはめました・・・)))また、主電源を下げると効果がある場合もありますが......。

その通りです。それが、たまにあるんです。MA上のグレイルは、フォワードポジションでも利益を出すことがあります。訓練されたグリッドのパワー(ふくらみ、神経質さなど)に対する前向きな結果の明確なシステム依存は(少なくとも私はあやまっていません)ありません。グリッドの種類は何も影響しないとは言いませんが、あくまで基準のひとつに過ぎません。しかし、テストサンプル以外の利益の大きさは、学習の度合いに明らかに依存(非線形)している-「エンド・ツー・エンド」テストによる数々の実験がそれを裏付けている。

 
gpwr >> :

写真の点線よりもさらに手前で、ネットワークトレーニングを中止しなければならないという主張ですね。具体的にはどこですか?では、なぜネットワークを鍛えるのか?あなたのロジックで、重みの値を自由に決めて、ネットワークを使って取引してください。その時に、正しいドレインがあるはずです。

いいえ、そんなことはありません。


それに異論はないだろう...。

 
gpwr >> :

あなた方市民は、何かに気づいている。あなたが何か新しいことを発明したか、私たちがお互いを理解していないかのどちらかです。

教師によるネットワークの学習は、データを学習用サンプルとテスト用サンプルに分割して行われると、どの教科書にも書いてある。ネットワークは、テストサンプルの誤差を見ながら、トレーニングサンプルの誤差を最小化することで学習する(サンプル外テストまたは検証)。学習は、テストサンプルの誤差が減少しなくなった時点で停止します(下図点線)。同じ意味で、トレーニングサンプルの誤差は、次の図のように減少し続けるかもしれません。

まずはアウトオブサンプル - グリッドを調整するためにあります。そして、何もない。本当の未来はこの先にある、それを予測しなければならない。トレーニングを停止する基準は何ですか?ある種のエラー、またはトレーニングの実行回数ですか?それとも他の何か?