ニューラル・ネットワーク専門家からの質問 - ページ 9

 
LeoV писал(а)>>

いつまで訓練するんだ?最小限の誤差に?100%オーバートレーニングになることを理解しなければならない。最小限の誤差にならないように?では、何時まで?利益とは何ですか?そして、なぜこのようなエラーになるのでしょうか?誤差を少し減らせば、利益は増えるのか減るのか?また、誤差を大きくすると?

こんな感じで......)))。

最小誤差まで。オーバートレーニング」(この言葉は現象の意味を全く反映していない)を避けるためには、ネットワークのニューロン数をできるだけ少なくする必要がある。学習後は、ネットワーク内の個々の入力の影響を分析し、弱いニューロンを削除するなどの手順や、ニューロン数を減らすなどの手順がある。喩えて言うなら.この電子頭脳の中に、トレーニングの影響を受けない空間がないように。

 
LeoV >>:
Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно, делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?

なんというか、答えになっていない。その答えは

joo さんが書き込みました >>1

あなたはTSができるだけ多くの利益を、できるだけ頻繁に与えることに興味があるとしましょう、それは有益な取引の割合を増加させようとすることであり、もちろんMOです。

この原理で訓練されたネットワークからは、OOSでも利益が出ることが予想されます。これらの目標に貢献するパターンについて、ネットワークを強調する二乗平均平方根誤差を適用する必要が あるのです。つまり、ネットワークは、ある種の結果につながる特定のパターンに焦点を当てているのです。

しかし、二乗平均平方根誤差を使うと、パターンが強調されるのではなく、「平均化」されてしまうのです。

ルート平均誤差が最小になるように学習する必要があります。また、ルート平均誤差を使うとオーバートレーニングが起こります(近似のためではありません)。近似の場合、RMSエラーは小さいほど良い。

もちろん、質問に対して具体的に答えようと思っても、誰も答えてはくれないでしょう。私は、フィットネス関数の選択は、グリッドの入力値の選択よりも、ほとんど我々の疑問に対する答えを決定する重要なタスクであることを示そうとしただけです。しかも、原則として、苦心惨憺、時間のかかる入力データの羅列にとどまっている......。

そして、書いている間にIntegerが少し先回りしてくれました。私も同感です。

 
Integer писал(а)>>

最小誤差まで。オーバートレーニング」(この言葉は現象の意味を全く反映していない)を避けるためには、ネットワーク内のニューロン数をできるだけ少なくしなければならない。学習後は、ネットワーク内の個々の入力の影響を分析し、弱いものを取り除くなどの手順や、ニューロンの数を減らすなどの手順がある。喩えて言うなら.この電子頭脳の中に、トレーニングの影響を受けない空間がないように。

また、「再教育」とはどういうことですか?

 
joo писал(а)>>

インテージと 同じように、私も同感です。でも、自分で書いたんですよね〜。

>> 質問に具体的に答えてくれる人がいない
))))
 
LeoV писал(а)>>

また、「再教育」という言葉はどのように理解されていますか?

ニューラルネットワークの応用・訓練という文脈では、全く理解できないし、現象の意味を反映していない。彼らはニューラルネットワークについて書くように、例えばここで(だけでなく) -http://www.exponenta.ru/soft/others/mvs/stud3/3.asp。

例数が少なすぎると、ネットワークの「過学習」の原因となり、学習用サンプル例ではうまくいっても、同じ統計分布のテスト例ではうまくいかないことがあります。

ネットワークが対応できる数より少ない例で学習することと理解される。ギザギザの体験にそっくりな状況でないと、ギザギザになって混乱する。"Notched "は "Rote "という言葉からきており、暗記はしているが、理解や応用ができないことです。

 
LeoV >>:

Я с вами согласен, точно так же как и с Integer. Но вы сами написали -

))))

まあ、それでも、具体的な数字ではありえないという意味です。:)

 
Integer писал(а)>>

ニューラルネットワークの応用・訓練という文脈では、全く理解できないし、現象の意味を反映していない。彼らはニューラルネットワークについて書くように、例えばここで(だけでなく) -http://www.exponenta.ru/soft/others/mvs/stud3/3.asp。

私は、ネットワークが収容できる数よりも少ない例でネットワークを訓練することだと理解しています。ギザギザの体験にそっくりな状況でないと、ギザギザになって混乱する。"rote "の語源は、「暗記はしているが、理解や応用ができないこと」。

過学習」という言葉は、むしろ金融市場におけるニューラルネットワークの応用に当てはまるのではないかと私は考えています。私たちは、市場が時間とともに変化し、パターンが変わり、将来の市場が過去と全く同じになるわけではないことを知っています。そのため、ネットワークが学習すると、市場を学習しすぎてしまい、将来、つまり変化した市場において十分に機能しなくなるのです。これが「過学習」です。ニューロンの数を減らすことは、もちろん「再トレーニング」を避けるための一つの方法である。しかし、それだけではうまくいきません。

 
LeoV >>:

Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно(для "академических целей"), делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?

Ну вот как-то так.....))))

ネットワークは、学習サンプルで重みを調整しながら、テストサンプルで最小のエラーになるように学習されます。

 
StatBars писал(а)>>

ネットワークは、学習サンプルで重みを調整しながら、テストサンプルで最小のエラーになるように学習されます。

それは理解できる。誤差が小さいほど利益が大きい?あるいは、その相関関係はどうなっているのでしょうか。

 
Integer >>:

До минимальной ошибки. Чтобы "переобучения" (слово совершенно не отражающее смысл явления) не было, количество нейронов в сети должно быть минимально возможным. После обучения существует такие процедуры, как анализ влияния отдельных входов сети и удаление слабовлиящих, и такая процедура, как сокращение количества нейронов. Как бы так образно ... чтобы в этом электронном мозге не оставалась пустых мест не затронутых обучением.

ニューロンの数を選択すること(ほとんどの場合、精度を落とさずに最小にすること)は、誤差の減少につながるが、ニューロンの数は常に決定的な役割を果たすわけではない。

入力に影響を与えたり、不要な入力を削除することは、レイヤーのニューロンを選択するよりも大きな効果をもたらすことが多い。