ニューラルネットワークの入力に投入する指標群を見つけること。ディスカッションを行います。結果を評価するためのツールです。 - ページ 4

 
rip >> :
Kgm ...学習効率を最大化するためには、ネットワークの入力は統計的に独立していなければならず、各入力に供給されるデータの間に相関があってはならないことを忘れてはならない。すべての機械は互いに補正されているので、確認することができます。AtteStatはExelのアドオンですが、非常に便利でシンプルなソフトウェアです。

すべてが見事にシンプルに...。自分で考えたのに...。ありがとうございます!!!

利用可能な指標を取り上げ、それらの相関を見る...分析し、考え、有益なアイデアを得ることができるかもしれません。)

 
IlyaA >> :


学習エラーと時間(エポック数)の関係をグラフで見ることができるようにすることが、一般に求められている。

違うことを言ってるんだろうけど...。先生と一緒に教えない(この教え方にはラーニングエラーがある)...。対象関数の最大値まで教えるのですが、対象関数の取り得る最大値がわかりません。

 
Urain >>

各指標の詳細な説明と計算式はこちらへ

2日後には自分の意見を持つようになる。

以前から見ていました。

見てみた、読んでみた、時間が足りなかったのかもしれない、注意力が足りなかったのかもしれない、何か違うのかもしれない......。何はともあれ、また行くことになりそうだ...。:))) 遠回りしているのか?

 
iliarr >> :

遺伝的アルゴリズムにはターゲット関数の値を渡すだけで、遺伝的アルゴリズムが各遺伝子の値のベクトルを生成し、それをニューラルネットワークの重みの行列に変換しているんです。

そうですね、遺伝的アルゴリズムでは、誤差関数を用いて重みを調整することはありません。

私が理解している限りでは、履歴に残る最大限の利益でm5をマークアップし、このマークアップをフィットネス関数として使用することができます。

個体の推定に使っている関数がどのようなものか気になるところです。

 
iliarr >> :

どのような誤差があるかというと、ターゲットとなる機能が大きいから、遺伝子がより適切である...ということです。

テストのサンプリングエラーの問題である。つまり、トレーニングサンプルの翌月を取るのです。自分のアルゴリズムに従ってマークするのです。その出力を学習済みネットワークに与えるのです。その結果を比較するのです。私が気になるのは、この誤差のグラフです。


また、トレーニングサンプルのエラーグラフを取得することで、ネットワークがどのように学習しているかを推定することができます(または、遺伝子アルゴリズムに世代交代がある)。

 
iliarr >> :

すべて見事にシンプルに...。自分で考えたのに...。ありがとうございました。

利用可能な指標を取り上げ、それらの相関を見る...分析し、考え、有用なアイデアを得ることができるかもしれません :)

入力に供給するすべてのセットを比較した結果を表示する :)すべてにおいて高い相関性が得られると思います。与えられたすべての指標は、計算に同じ入力データを使用しています。

 
iliarr >> :

違うことを言ってるんだろうけど...。先生と一緒に教えない(この教え方にはラーニングエラーがある)...。対象関数の最大値まで教えるのですが、対象関数の取り得る最大値がわかりません。

学習したネットワークの効率は、どのように推定するのですか?これが、私が見たいグラフです。

 
この質問で、私はほとんど答えを知っています。指標のセットを見つけ、重み付け係数を見つけ、利益を上げるようになりました。市場が変化した場合、アドバイザーは新しい条件に適応することができます。
 
joo писал(а)>>

GAとは、あくまでも最適化ツール(機械のドライバー)である。最小限の違いで、これと他の最適化アルゴリズム(スクリュードライバー)を使うことができるのです。

はいドライバーです。でも、ドライバーには小さなネジが外せるものと外せないものがあって......。

いや、最小限の違いではNSには使えない、その違いがわからないようだ。

OROでは、ニューロンが過飽和になると実質的に「学習」を停止しますが、GAでは簡単にニューロンが過飽和になり、さらにニューロン重みを増加させ続けることができます。

 
joo >> :

...少なくともこの関数:(2/(1-2^(-x))-1)

私のミスです。2/(1+2^(-x))-1であるべきです。

StatBars>>:

いや、最小限の違いではNSには使えない、この違いがわからないようだ。

OROはニューロンが飽和しすぎると実質的に「学習」をやめてしまいますが、GAは簡単にニューロンを飽和させ、ニューロンの重みを増やし続けることができるのです。

なぜ見えないのか?その違いは目に見えています。適切な探索範囲を持つニューロンが過飽和になることはない。"調理法を知らないだけ"(c) :)

複雑な作業には、ご指摘のように最適な道具が違ってきます(ドライバー)。