市場のエチケット、あるいは地雷原でのマナー - ページ 36 1...293031323334353637383940414243...104 新しいコメント Neutron 2009.05.28 08:42 #351 HideYourRichess писал(а)>> このような円には、どんな直線でも、水平に対してどんな角度でも内接させることができる。 さて、さて!? ほら、どの角度でもダメなんです!- 直角なんです...。 paralocus 2009.05.28 08:53 #352 Neutron >> : 今はそれらしく見える! 約束されたトレーニングクラウドはどこにあるのか? グラフに目盛りをつけて、直線の傾き角の正接を教えなさい。 Xによる5員正弦の最初の差分と、Yによるランダムウエイト(ウエイトの初期設定±1)を用いたグリッド予測から得られた画像である。残りはまだやっています、近日公開 Hide 2009.05.28 09:00 #353 Neutron >> : さて、さて!? ご覧の通り、誰でもいいというわけではありません- これでいいんだ...。 >> うん、うん、うん。 paralocus 2009.05.28 15:19 #354 ほら、完成しましたよ。トレーニングサンプルはベクトルXなので、もちろんグラフにプロットすることはできますが、グラフと45 "の角度で交差する直線にしかなりません。ニューロンは3つのサンプルで学習させた。 1.単純第一差分5sin - ベクトルY_simpl, 緑色 (対応するミンク) 2.第一差分5sinのハイパータンジェント - ブルー 3. バイナリ入力(5sinによる)・・・紫色 直線の接線はこのようになっています。 それなのに、何かが間違っている。あるいは、与えられた課題を理解できていない。 このニューロンは、新しいX データベクターサンプルごとに学習され、同じベクトルがグラフの横軸として使用されます。縦軸に表示すると......?なぜ? さらに、同じデータのワークシートを再計算すると、結果が異なることに気づきました。こんなんでいいのか?つまり、重みの初期設定に結果が大きく左右されるのです。 そういえば、各ステップでニューロンを学習させず、ランダムに初期重みを選んだデータベクターに対して実行したところ、真ん中に雲がある絵ができました(時々)。 今、あなたは見たものを手に入れることができる。こちらも写真です。 念のため、Matkadのリストを添付しておきます。 ファイル: neyron.rar 114 kb Neutron 2009.05.29 03:52 #355 paralocus писал(а)>> さて、そんなわけで。トレーニングサンプルはベクトルXなので、もちろんグラフに描くことはできますが、グラフを45 "の角度で横切る線になりますから、トレーニングサンプルはありません。 長さnの 学習ベクトルがあり、それに対してNSは1つのサンプル、n+1だけを 認識するように学習する。統計量N>100で、長さN サンプルの学習セット(正確にはNSの学習方法の例)を形成している(これは学習ベクトルではなく、利用可能な正弦波系列からNまで 毎回1サンプルずつ右にずらして得たサンプルの集合である)。したがって、NSが学習したN個の 値(これらは学習ベクトルのn+1個の 要素である)と、それをどのように学習したかのN個の 値が存在することになる。それらを横軸と縦軸にそれぞれ置き、学習過程を特徴づける雲を得る。この雲は45度の傾きを持たないことは明らかです。これは、メッシュの重みの数-wが 学習ベクトルP=w*w/dの 最適長よりはるかに小さく、結果としてNSが最適重みを求めるために解く方程式系が過大決定で解が無限個になることから導かれる。そこで、すべての方程式について、二乗学習誤差を最小化する意味で最適な近似式を求める。もし学習ベクトルの長さが重みの数と同じであれば、ネットワークの100%学習が期待できるが、これはネットワークが蓄積した知識を将来にわたって汎化する能力という意味で最適ではなく、テストサンプルでは壮大なエラーにつながる。適切に学習されたグリッドは、学習サンプルの傾斜角度とテストサンプルの傾斜角度が雲形図上で近くなるように表示されます。逆に、過剰に訓練されたネットワークは、訓練雲では45度の角度を示し、無視できるほどの分散を示し、テスト雲ではゼロの角度を示し、無限の分散を示します。これはまさに、1つのペルセプトロンに対する線形代数方程式系を正確に解こうとすると、このような結果になるのです。このことは、すでに前述したとおりです。これが、ネットワークのデバッグをするときに、クラウドダイアグラムを使うと非常に便利な理由です(MQLではできませんが)。 実験によって傾きが変わり、さらにマイナスになるのは、明らかにあなたの女の子が秘密の生活を送っていて、訓練ができないことを示しています。ロボトミー手術が必要です :-) 追伸:2001i MathCadではcdjbファイルを*.mcdという拡張子で保存してください。そうしないと読めません。 paralocus 2009.05.29 04:55 #356 ここでは、Matcad12、11用の*.mcdとして保存しています。mcdファイルについて、他に選択肢がないのですが。 ファイル: mathcad.rar 40 kb Neutron 2009.05.29 06:19 #357 これから見てみます。 ちなみに、うちの子が5サインシリーズを計算するのは、こんな感じです。 これは2つの有効な入力(定数バイアスを含まない)、k=2の 2層NSで、隠れ層に2つの非線形活性化ニューロン、出力に1つの線形ニューロン(活性化関数なし)を持つものである。学習用サンプルは赤、テスト用サンプル(予測値)は青で表示されています。各サンプルで再トレーニングを実施統計は200回の実験です。角度の接線はプロットフィールドに表示されます。 Neutron 2009.05.29 08:31 #358 あなたのコードには、私が善意で理解できなかったことがたくさんあるのです。しかし、私が理解したところでは、次のようなことは私の考えとは一致しません。 すべての学習エポックPの 偏差の2乗による累積和S[k] を正確に求める必要があります。私が見たのは、変数の再割り当てに過ぎません。重みを乱数で初期化することはない。 method()とranif()を導入したサブルーチンがまだ理解できていないのですが、どこを見ればいいのでしょうか? あなたのコードを少し簡略化しました(ファイルをご覧ください)。 ファイル: modif1_4.zip 16 kb paralocus 2009.05.29 16:44 #359 今、パソコンに向かったところです。そのファイルは間違っている...。を、朝のラッシュで貼り付けます。これからコメントをして、ranif()を掲載します。これはMatcadの組み込み関数で、第1パラメータで指定した長さのベクトルを、第2パラメータと第3パラメータの間の範囲に一様に 分布する乱数で返します。 paralocus 2009.05.29 19:03 #360 広範囲にコメントし、途中でいくつかの誤りを修正した これが描かれているのです。 11、12、13の3つのフォーマット(*.xcmd)でファイルを添付します。 今、あなたの添削を見ていると...。実はコメントする前に、まず訂正箇所を見ておくべきだったのですが...。-:) 2つ上の記事に書いてあること......考え中です。自分の頭の中にある "絵 "を理解すること、そしてそれを実行することです。 今までの絵は、「やって覚える」を勘違いして、まだ新しいものがないことが判明しました。 ファイル: neyron_1.rar 197 kb 1...293031323334353637383940414243...104 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
このような円には、どんな直線でも、水平に対してどんな角度でも内接させることができる。
さて、さて!?
ほら、どの角度でもダメなんです!- 直角なんです...。
今はそれらしく見える!
約束されたトレーニングクラウドはどこにあるのか?
グラフに目盛りをつけて、直線の傾き角の正接を教えなさい。
Xによる5員正弦の最初の差分と、Yによるランダムウエイト(ウエイトの初期設定±1)を用いたグリッド予測から得られた画像である。残りはまだやっています、近日公開
さて、さて!?
ご覧の通り、誰でもいいというわけではありません- これでいいんだ...。
>> うん、うん、うん。
ほら、完成しましたよ。トレーニングサンプルはベクトルXなので、もちろんグラフにプロットすることはできますが、グラフと45 "の角度で交差する直線にしかなりません。ニューロンは3つのサンプルで学習させた。
1.単純第一差分5sin - ベクトルY_simpl, 緑色 (対応するミンク)
2.第一差分5sinのハイパータンジェント - ブルー
3. バイナリ入力(5sinによる)・・・紫色
直線の接線はこのようになっています。
それなのに、何かが間違っている。あるいは、与えられた課題を理解できていない。
このニューロンは、新しいX データベクターサンプルごとに学習され、同じベクトルがグラフの横軸として使用されます。縦軸に表示すると......?なぜ?
さらに、同じデータのワークシートを再計算すると、結果が異なることに気づきました。こんなんでいいのか?つまり、重みの初期設定に結果が大きく左右されるのです。
そういえば、各ステップでニューロンを学習させず、ランダムに初期重みを選んだデータベクターに対して実行したところ、真ん中に雲がある絵ができました(時々)。
今、あなたは見たものを手に入れることができる。こちらも写真です。
念のため、Matkadのリストを添付しておきます。
さて、そんなわけで。トレーニングサンプルはベクトルXなので、もちろんグラフに描くことはできますが、グラフを45 "の角度で横切る線になりますから、トレーニングサンプルはありません。
長さnの 学習ベクトルがあり、それに対してNSは1つのサンプル、n+1だけを 認識するように学習する。統計量N>100で、長さN サンプルの学習セット(正確にはNSの学習方法の例)を形成している(これは学習ベクトルではなく、利用可能な正弦波系列からNまで 毎回1サンプルずつ右にずらして得たサンプルの集合である)。したがって、NSが学習したN個の 値(これらは学習ベクトルのn+1個の 要素である)と、それをどのように学習したかのN個の 値が存在することになる。それらを横軸と縦軸にそれぞれ置き、学習過程を特徴づける雲を得る。この雲は45度の傾きを持たないことは明らかです。これは、メッシュの重みの数-wが 学習ベクトルP=w*w/dの 最適長よりはるかに小さく、結果としてNSが最適重みを求めるために解く方程式系が過大決定で解が無限個になることから導かれる。そこで、すべての方程式について、二乗学習誤差を最小化する意味で最適な近似式を求める。もし学習ベクトルの長さが重みの数と同じであれば、ネットワークの100%学習が期待できるが、これはネットワークが蓄積した知識を将来にわたって汎化する能力という意味で最適ではなく、テストサンプルでは壮大なエラーにつながる。適切に学習されたグリッドは、学習サンプルの傾斜角度とテストサンプルの傾斜角度が雲形図上で近くなるように表示されます。逆に、過剰に訓練されたネットワークは、訓練雲では45度の角度を示し、無視できるほどの分散を示し、テスト雲ではゼロの角度を示し、無限の分散を示します。これはまさに、1つのペルセプトロンに対する線形代数方程式系を正確に解こうとすると、このような結果になるのです。このことは、すでに前述したとおりです。これが、ネットワークのデバッグをするときに、クラウドダイアグラムを使うと非常に便利な理由です(MQLではできませんが)。
実験によって傾きが変わり、さらにマイナスになるのは、明らかにあなたの女の子が秘密の生活を送っていて、訓練ができないことを示しています。ロボトミー手術が必要です :-)
追伸:2001i MathCadではcdjbファイルを*.mcdという拡張子で保存してください。そうしないと読めません。
これから見てみます。
ちなみに、うちの子が5サインシリーズを計算するのは、こんな感じです。
これは2つの有効な入力(定数バイアスを含まない)、k=2の 2層NSで、隠れ層に2つの非線形活性化ニューロン、出力に1つの線形ニューロン(活性化関数なし)を持つものである。学習用サンプルは赤、テスト用サンプル(予測値)は青で表示されています。各サンプルで再トレーニングを実施統計は200回の実験です。角度の接線はプロットフィールドに表示されます。
あなたのコードには、私が善意で理解できなかったことがたくさんあるのです。しかし、私が理解したところでは、次のようなことは私の考えとは一致しません。
すべての学習エポックPの 偏差の2乗による累積和S[k] を正確に求める必要があります。私が見たのは、変数の再割り当てに過ぎません。重みを乱数で初期化することはない。
method()とranif()を導入したサブルーチンがまだ理解できていないのですが、どこを見ればいいのでしょうか?
あなたのコードを少し簡略化しました(ファイルをご覧ください)。
広範囲にコメントし、途中でいくつかの誤りを修正した
これが描かれているのです。
11、12、13の3つのフォーマット(*.xcmd)でファイルを添付します。
今、あなたの添削を見ていると...。実はコメントする前に、まず訂正箇所を見ておくべきだったのですが...。-:)
2つ上の記事に書いてあること......考え中です。自分の頭の中にある "絵 "を理解すること、そしてそれを実行することです。
今までの絵は、「やって覚える」を勘違いして、まだ新しいものがないことが判明しました。