В соответствии с теоремой Цыбенко, сеть с одним скрытым слоем способна аппроксимировать
любую непрерывную многомерную функцию с любой желаемой степенью точности
В соответствии с теоремой Цыбенко, сеть с одним скрытым слоем способна аппроксимировать
любую непрерывную многомерную функцию с любой желаемой степенью точности
x2=0
x2=DBL_MIN のとき。
Yは無限ではなく、非常に大きくなります。
機械の数字から離れれば、x2を減らしても、Yは増えるのです。といった具合に。- 無限小と無限大の数の競演も無限大になる。)
y = x1/x2 はどこで途切れているのでしょうか?
離散関数とは何か、連続関数とは何かを読んで、無意味なことを言わないでください。
もしあなたが何かを理解する代わりに議論したいのであれば、関数y = x1/x2 について隠れ層を1つ持つネットワークを訓練してください。
そして、ネットワークが「y」を近似しなかった理由を、あなたの信念によれば、すべてが連続的 だからだと説明してください。
できると書かれています。
しかし、それはできない...
その理由を説明してください。
離散関数とは何か、連続関数とは何かを読んで、無意味なことを言わないでください。
もしあなたが何かを理解せずに議論したいのであれば、この関数y = x1/x2に対して 隠れ層を1つ持つネットワークを訓練してください。
そして、ネットワークが「y」を近似しなかった理由を、あなたの信念によれば、すべてが連続的 だからだと説明してください。
できると書かれています。
しかし、それはできない...
その理由を説明してください。
関数y = x1/x2 は連続である。ただし、点x2=0は除く。それさえも議論の余地がある。
ゼロに近い場合はどうでしょうか?
あるいは、2で割る - ゼロ未満/ゼロより多い
であれば、この問題は解決可能である。ゼロに近かったらどうする?
無限に近づくことができるのです。
関数y = x1/x2 は連続である。ただし、点x2=0は除く。そして、それすらも論破することができるのです。
では、なぜネットワークは訓練されていないのでしょうか?
ひつじゅひん
В соответствии с теоремой Цыбенко, сеть с одним скрытым слоем способна аппроксимировать любую непрерывную многомерную функцию с любой желаемой степенью точности
そう、そしてそれは無限に近づくことができると主張することができます。
無限ってなんだよww誤差がゼロになって行き場がなくなったんだよww
そうですか、それは違いますね...。バカ言え
では、なぜネットワークは学習しないのでしょうか?
と書かれています。
無限ってなんだよww誤差がゼロになって行き場がないんだよww
そうですか、それは違いますね...。バカ言え
またブヒブヒ言ってるのか?
また酒か?
1ヶ月前に辞めた、正月ドライでもないのに...。
最後の喜びは......人生とは苦痛だ ))
は1ヶ月前に諦めて、年越しドライまで...。
最後の喜びは、、、そして、、、人生は、、、苦痛 ))
リッピングの近似値も出せるが、もう精度はない。
不連続性を近似することもできるが、正確ではない。
誰も議論していない、そういう話じゃないんだ...。
逆質問 -酒酒酒?
:)