あれは雑談です。雑談は抜きにして、ひねりを加えて、その影響を見てください。 入力が十分であれば、「1ニューロン」でも可能です。 モの文脈では、トキシカでイデオロギー的に正しい。 -------------- ディープネットワークに関する教授 - youtu.be/qx3iM2aa2yU 31 min "There's still not much science, but lot of voodoo magic".
Многие материалы по нейронным сетям сразу начинаются с демонстрации довольно сложных архитектур. При этом самые базовые вещи, касающиеся функций активаций, инициализации весов, выбора количества слоёв в сети и т.д. если и рассматриваются, то вскользь. Получается начинающему практику нейронных сетей приходится брать типовые конфигурации и...
В наше время, наверное, каждый трейдер слышал о нейронных сетях и знает, как это круто. В представлении большинства те, которые в них разбираются, это какие-то чуть ли не сверхчеловеки. В этой статье я постараюсь рассказать, как устроена нейросеть, что с ней можно делать и покажу практические примеры её использования. Понятие о нейронных сетях...
あれは雑談です。雑談は抜きにして、ひねりを加えて、その影響を見てください。
入力が十分であれば、「1ニューロン」でも可能です。
モの文脈では、トキシカでイデオロギー的に正しい。
--------------
ディープネットワークに関する教授 - youtu.be/qx3iM2aa2yU
31 min "There's still not much science, but lot of voodoo magic".
変化のスピード が速いことを特徴とする発展の段階を、特別に「飛躍」と名付けた。
活性化関数(シグモイド、tanhなど)はリープで、変化速度の制限を導入することで修正される。
この事実の意味に気づくまで、あとどれくらい時間がかかるのだろう......。
外為では通用しない)
変化のスピードが速いことを特徴とする発達段階は、「飛躍」と呼ばれる。
活性化関数(シグモイド、tanhなど)はジャンプで、変化率に制限を導入することで修正します。
この事実の意味を、ここにいる「求道者」が理解するまでに、どれだけの時間がかかるのだろうか......。
ロバスト性の根拠がないものに、何の意味があるのでしょうか?
私はこのような文が好きです:ここに預金の成長曲線があります(少なくともテストでは)...そして、あなた方は今m...kikesアズ...それから、はい、質問はありません。
実際にロバスト性の根拠がないのに、何を意識しているのでしょうか?
今の話、理解できましたか...?
自分が何を言っているのか分かっているのか...。
しています。
学習プロセスには急峻な最適化を含めることができ、私もそうしているが、ファジーロジックに限って言えばそうである。急勾配は大きな違いを生みますね。
あなたは記事へのリンクを与えた https://habrahabr.ru/post/322438/
ニューラルネットワークの誤差関数のグラフを本当にそうプロットすると(ここのtangentsに掲載されています)。
もちろん、シグモイドでも同様のものを作ることは可能ですが、個々のセクションの急勾配が低くなってしまうのです。
シグモイドがあまり急でなければ、タンジェントでも同じように、3~5倍くらいにすればいいのではないでしょうか。つまり、ニューロンの数を増やすことです。
おそらくシグモイドの方が誤差が少なかったのだと思います。
誰が意見を言うのか?トレーディングを勉強してお金を払うのがベストなのか、それともフリーで勉強するのがベストなのか?そしてもうひとつ、有料講座にお金をかける価値はまったくないのでしょうか?
活性化関数の急峻さが変わるという記事https://www.mql5.com/ru/articles/497、ネットワークが自分で正しい急峻さを見つけるという結論に至ったのです。
計算式をご覧ください。
学習時には、ネットワークは 乗数Wnを拾う必要がある。もし、ネットワークにとって合計*0.4の方が利益が大きいなら、単純にWnのすべての重みをピックアップし、それぞれはすでに*0.4になっているはずである。つまり、合計の倍率をカッコで囲むだけで、それ自体は最小誤差で決定される。
異論がある方は訂正をお願いします。
考えていたことがあるんです...。で、「ネットワークが勝手に正しい急勾配を拾ってくれる」という結論に至りました。
その通りです。NSは、すべてのウェイトを適切な量だけ比例的に増減させ(これは-スティープネスになる)、さらに適切なオフセットをピックアップする。
とにかく、ほとんどの作業には関係ありません。