トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 604

 
Vizard_:

あれは雑談です。雑談は抜きにして、ひねりを加えて、その影響を見てください。
入力が十分であれば、「1ニューロン」でも可能です。
モの文脈では、トキシカでイデオロギー的に正しい。
--------------
ディープネットワークに関する教授 - youtu.be/qx3iM2aa2yU
31 min "There's still not much science, but lot of voodoo magic".



変化のスピード が速いことを特徴とする発展の段階を、特別に「飛躍」と名付けた。

活性化関数(シグモイド、tanhなど)はリープで、変化速度の制限を導入することで修正される。

この事実の意味に気づくまで、あとどれくらい時間がかかるのだろう......。

 
マキシム・ドミトリエフスキー

外為では通用しない)

FXでは使えない。まあ、まだ試してないというのが正直なところです。
 
Oleg avtomat:

変化のスピードが速いことを特徴とする発達段階は、「飛躍」と呼ばれる。

活性化関数(シグモイド、tanhなど)はジャンプで、変化率に制限を導入することで修正します。

この事実の意味を、ここにいる「求道者」が理解するまでに、どれだけの時間がかかるのだろうか......。


ロバスト性の根拠がないものに、何の意味があるのでしょうか?

私はこのような文が好きです:ここに預金の成長曲線があります(少なくともテストでは)...そして、あなた方は今m...kikesアズ...それから、はい、質問はありません。

 
マキシム・ドミトリエフスキー

実際にロバスト性の根拠がないのに、何を意識しているのでしょうか?


今の話、理解できましたか...?

 
Oleg avtomat:

自分が何を言っているのか分かっているのか...。


しています。

 
マキシム・ドミトリエフスキー

学習プロセスには急峻な最適化を含めることができ、私もそうしているが、ファジーロジックに限って言えばそうである。急勾配は大きな違いを生みますね。

あなたは記事へのリンクを与えた https://habrahabr.ru/post/322438/

ニューラルネットワークの誤差関数のグラフを本当にそうプロットすると(ここのtangentsに掲載されています)。


もちろん、シグモイドでも同様のものを作ることは可能ですが、個々のセクションの急勾配が低くなってしまうのです。

シグモイドがあまり急でなければ、タンジェントでも同じように、3~5倍くらいにすればいいのではないでしょうか。つまり、ニューロンの数を増やすことです。

おそらくシグモイドの方が誤差が少なかったのだと思います。

Нейронные сети в картинках: от одного нейрона до глубоких архитектур
Нейронные сети в картинках: от одного нейрона до глубоких архитектур
  • 2022.02.17
  • habrahabr.ru
Многие материалы по нейронным сетям сразу начинаются с демонстрации довольно сложных архитектур. При этом самые базовые вещи, касающиеся функций активаций, инициализации весов, выбора количества слоёв в сети и т.д. если и рассматриваются, то вскользь. Получается начинающему практику нейронных сетей приходится брать типовые конфигурации и...
 

誰が意見を言うのか?トレーディングを勉強してお金を払うのがベストなのか、それともフリーで勉強するのがベストなのか?そしてもうひとつ、有料講座にお金をかける価値はまったくないのでしょうか?

 

活性化関数の急峻さが変わるという記事https://www.mql5.com/ru/articles/497、ネットワークが自分で正しい急峻さを見つけるという結論に至ったのです。

計算式をご覧ください。

for(int n=0; n<10; n++) 
  {
   NET+=Xn*Wn;
  }
NET*=0.4; // - умножением меняем крутизну ф-ии активации 

学習時には、ネットワークは 乗数Wnを拾う必要がある。もし、ネットワークにとって合計*0.4の方が利益が大きいなら、単純にWnのすべての重みをピックアップし、それぞれはすでに*0.4になっているはずである。つまり、合計の倍率をカッコで囲むだけで、それ自体は最小誤差で決定される。

異論がある方は訂正をお願いします。

Нейронные сети - от теории к практике
Нейронные сети - от теории к практике
  • 2012.10.06
  • Dmitriy Parfenovich
  • www.mql5.com
В наше время, наверное, каждый трейдер слышал о нейронных сетях и знает, как это круто. В представлении большинства те, которые в них разбираются, это какие-то чуть ли не сверхчеловеки. В этой статье я постараюсь рассказать, как устроена нейросеть, что с ней можно делать и покажу практические примеры её использования. Понятие о нейронных сетях...
 
エリブラリウス

考えていたことがあるんです...。で、「ネットワークが勝手に正しい急勾配を拾ってくれる」という結論に至りました。

その通りです。NSは、すべてのウェイトを適切な量だけ比例的に増減させ(これは-スティープネスになる)、さらに適切なオフセットをピックアップする。

とにかく、ほとんどの作業には関係ありません。

 
ネットワークのニューロン数を自動的に決定したい。計算式はどのようになっていますか?