記事「知っておくべきMQL5ウィザードのテクニック(第18回):固有ベクトルによるニューラルアーキテクチャの探索」についてのディスカッション

 

新しい記事「知っておくべきMQL5ウィザードのテクニック(第18回):固有ベクトルによるニューラルアーキテクチャの探索」はパブリッシュされました:

ニューラルアーキテクチャー探索は、理想的なニューラルネットワーク設定を決定するための自動化されたアプローチで、多くのオプションや大規模なテストデータセットに直面したときにプラスになります。固有ベクトルをペアにすることで、この過程がさらに効率的になることを検証します。

この記事のケースのように、訓練データセットとその目標の関係を定義するためにニューラルネットワークを使用することを選択した場合、このネットワークはどのような設定を使用するのかという問題と戦わなければなりません。ネットワークにはいくつかの種類があり、これは適用可能な設計や設定もまた多くの種類があることを意味します。この記事では、多層パーセプトロンと呼ばれる非常に基本的なケースを考えます。このタイプでは、私たちがこだわる設定は隠れ層の数と各隠れ層のサイズだけです。

NASは通常、これら2つの設定やその他多くの設定を特定するのに役立ちます。例えば、単純なMLPであっても、どの種類の活性化を使用するか、どの初期重みを使用するか、そして初期バイアスは、すべてネットワークのパフォーマンスと精度に影響を与える要素です。しかし、探索空間は非常に広範であり、適度な大きさのデータセットでさえ順伝播と逆伝播に必要な計算リソースは法外であるため、ここでは省略します。


作者: Stephen Njuki