記事「知っておくべきMQL5ウィザードのテクニック(第29回):MLPの学習率についての続き」についてのディスカッション

 

新しい記事「知っておくべきMQL5ウィザードのテクニック(第29回):MLPの学習率についての続き」はパブリッシュされました:

エキスパートアドバイザー(EA)のパフォーマンスに対する学習率の感度を、主に適応学習率を調べることでまとめます。これらの学習率は、訓練の過程で層の各パラメータごとにカスタマイズすることを目的としており、潜在的な利点と期待されるパフォーマンスの差を評価します。

本記事では、適応学習率と1サイクル学習率を検証し、異なる形式の学習率がEAのパフォーマンスに与える影響を再評価します。形式は前回の記事のアプローチに沿っており、各学習率形式のセクションにテストレポートを配置しています。

本題に入る前に、モデルのパフォーマンスに大きな影響を与える機械学習設計の他の重要な要素に触れておきます。その1つが、入力データのバッチ正規化です。以前の記事でその重要性を述べましたが、次回はこのトピックをさらに詳しく扱います。現時点では、ネットワークのモードや形式を設計する際、バッチ正規化はモデルが採用する活性化アルゴリズムと併せて考慮されるべきです。これまで、無制限の出力を生成する傾向があるソフトプラス活性化を使用してきました。つまり、それぞれ -1.0 ~ +1.0 および 0.0 ~ 1.0 の範囲の出力を生成するTANHまたはシグモイド活性化とは異なり、ソフトプラスは有効なテストに合格しない結果を生成することが非常に多く、結果として訓練や予測のプロセスが無効になる場合がありました。

作者: Stephen Njuki