記事「データサイエンスと機械学習(第10回):リッジ回帰」についてのディスカッション

 

新しい記事「データサイエンスと機械学習(第10回):リッジ回帰」はパブリッシュされました:

リッジ回帰は、モデルの複雑さを軽減し、単純な線形回帰に起因する過学習を防ぐためのシンプルな手法です。

すべてのデータを学習データとして使用した場合、モデルの性能は若干異なります。

出力を保存して同じ軸にプロットすると、次のようなグラフになります。

リッジ回帰と線形回帰の比較

線形モデルと青色でマークされた予測因子の違いはほとんどわかりません。リッジ回帰がデータセットにうまく適合していないことがわかるだけです。両モデルを1つずつ訓練してテストしてみましょう。

作者: Omega J Msigwa