The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
見出しだけを読む習慣はやめよう:本はツイッターの投稿ではない。
私はこの本の半分以上を読んでいるので、内容は自分で判断できる。
この本のコードを書くときに使用したパッケージのリストはこちら。
内容的には、この本は「機械学習」と呼ばれるものの問題点と解決策を体系的に提示している。このサイトでは、「機械学習」は通常単なるモデルとして理解されているので、とても役に立つ。ええ、いい本ですよ。
半分も読んだんだから。
おそらくコードを1行書くことができるでしょう。
一番印象に残っているのは?
P.Z.です。
みんなにこの本を勉強することを勧めるよ。
統計学習
kozulは自己宣伝、古いズボンに新しいステッカー。
リサンプリングとcvの後の統計的出力はどこにあるのか?そして最終的な分類器の構築。このトピックを取り上げ、発展させる。これがkozulの基本である。
Kozulは不当な広告であり、古いズボンに新しいステッカーを貼ったものである。
Tulsは効果的なモデルを作成するためのもので、リサンプリングに対して複数のモデルを比較する。次は、統計的推論と不偏的モデル構築のようなものだ。
これは機械学習の標準であり、この本の大部分は、何年も前から多くのツールが発明されてきた、まさにこれらの問題を扱っている。本書のパート3は「効果的なモデルを作成するためのツール」と呼ばれ、以下のような内容となっている:
-10 性能評価のためのリサンプリング
-11 リサンプリングによる モデルの比較
-12 モデルのチューニングとオーバーフィッティングの危険 性
-13 グリッド探索
-14 反復探索
-15 複数のモデルの表示
さらに第20章"モデルのアンサンブル "があり、最終的なモデルの構築方法が述べられて いる。
我々は統計的な知識を必要とする。
必要ですか?CRAN Task View: 機械学習と 統計学習
これは初心者のためのヒントで、コズールと考える能力が必要です。
複数の単一学習者の予測を集約して1つの予測にするモデルアンサンブルは、最終的に高性能なモデルを作成することができます。アンサンブルモデルを作成する最も一般的な方法は、バギング(Breiman 1996a)、ランダムフォレスト(Ho 1995;Breiman 2001a)、ブースティング(Freund and Schapire 1997)である。これらの方法はそれぞれ、同じタイプのモデル(例えば分類木)の複数のバージョンからの予測を結合する。しかし,アンサンブルを作成する最も初期の手法の1つは,モデル・スタッキング である(Wolpert 1992;Breiman 1996b).
モデル・スタッキングは,任意のタイプの複数のモデルの予測値を結合する.たとえば,ロジスティック回帰,分類木,サポート・ベクトル・マシンは,スタッキング・アンサンブルに含めることができる.
この章では、stacks パッケージを使って 予測モデルをスタックする方法を示します。コンクリート混合物の圧縮強度を予測するために複数のモデルが評価さ れた 第15 章の結果を再利用します。
スタック・アンサンブルを構築するプロセスは次のとおりです:
20.5 章の まとめ
この章では、より良い予測性能を得るために、異なるモデルをアンサンブルに組み合わせる方法を示しました。アンサンブルを作成するプロセスでは、パフォーマンスを向上させる小さなサブセットを見つけるために、候補モデルを自動的に排除することができます。stacks パッケージには 、リサンプリングとチューニングの結果をメタモデルに結合するための流暢なインターフェイスがあります。
これは筆者の問題意識であるが、複数のモデルを組み合わせる唯一の方法ではない。 Rにはモデルを組み合わせるためのstacksパッケージがある。 例えば、caretEnsemble: Caretモデルのアンサンブル。
すべてが遅くなる。
また、この本はアンサンブルとスタッキングを混同しているようだ。要するに、これは普通のアプローチだが、本番では綿に なる可能性がある。
最近、ウラジーミルの記事へのリンクを与えたように。最も奇抜な TC作成の例。
どんな綿密さですか?
その綿のような感触は何?
コズール、統計的学習、信頼できるAIに戻ることを提案する。
P.Z.
より細かい部分を把握する