線形回帰に関する講義は、与えられた一連の点にできるだけ近づく最適な直線を見つける問題への導入から始まります。講師は、一次関数は重み付けされた入力の組み合わせで表現できると説明します。線形回帰は、重みベクトルを変更することでユークリッド損失を最小限に抑えることを目的とした最適化によって解決できます。これは、凸最適化問題を使用して効率的に実行できます。線形回帰方程式を解くプロセスには、目的関数のグローバル最小値を与える W 変数または重みを見つけることが含まれます。これは、逆行列や反復法などの手法を使用して実行できます。重みの大きさを制限して可能な限り小さくするために目的関数にペナルティ項を追加することで、過学習を防ぐための正則化の重要性についても説明します。講義は、線形回帰における過学習の問題に対処する重要性について説明して終了します。
00:00:00このセクションでは、機械学習の標準的な回帰手法である線形回帰について講師が紹介し、問題を直感的に解説します。問題は、指定された一連の点にできるだけ近づく最適なラインを見つけることです。データは、入力特徴 X とターゲット出力 T で構成されます。目標は、H が線形であると仮定して、X を T にマッピングする仮説 H を見つけることです。線形関数は常に、入力の重み付けされた組み合わせを取得し、重みを入力で乗算してから加算する方法で表現できます。
00:10:00講義のこのセクションでは、教授が線形回帰に言及する際にコース全体で使用する表記法について説明します。彼は、仮説に変数 H、データ点に X、すべてのデータ点の出力ベクトルに Y、重みベクトルに W を導入します。彼はまた、スカラー ポイントと連結されたデータ ポイントを表すために X バーを使用することについても言及しています。教授は続けて、線形回帰は W を変えることでユークリッド損失を最小限に抑えることを目的とした最適化によって解決できると説明しました。彼は、この最適化問題は凸型であるため簡単であり、最小値が 1 つ存在し、大域的な最適値を確実に見つけることができることを意味していると述べています。
00:20:00講義のこのセクションでは、教授は、目的関数の大域最小値を与える W 変数、つまり重みを見つけるために線形回帰方程式を解くプロセスを説明します。この一次方程式系は、W を分離することで W が B に等しいという形式に書き直すことができ、入力データを表す行列 A を反転して W を解くことができます。ただし、ガウス消去法などの他の手法もあります。共役勾配法と反復法を使用すると、より高速かつ効率的になります。教授はまた、データ ポイントと線の間の垂直距離を縮めることによって、出力 (Y 軸) に対するユークリッド距離を最小化する線を見つける概念を示す図を描きます。
00:25:00このセクションでは、講師は、線形回帰で垂直距離を最小化し、単一の解を得る背後にある直感を説明します。目的関数は凸型であり、ボール型関数には単一の最小値があります。ただし、最小二乗目的を最小化することによって得られる解は安定しておらず、過学習につながる可能性があります。講師はこれを 2 つの例で説明します。そのうちの 1 つはイプシロンによって入力を乱します。この講義では、特異点または特異点に近いために行列 A を反転できないという重要な問題についても説明します。
00:30:00講義のこのセクションでは、講師は、同じ行列 A を使用するがターゲット値 B が異なる線形回帰の 2 つの数値例を示します。最初の例では、最初のデータ ポイントのターゲット値がちょうど 1 です。一方、2 番目の例では、同じデータ ポイントに対して 1 にイプシロンを加えたターゲット値があります。イプシロンが非常に小さい値であるにもかかわらず、ターゲット値の違いにより出力が大きく変化します。インストラクターは問題をグラフィック表現で説明し、入力値の変化の重要性と、それが線形回帰において課題となる理由を強調します。
00:40:00このセクションでは、線形回帰における正則化の概念を紹介します。正則化により、重みの大きさを制限するペナルティ項が追加され、重みが可能な限り小さくなるように強制されます。このペナルティ項は、出力とターゲットの間のユークリッド距離を最小化するという本来の目的に追加されます。正則化の使用は、数値的および統計的観点の両方から見ても理にかなっています。これについては、次の講義で説明します。問題によっては、ペナルティ項の重要性を決定するハイパーパラメータ ラムダを相互検証を通じて調整する必要があります。線形回帰における正則化により、線形方程式系がラムダ I + A 掛け W が B に等しい値に変更されます。正則化により、線形方程式の固有値が少なくともラムダになるように強制され、0 から遠ざけるように制限され、数値の不安定性やエラーが防止されます。
00:05:00講義のこのセクションでは、教授は線形回帰の文脈でガウス分布について説明します。彼らは、基礎となる関数が線形で決定論的であると仮定すると、結果の分布は W 転置 X に等しい平均とシグマ二乗に等しい分散を持つガウス分布になると説明しています。次に、ガウス分布のグラフを描画して、平均値付近の値を測定する確率が高く、曲線の幅がシグマ二乗によって決定されることを示します。教授は、これが尤度関数であり、最尤法を使用してデータセット内のすべてのデータ ポイントの最大確率を与える W を見つけることができると指摘しています。
00:10:00このセクションでは、講師が統計的線形回帰に最適なモデルを選択する方法を説明します。まず、特定の入力 X と分散シグマを伴うノイズ レベルで観測される Y の確率を最適化することから始めます。次に、講師は、自然対数を取得し、無関係な要素を削除することによって、この式を単純化して凸の目的に再スケーリングする方法の導出を示します。結果は元の最小二乗問題であり、線形回帰における点と線の間の距離を最小化する直感的なアプローチを示しています。
00:15:00このセクションでは、講演者が統計的な観点と、ガウス ノイズのあるモデルを仮定することによって測定値を観測する可能性が最も高くなる W を見つける方法について説明します。最適化問題は数学的に同等であるため、このアプローチの信頼性が高くなります。合計のすべての項からシグマを削除することは、数学的には合計からシグマを取り出すことと同じであり、W が選択されている場合、すべての単一測定に同じノイズが存在するという仮定が可能になります。講演者は、最適な解決策を見つけるためにノイズのモデルを用意し、それを固定しておくために繰り返しの実験に基づいてシグマを推定することが重要であるとも述べています。事後分布は、尤度および正規化定数による事前分布の積として事後分布を計算することにより、事後分布で最も高い確率を持つ W を見つけることによって計算されます。
00:20:00講義のこのセクションでは、インストラクターは最大事後確率 (MAP) の概念と、それが最尤法とどのように異なるかについて説明します。 MAP では、計算に事前分布を含めて仮説の分布を改良し、不確実性を低減します。インストラクターは、重みベクトル (W) のガウス事前分布を定義する方法と、多変量ガウスの PDF を計算する方法を説明します。講師は、ガウス分布の形状を示す等高線の描画例も提供します。
00:25:00講義のこのセクションでは、講師が球面ガウスの概念とそれが共分散行列にどのように関連するかを説明します。共分散行列の対角のエントリは各重みの分散を表し、対角以外のエントリは重み間の共分散を表します。次に、講師は、共分散行列の逆数が単位行列のラムダ倍に等しいと仮定して、導出を使用して事後行列の最大値を見つける方法を示します。このように、この式は正則化最小二乗問題と等価であり、ペナルティ項は W の二乗ノルムのラムダ倍になります。正則化項は新しい方法で解釈できるようになり、事前分布から来ていることが明確になります。そして、W のノルムを最小化することは、重みを分布の平均に近づけることと同じです。
00:35:00このセクションでは、講演者は、組織用語を使用して二乗損失を最小化し、事後仮説を最大化するアプローチが、どのように潜在的に異なる損失結果をもたらす可能性があるかを説明します。このセクションでは損失関数を分析し、予想損失を 2 つの異なる項に分類します。ラムダの選択は解に影響を与え、したがって予想される損失にも影響します。次に、講演者は、与えられた W がどのようにして予想される損失につながるのか、そしてこの損失が 2 つの異なる項にどのように分解できるのかについての数学的導出を示します。分析はサンプル データセットと基礎となる分布に基づいており、その結果を使用して、特定の W の予想損失とさまざまなラムダの影響を理解することができます。
00:55:00このセクションでは、講師は二乗距離を最小化し、ペナルティ項を追加するというアイデアについて説明します。ラムダはペナルティ項の重みです。ラムダの変化はバイアスと分散に影響を与え、最適な W 値が異なります。また、期待される損失はラムダの関数として考えることができます。ベイジアン学習では、事前分布から開始し、機械学習を通じて不確実性を低減することによって事後分布を計算します。事後分布は、ガウス事前分布とガウス尤度を乗算することによって計算され、ガウス事後分布が得られます。
01:00:00このセクションでは、線を表すことができる w の空間におけるガウス事前分布を利用して、ベイジアン回帰の概念を説明します。事前分布は、wnaught と w1 のペアにわたる分布であり、直線の分布であることが示されています。次に、単一のデータ ポイントを観察した後、事前分布と尤度分布を乗算して事後分布が計算されます。結果として得られる事後分布は尾根に沿って細長く、やや丸みを帯びているため、ラインの位置に関する最新の信念となります。
CS480/680 講義 3: 線形回帰
CS480/680 講義 3: 線形回帰
線形回帰に関する講義は、与えられた一連の点にできるだけ近づく最適な直線を見つける問題への導入から始まります。講師は、一次関数は重み付けされた入力の組み合わせで表現できると説明します。線形回帰は、重みベクトルを変更することでユークリッド損失を最小限に抑えることを目的とした最適化によって解決できます。これは、凸最適化問題を使用して効率的に実行できます。線形回帰方程式を解くプロセスには、目的関数のグローバル最小値を与える W 変数または重みを見つけることが含まれます。これは、逆行列や反復法などの手法を使用して実行できます。重みの大きさを制限して可能な限り小さくするために目的関数にペナルティ項を追加することで、過学習を防ぐための正則化の重要性についても説明します。講義は、線形回帰における過学習の問題に対処する重要性について説明して終了します。
CS480/680 講義 4: 統計的学習
CS480/680 講義 4: 統計的学習
統計学習に関するこの講義では、周辺化規則、条件付き確率、同時確率、ベイズ規則、ベイズ学習などのさまざまな概念を教授が説明します。これらの概念には、確率分布の使用と、学習時の不確実性を軽減するための更新が含まれます。講義では、さまざまなアルゴリズムを正当化し説明するために、これらの概念を理解することの重要性を強調します。この講義では、特に大規模な仮説空間を扱う場合における、これらの概念の限界についても強調します。この制限にもかかわらず、事前分布が正しい限り、ベイジアン学習は最適とみなされ、ユーザーに有意義な情報が提供されます。
この講義では、ベイズ学習における扱いやすさの問題の解決策として、近似ベイズ学習の概念について説明します。最尤法と最大事後確率は、統計学習で一般的に使用される近似法ですが、過剰適合やベイジアン学習よりも精度の低い予測など、独自の弱点があります。この講義では、尤度の最大化から生じる最適化問題、さまざまな問題に必要なデータの量、コース課題における次の数枚のスライドの重要性についても説明します。講師は、たとえ一部の比率が実現不可能であっても、アルゴリズムは与えられた空間内で最良の仮説に収束することを強調して締めくくりました。
CS480/680 講義 5: 統計的線形回帰
CS480/680 講義 5: 統計的線形回帰
統計的線形回帰に関するこの講義では、教授はノイズの多い破損したデータの最尤度分布とガウス尤度分布の概念から始めて、数多くのトピックを取り上げます。彼らは、データセット内のすべてのデータ ポイントの最大確率を与える重みを見つける際の最尤技術の使用について説明しています。次に、講義では、最大事後確率 (MAP)、球面ガウス、および共分散行列の概念を詳しく説明します。講演者は、アプリオリ情報と正則化の使用についても説明します。線形回帰での予想誤差は 2 つの項に分解されます。1 つはノイズを考慮した項、もう 1 つは重みベクトル W に依存する項で、さらにバイアスと分散に分解できます。講義は、事後分布を計算するためのベイジアン学習の使用についての議論で終わります。全体として、この講義では統計的線形回帰に関連する幅広いトピックを取り上げ、予測誤差を減らすためのモデルの最適化に関する貴重な洞察を提供します。
この講義では、より多くのデータ ポイントが観察されるにつれて、真の重みセットに収束する事後分布を推定するベイジアン回帰に焦点を当てます。事前分布は、W naught と W1 のペアにわたる分布であり、直線の分布であることが示されています。データ ポイントを観察した後、事前分布と尤度分布を使用して事後分布が計算され、その結果、ラインの位置に対する確信度が更新されます。予測を行うには、事後分布に基づいて仮説の予測を重み付けして組み合わせて、特定の式で与えられる平均と分散を持つガウス予測を導き出します。実際のポイント予測を取得するコツは、ガウス予測の平均を取ることです。
CS480/680 講義 6: 調査用ツール (パウロ パチェコ)
CS480/680 講義 6: 調査用ツール (パウロ パチェコ)
このビデオでは、Paulo Pacheco が調査用の 2 つの学術ツール、Google Scholar と RefWorks を紹介しています。彼は、Google Scholar を使用して学術論文を検索し、引用によって並べ替える方法を説明し、古い論文をフィルタリングして新しい論文を見つけることを提案しています。 Pacheco は、引用のエクスポートと管理の重要性を強調し、このタスクのためのツールとして RefWorks を紹介します。また、独創的なキーワード検索の使用や、場合によっては大学のネットワーク アクセスや VPN が必要になるなど、学術出版物にアクセスするためのヒントも提供します。
CS480/680 講義 6: Kaggle データセットとコンテスト
CS480/680 講義 6: Kaggle データセットとコンテスト
この講義では、提供されたデータセットを使用して賞金を獲得するためのデータ サイエンス実践者向けのコミュニティである Kaggle について説明します。Kaggle は、機械学習モデルのトレーニングとデータ特徴抽出用のカーネル、およびアルゴリズムの設計に使用する約 17,000 の膨大なデータセットを提供します。講師はまた、企業の GitHub リポジトリが貴重なデータセット、コード、およびコンテストに公開された論文を提供できることにも言及しました。
CS480/680 講義 6: フローの正規化 (Priyank Jaini)
CS480/680 講義 6: フローの正規化 (Priyank Jaini)
このビデオでは、深層生成モデルにおけるフローの正規化について紹介します。これは、既知の分布を対象となる未知の分布に変換することを目的として、ある分布を別の分布に変換する関数を学習する手法です。このビデオでは、フローの正規化に関連するさまざまな論文や進歩の調査の実施、単一ガウスの混合ガウスへの変換の分析など、フローの正規化に関連する可能性のある研究プロジェクトについても説明しています。講師は、フローの正規化のさまざまな応用例を探求することを奨励します。
CS480/680 講義 6: 教師なし単語翻訳 (キラ・セルビー)
CS480/680 講義 6: 教師なし単語翻訳 (キラ・セルビー)
このビデオでは、教師なし単語翻訳について説明しています。これには、言語間情報や辞書照合を行わずに、ある言語との間で翻訳する機械学習モデルのトレーニングが含まれます。 Muse モデルは、言語間の情報を一切使用せずに数百の言語で最先端の精度を達成でき、パフォーマンスにおいて教師ありモデルに近づくアプローチとして導入されました。教師なし単語翻訳のプロセスでは、GAN または敵対的生成ネットワークを使用して、さまざまな言語の単語の埋め込みスペースを翻訳するマトリックスが使用されます。これら 2 つのモデルを相互にトレーニングすることにより、2 つの分布を 1 つの空間にマッピングする方法が作成され、より良い変換結果が得られます。このモデルは、単語から単語への翻訳において 82.3% の精度を達成できます。
CS480/680 講義 6: ファクトチェックと強化学習 (Vik Goel)
CS480/680 講義 6: ファクトチェックと強化学習 (Vik Goel)
コンピューター科学者の Vik Goel は、オンライン ニュースの事実確認における強化学習の応用について議論し、推奨システムを使用して裏付けとなる証拠をリアルタイムで挿入することを提案しています。彼は、引用が必要な場所を予測する分類器をトレーニングするためのデータ ソースとして学術論文の大規模なコーパスを使用することを提案しています。さらに、ゴエル氏は、プロセスを加速し、ビデオ ゲーム内のさまざまなオブジェクトを認識するために、研究者がどのようにして人間の事前分布を強化学習モデルにエンコードし始めたかについて説明します。これは、事前分布を追加することで学習プロセスを改善できる有望な研究領域を示しています。
CS480/680 講義 6: 和積ネットワーク (Pranav Subramani)
CS480/680 講義 6: 和積ネットワーク (Pranav Subramani)
この講義では、和と積で構成されるネットワークである和積ネットワーク (SPN) の概念について説明します。これは、非指数関数的な実行時間を生成する扱いやすい確率モデリングに使用され、解釈可能性や容易な限界密度計算などの多くの用途があります。このビデオでは、畳み込みニューラル ネットワークでの SPN の優れたパフォーマンス、GAN や変動水エンコーダーなどのモデルと組み合わせた場合のより優れた生成モデルの構築の可能性、敵対的堅牢性、強化学習シナリオ、予想されるユーティリティのモデリングなどの未開発の SPN の潜在的な研究分野についても言及しています。ゲームで。モデルを解釈する理論的な保証と、学者が機械学習の分野で重要な貢献をする機会も強調されました。
CS480/680 講義 6: EM および混合モデル (Guojun Zhang)
CS480/680 講義 6: EM および混合モデル (Guojun Zhang)
CS480/680 の講義 6 では、Guojun Zhang 教授が、混合モデルとデータのクラスタリングにおける使用に焦点を当てて、教師なし学習とクラスタリングの基本について説明します。この講義は、期待値最大化アルゴリズムとその Estep および Mstep プロセス、および最適化手法としての勾配降下法を中心に説明します。提案される可能性のあるプロジェクトには、混合モデルの学習において EM と勾配降下法がどのように動作するかを研究することが含まれており、最終的な目標は、悪い極小値を回避するためのより良いアルゴリズムを提案することです。プロジェクトに必要な数学的背景が記載されています。