このビデオでは、スピーカーは固有値、行列式、ピボットなど、線形代数の以前の講義のハイライトをまとめています。これらはすべて、正定行列のテストを提供します。次にスピーカーは、正定行列と不定行列の関係、固有値と行列式との関係、および行列のベクトル X のエネルギーを計算する方法を説明します。スピーカーは、ディープ ラーニング、ニューラル ネットワーク、機械学習、およびエネルギーの最小化の概念についても説明します。凸関数の概念に触れ、深層学習でどのように使用できるかを説明しています。最後に、スピーカーは、正定行列と半正定行列の演習を紹介し、特異値分解の今後のトピックについて簡単に言及します。
00:10:00 このセクションでは、スピーカーは行列のベクトル X のエネルギーを計算する方法を示し、正定行列のエネルギーがゼロより大きいことを示します。この場合、エネルギーは純粋な二次関数であり、トレーニング データと得られた数値の差を最小限に抑えるためにディープ ラーニングで使用される損失関数である可能性があります。行列 3 と 6 の対角数は対角部分を与え、負になる可能性がある交差項は 8 X Y を与えます。
00:30:00 このセクションでは、スピーカーは正定行列と半正定行列の演習を紹介します。話し手は、正定行列 S と正定行列 T の例を示し、それらの加算 S + T が正定行列かどうかを尋ねます。スピーカーは、エネルギー テストを使用してこの質問に答え、方程式を 2 つの部分に分けて、実際に正定であることを示します。スピーカーは、最初のテストを使用して、sin の逆数の陽性についても説明します。スピーカーは、マトリックスが実固有値を持つ前に対称でなければならず、さらに質問を受けることができることに注意します。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
このビデオでは、行列を 3 つの行列に因数分解するために使用される特異値分解 (SVD) の概念について説明します。中央の行列は対角であり、特異値が含まれています。 SVD は、A、シグマ、および V の関係を理解するのに役立ち、最終的に方程式を解くのに役立ちます。このビデオでは、SVD における直交ベクトル、固有ベクトル、固有値の重要性について説明し、A 行列と V 行列の直交性を強調しています。このビデオでは、SVD プロセスのグラフィカル表現と行列の極分解についても説明しています。最後に、ビデオでは、SVD を使用して大きなデータ マトリックスの最も重要な部分を抽出するプロセスについて説明します。
00:00:00 このセクションでは、インストラクターは、固有値に似ていますが、矩形行列に適用できる特異値分解 (SVD) の概念について説明します。固有ベクトルは複素数であるか、または直交していないため、固有値は四角行列には適していません。 SVD は、固有ベクトルと固有値の代わりに、特異ベクトルと特異値の 2 つのセットをそれぞれ導入します。 SVD の鍵は、転置 a が正方行列であり、長方形の行列の積を表す優れた行列であるということです。 SVD を実行するための最初のステップは、任意の行列を u × シグマ × V 転置に因数分解できることを示すことです。
00:05:00 このセクションでは、スピーカーは行列 A 転置 A の因数分解について説明し、固有ベクトルと固有値の概念を紹介します。行列には正定の固有値があり、平方根の計算に使用されます。この行列の固有ベクトルは、正方、対称、および正定値です。結果の行列の固有値は同じですが、固有ベクトルは異なります。次にスピーカーは、A の因数分解について話します。ここでは、直交ベクトル U のセットを取得するために A を乗算できる直交ベクトル V のセットを探します。これらのベクトルは、特異値分解 (SVD) を計算するために使用されます。 )。 SVD の目標は、A を 3 つの行列に因数分解することです。ここで、中央の行列は対角であり、A の特異値を含みます。
00:10:00 このセクションでは、出力空間における V の直交特性の概念を、空間が列空間、ヌル空間などに分割される線形代数の全体像で調べます。 V に a を掛けると、結果の使用も直交し、V が特別になることが示されています。方程式の行列形式が提示され、転置 a を見ることによって、直交および正規直交の使用法を見つける問題を単純化できることが明らかになります。転置 a は対称で、正定値であり、V の性質を示す対角形式を持つと結論付けられます。
00:15:00 このセクションでは、スピーカーは特異値分解 (SVD) の概念について説明します。 SVD の V は、A の転置の固有ベクトルです。シグマ転置シグマは、A 転置 A の固有値です。SVD は、2 重または 3 重の固有値の固有ベクトルを理解する最終ステップを実行することによって確立されます。 SVD は、A、シグマ、および V の関係を理解するのに役立ちます。これは、最終的に、A × A 転置 × X = B のような方程式を解くのに役立ちます。
00:20:00 このセクションでは、選択した基底ベクトル U が直交していることを証明する特異値分解 (SVD) プロセスの最終ステップについてスピーカーが説明します。そうするために、スピーカーは、U1 と U2 の内積がゼロに等しいことを示します。 U1 は AV1/Sigma1 であり、U2 は AV2/Sigma2 であるため、分数の分母が相殺され、V1 転置に行列 V2 を掛けたもの、つまり Sigma2 転置 V2 が残ります。 V2 は A 転置 A の固有ベクトルであるため、U1 と U2 の間の内積はゼロに等しく、基底ベクトル U が直交することが証明されます。
00:25:00 このセクションでは、スピーカーは、特異値分解 (SVD) における A 行列と V 行列の直交性、および固有ベクトルとの関係について説明します。 A 行列と V 行列は、それぞれ列と行の空間で互いに直交することが示されています。次にスピーカーは、データ マトリックスにおけるこの関係の発見の歴史と重要性について説明します。話者は、SVD の計算に A 転置 A を使用しないように警告します。これは、計算コストが高く、丸め誤差に対して脆弱である可能性があるためです。最後に、話者は図を使用して、SVD 要因が一連の回転とストレッチとしてどのように考えられるかを説明します。
00:30:00 このセクションでは、特異値分解 (SVD) の概念を、プロセスをグラフィカルに表現して説明します。このビデオでは、直交行列が単位ベクトルをどのように回転させ、シグマがそれらをどのように伸ばして楕円になるかを示しています。最後に、楕円を回転させる直交行列 U が適用されます。行列が正定かつ対称である場合、U は V と同じであり、最初に入力として与えられた S は A 出力と同じです。このビデオでは、因数分解のパラメーターをカウントする方法についても説明しています。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
この YouTube ビデオでは、講師が主成分分析 (PCA) の概念を説明しています。これは、データのマトリックスを理解し、そこから意味のある情報を抽出するために使用されます。最も重要な情報を含む行列の最大 k 個の特異値の重要性が強調され、特異値分解の最初の k 個の部分がランク k 行列の最良の近似を提供するという Eckart-Young の定理が強調されます。 、紹介されています。スピーカーは、l2、l1、および無限大のノルムを含む、ベクトルと行列のさまざまなタイプのノルムについても説明します。 Netflix のコンペティションと MRI スキャンにおけるフロベニウス ノルムの重要性が、A に最も近いランク k 行列の概念とともに強調されます。スピーカーは、元の行列のプロパティを維持するための直交行列の使用についても説明し、その概念を紹介します。特異値分解 (SVD) とそれが PCA にどのように関係するかについて説明します。最後に、長方形行列 A とその転置を含む連立方程式を解くことの重要性と、特定のデータセットの年齢と身長の最適な比率を見つける際の SVD 法の使用について説明します。
00:00:00 このセクションでは、データのマトリックスを理解するために使用されるツールである主成分分析 (PCA) の概念について講師が説明します。彼は、データをすべてコピーするのではなく、データから意味のある情報を抽出することの重要性を強調しています。彼は、行列の最大の k 個の特異値に最も重要な事実が含まれており、K がランク K 行列の最良の近似値であると説明しています。特異値分解の最初の K 個を使用することがランク K 行列の最良の近似値であるという Eckert-Young の定理が紹介され、講師は行列のノルムのさまざまな尺度について説明します。
00:20:00 このセクションでは、スピーカーは A に最も近いランク k 行列の概念について説明します。核の規範。与えられた例はランク 4 の行列であり、ランク 2 の最良の近似値を見つけるために、話者は 4 と 3 を 2 つの最大値として選択します。他の行列 B は、この選択された行列よりも A から離れていますが、ノルムに依存するため明らかではありません。定理の要点は、A に最も近いランク k 行列を見つけるのは容易ではなく、証明が必要であるということです。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
00:05:00 このセクションでは、ベクトルと行列のノルムの概念について説明します。講師は、圧縮センシングと信号処理の分野で不可欠な L1 ノルムや最大ノルムなどのさまざまな種類のノルムを紹介します。彼は、P ノルムは、P 乗と P 乗をここで P に等しくすると説明しています。ここで、P 乗と P ルートを取得すると、V のノルムと比較して 2 倍の係数を持つ 2 つの V のノルムが得られます。さらに、ゼロノルムが導入され、ゼロでない成分の数が行列とベクトルのスパース性の尺度を与えます。ただし、同じ数の非ゼロ成分が同じノルムを持つというルールに違反しているため、それはノルムではなく、適切なノルムが存在する1と無限の間の数学論文が議論されています。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
00:15:00 このセクションのビデオでは、可逆行列の SVD (特異値分解) について説明しています。ここで、SVD は V を U に、またはその逆に戻します。マトリックスが可逆でない場合、その SVD では、長方形のシグマ マトリックスを疑似逆マトリックスに置き換える必要があります。このビデオは、2 つの独立した列を持つ行列の例を示しています。ここで、シグマには非ゼロが 2 つしかなく、残りはゼロであり、完全な特異な状況を表しています。結果として、最適なオプションは、シグマ逆数の代わりにシグマの疑似逆数を使用することです。
00:20:00 このセクションでは、シグマの疑似逆数であるシグマ プラスの概念が、反転できない長方形行列のソリューションとして紹介されています。疑似逆行列は、式 ax が B に等しいが、a が可逆でない最小二乗問題を解くために使用されます。この問題は、測定値またはノイズが多すぎる場合に発生します。シグマ プラス行列は、列空間のベクトルを取得するために使用されますが、直交空間のベクトルは解けないと見なされます。最小二乗問題を解く最初の方法は、シグマ プラス行列を使用して解を求めることです。
00:25:00 このセクションでは、スピーカーは線形方程式系を使用して、ノイズの多い測定値に直線を適合させる最小二乗問題について説明します。彼らは、測定値が線上にある場合、線形システムには解があると説明していますが、一般的にはそうではありません。次に、L2 ノルムの二乗を使用して、ax + b と実際の測定値との間の距離を最小化するというアイデアを紹介します。この手法は Gauss によって提案され、測定値に最も近い直線を表す方程式 Cx + D で C と D の最良の値を見つけるために使用されます。
00:30:00 このセクションでは、スピーカーは最小二乗法の概念と、それを使用して線形回帰と統計で解決できない問題を解決する方法について説明します。二次損失関数を最小化することにより、ガウスのアドバイスに従って、最終的に最良の答えを与える一次方程式のシステムが生成されます。最良の X は、式 a 転置 a × X が転置 B に等しいという式を解くことによって見つけられます。これにより、最小値が得られます。次にスピーカーはグラフを描き、A の列空間の概念と、B が列空間にないこと、および平方と正規方程式がどのように最適な AX につながるかを説明します。
00:40:00 このセクションでは、話者は、ヌル スペースがゼロの場合、疑似逆法からの答えは、転置 a 逆 a 転置 B の方法から得られる答えと同じであると説明します。スピーカーは、転置のヌル空間は可逆ではないが、転置 a は可逆であることに注意します。さらに、スピーカーは、行列 aa 転置が逆になるように最善を尽くしているが、十分に近いものではないと説明しています。疑似逆数は、ランクが等しい場合に機能することが示されています。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
数値線形代数に関するこの講義では、Ax=b 形式の線形方程式を解くことの難しさについて説明します。これらの問題は、行列 A がほぼ特異であり、その逆行列が不当に大きくなる場合、および実行可能な時間内に解くことが不可能な巨大な行列では問題が大きすぎる場合に発生します。講師は、問題を解決するためのいくつかの可能性を概説します。これは、簡単な通常のケースから、劣決定方程式の非常に難しいケースにまで及びます。ランダム化された線形代数、反復法、および SVD の使用について説明し、特にディープ ラーニングを使用して、テスト データで機能するソリューションを見つけることの重要性について説明します。さらに、講師は、SVD がマトリックスの問題を診断するための最良のツールであることを強調しています。
00:00:00 このセクションでは、講師は、方程式 Ax = B を解こうとするときに発生する可能性のある問題について説明します。彼は、問題がさまざまなサイズとランクで発生する可能性があり、ほぼ特異である場合とほぼ特異でない場合があることに注意します。彼は、合理的な条件数を持つ正方行列の簡単な通常のケースから、劣決定方程式の非常に難しいケースまで、問題を解決するためのいくつかの可能性を概説しています。後者の場合、講師は問題が深層学習では一般的であり、複数の解決策が存在する可能性があることに注意します。
00:05:00 このセクションでは、講師が Ax = b の難しい問題とそのアプローチ方法について説明します。これらの問題は通常、行列の列がほぼ従属関係にある場合に発生し、特定の行列の列 a1、a2 から an までを受け入れることが困難になります。これに対する解決策は、Gram-Schmidt を使用し、列を直交化して固定することにより、その列空間で正規直交列ベクトルを見つけることです。講師は、Gram-Schmidt の議論を次の講義に保存しますが、列の並べ替えを可能にする列のピボットの重要性をプレビューします。これは、排除にも適用できる概念です。
00:10:00 このセクションでは、講師は Ax=b 形式の線形方程式を解く際の難しさについて説明します。これには、行列がほぼ特異であり、その逆行列が不当に大きくなる可能性も含まれます。講師は逆問題についても話します。これは通常、システムの出力はわかっているが、ネットワークの構造または入力を決定する必要がある問題です。これらの問題は多くの場合、ほぼ特異な行列を与えるため、問題を最小限に抑えるためにペナルティ項を追加せずにシステムを正確に解くことは困難です。 Leu と QR の世界、行交換、および Gram-Schmidt 直交化についても言及されています。
00:15:00 このセクションでは、Ax=b 法を使用して一次方程式を解く際の困難について学びます。そのような問題の 1 つは、行列 A の条件が悪く、ベクトルがゼロに近づき、転置 a の巨大な逆数になる場合です。これに対抗するには、A にペナルティを課す必要があります。これにより、A はより適切に調整されますが、問題はどれだけペナルティを課すかを決定することにシフトします。もう 1 つの方法は、共役勾配法などの反復法です。この方法では、正確な答えが十分に近づくまで、正確な答えにどんどん近づいていきます。問題が大きすぎて実現可能な時間内に解くことが不可能な巨大な行列の場合、ランダム化された線形代数を使用して行列の列と行をサンプリングし、サンプルから答えを提供します。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
00:40:00 このセクションでは、スピーカーは、Ax = b を条件として「x」を最小化するための適切な基礎を持つことの重要性について説明します。計算を容易にするためには、基底を直交化する必要があります。ここで、ノルデとランのショーが貢献します。直交基底は射影に最適であり、スピーカーは計算を容易にする方程式を説明します。 Q が直交している場合、係数 C は、与えられたベクトル X と各 Q の内積を計算し、次に Q 転置を適用することによって簡単に見つけることができます。これにより、問題を効率的に解決できます。
00:45:00 講義のこのセクションでは、スピーカーは、基底の概念と、グラム-シュミットまたはクリロフ ベクトルを使用して適切な基底を見つける方法について説明します。講演者は、この場合はグラム-シュミット法を使用することが望ましいことを指摘し、数値線形代数に関する本のセクション 2.1 にも言及します。このセクションには、クリロフ、アーノルディ、ランチョスなどの分野で一般的な手法がまとめられています。彼は、このトピックについてさらに学びたい人のための優れた教科書として、Golub と van Loan による「Numerical Linear Algebra」を推奨しています。
00:50:00 ビデオのこのセクションで、講演者は、Ax=b を前提として x を最小化する問題が終了し、非常に大きな行列を処理する問題に取り組んでいると述べています。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
このビデオでは、固有値と特異値を計算するための QR 法が紹介されています。このプロセスでは、目的の行列から開始し、それを QR に因数分解して、非直交基底を直交基底に接続する上三角行列 R を作成します。このプロセスは対角要素が小さくなるまで繰り返され、その時点でそれらを使用して固有値を近似できます。講演者は、固有ベクトルを計算してプロセスを高速化するためのシフト法についても説明します。対称行列に MATLAB を使用する利点も強調されています。このビデオでは、大きな行列の固有値問題を解くためのクリロフ ベクトルの概念についても触れています。
00:00:00 このセクションでは、教授が行列の固有値と特異値を計算するための QR 法を紹介します。 QR 法では、固有値が必要な行列から開始し、それを QR に因数分解します。行列の列は、それらを直交化し、非直交基底を直交基底 (上三角) と接続する行列 R を作成することにより、直交基底に変換されます。次に、この方法では順序を逆にして同じことを繰り返して、次の行列を生成します。教授は、固有値は変換の前後で同じであり、行列は類似していると主張しています。これは、行列の特異値を計算するのに役立ちます。
00:05:00 このセクションでは、教授が QR 分解を使用して固有値を計算するプロセスを説明します。このプロセスでは、結果の行列の対角要素が非常に小さくなるまで、QR 分解を複数回繰り返します。この時点で、対角要素は元の行列の実際の固有値に近くなり、それらを近似するために使用できます。教授はまた、非対角エントリが 3 乗されて急速にゼロに近づき、メソッドが非常に正確になるという、メソッドの高速収束も強調しています。
00:10:00 このセクションのビデオでは、固有ベクトルを計算するためのアルゴリズムの改善について説明しています。これには、シフトの導入が含まれます。行列 A を使用する代わりに、行列 A - siI を使用します。ここで、si は単位行列の倍数です。これは、行列 A のすべての固有値を si だけシフトします。次に、このシフトされた行列を処理し、グラム-シュミット プロセスを実行し、順序を逆にして A にできるだけ近い行列を取得します。最後に、シフトを元に戻して、新しい行列 A1 を取得します。 A1 は依然として A に似ていますが、計算時間はより高速です。
00:15:00 このセクションでは、教授が行列の固有値を計算するための QR 法について説明します。彼は、QR 法を使用して行列の下三角部分が消え始め、固有値が対角線上に現れ始めることを示す不完全な例を示しています。次に教授は、元の行列のゼロを利用して QR 法の効率を改善する方法について説明します。ゼロを含む余分な対角線がある場合、QR 因数分解プロセスのいくつかのステップをスキップすることで、メソッドを高速化できます。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
このビデオ講義では、ランダム化された行列乗算の概念について説明します。これには、行列 A の列と対応する行列 B の行を、合計が 1 になる確率でサンプリングすることが含まれます。無作為標本の平均値を計算して正しい答えを得ることができますが、それでも分散があります。講義では、平均と分散の概念と、分散を最小化する最良の確率を選択する方法について説明します。このプロセスでは、ラムダと呼ばれる未知の変数を導入し、それに関する導関数を取得して最適な PJ を見つけます。次に、行列のどの列が大きいか小さいかを調べるときに、確率をどのように重み付けするかという問題に焦点が移ります。講師は 2 つの可能性を提案します: ノルムの 2 乗に従って確率を重み付けするか、行列の列を混合して等しい確率を使用します。全体として、このビデオでは、ランダム化された行列の乗算と、最小の分散を得るために確率を最適化するプロセスについて詳しく説明しています。
00:00:00 ビデオのこのセクションでは、スピーカーは、ランダム化された行列乗算の概念を説明します。これは、ランダム化された線形代数に該当するアイデアです。この方法は、行列 A の列と対応する行列 B の行をサンプリングすることによって大きな行列に使用されますが、それらすべてではありません。代わりに、合計 1 になる確率でさまざまなピースがランダムにサンプリングされます。無作為標本の平均値を計算することにより、正しい答えを得ることができますが、それでも分散があります。目標は、分散を最小化する最良の確率を選択することです。講義では、平均と分散の概念について説明し、例を使って練習します。
00:35:00 このセクションでは、スピーカーは PJ の値を代入し、分母を JP j bj ノルムの JPG の合計に単純化します。最初の累乗を合計して C を取得することにより、話者は分散の式を取得します。 s 個のサンプルを取得してそれらを組み合わせた後、分散は固定数になります。これは、小さくしたい C です。話者は、a の長さと B の長さの積に基づいて確率の重みを選択することにより、これが最良の選択であることを示したいと考えています。
00:40:00 このセクションでは、スピーカーは、行列 A の行または列と行列 B の行の確率 P1 から PR を最適化する最終ステップについて説明します。ただし、これらの合計が 1 になるという制約が適用されます。最適な PJ を選択して分散式を最小化することです。講演者は、最適な PJ を見つけるために、ラムダと呼ばれることが多い未知の数を導入することによって関数に制約を組み込むラグランジュのアイデアを紹介します。このセクションでは、ランダム化されたサンプリングの説明を終了し、最後のサブ問題に進みます。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
このビデオでは、低ランク行列の概念と関数行列におけるそれらの重要性、特に単純な 1 行 1 列の行列に関して N 行 n 列の行列の逆を求める逆行列式について説明します。この式は、摂動のランクが低い行列の逆行列を見つけるのに役立ち、逆行列を見つけるプロセスを簡素化できます。スピーカーは、2 番目のマトリックスの式を提示することで式がどのように機能するかを示し、答えに到達するために同じロジックがどのように適用されたかを示します。このビデオでは、特に最小二乗問題とカルマン フィルターにおける、この式の実用的なアプリケーションについても説明します。
00:00:00 このセクションでは、低ランク行列の概念と関数行列におけるその重要性について教授が説明します。焦点となるトピックは、逆行列の公式と呼ばれる有名な公式であり、A の下位変化とその逆行列としても知られています。この式は、UV 転置を使用し、それを 1 から V × U の転置を引いたもので割った、より単純な 1 行 1 列の行列に関して、N 行 n 列の行列の逆行列を求めます。摂動をランク付けし、逆数を見つけるプロセスを簡素化するために使用できます。教授は、この式がどのように機能するか、およびその実用的なアプリケーションについて説明します。
00:05:00 このセクションでは、スピーカーは行列をランク 1 で変更すると、逆行列がランク 1 でどのように変化するかについて説明します。彼が提示する式は、1 x 1 の逆数に関して N x n の逆数を計算します。これは非常に便利です。次に、スピーカーは、要求された逆行列を元の行列で乗算し、恒等行列を取得することを期待して、式を確認する方法を示します。スピーカーは、2 番目のマトリックスの式を提示することで式がどのように機能するかを示し、答えに到達するために同じロジックがどのように適用されたかを示します。
00:10:00 行列 A の下位変化とその逆の式。この式は、N × n 行列の逆数をとることを含みますが、恒等行列の摂動が小さい K × K 行列に切り替えることができます。この式はチェックによって真であることが示され、行列 A を摂動するのに役立ちます。この式を発見した個人の名前もリストされています。
00:15:00 このセクションでは、スピーカーは、低ランクの行列 A の逆行列を取るときに発生する変化について議論しています。彼らは代数操作を使用して、A の逆行列を取るときに、特定の項があることを示します。省略され、簡略化された表現につながります。スピーカーは、公式が恒等行列を生成することを確認することで公式を証明できる一方で、そもそも公式がどのように導き出されるかを検討することが重要であることに注意します。彼らは、式を使用して、最小二乗法で新しい測定値または観測値を使用して線形システムを解くことを提案しています。
00:20:00 このセクションでは、スピーカーは、最小二乗問題を解くときに新しい測定値を処理する方法を説明します。方形行列 A を使用して、もう 1 つの測定点またはデータ ポイントを解に追加すると、新しい行列と右辺が求まります。ただし、行列の乗算 A^TA を再計算する代わりに、スピーカーは行列を新しい測定値で拡張し、転置し、それを使用して更新された解を計算する方法を説明します。既に計算されたものを使用することで、最小二乗問題をより計算効率よく解くことができます。
00:25:00 このセクションでは、スピーカーは摂動 A とその逆関数を新しいデータで説明します。これにより、A 転置 A でランク 1 の変化がもたらされます。この概念は最小二乗問題に適用でき、カルマン フィルターはこのアプローチを使用する再帰的最小二乗法。カルマン フィルターは、新しいデータを追跡し、ソリューションを更新することによって、ミサイルや衛星の誘導に利用されます。これは、この概念の実際の重要なアプリケーションです。
00:40:00 このセクションでは、スピーカーは、さまざまな問題のソリューションを組み合わせて逆行列を見つける方法を説明します。行列 A を Lu に因数分解することにより、難しい作業はすべて左側で行われ、さまざまな右側の解を見つけるには、逆代入のみが必要です。 Sherman-Morrison-Woodbury の式を使用すると、解 W と Z を組み合わせることで答え X を得ることができます。この式は、Sherman-Morrison Woodbury に由来する項によって解 W を変更し、分子の項は の倍数です。 Z×X。
00:45:00 このセクションでは、スピーカーは行列 A の低ランクの変更がその逆にどのように影響するかについて説明し、K x K 行列を切り替えて反転することで N x N 行列を反転する式を提供します。この式には、反転のコピーを減算し、他のいくつかの部分を追加することが含まれ、最終的に元の反転に対してランク K の変更が行われます。講演者は、この式には実際的な応用があることに注意し、後で参照できるように視聴者に書き留めるよう勧めています。
00:50:00 このセクションでは、スピーカーは K 行 K 列の行列の逆数について説明し、前の 1 時間と 50 分で説明された式が豊富であることを認めます。このセクションは、メモがいくつかのアプリケーションをカバーし、低ランクの他の側面に対処することに移ることを述べて締めくくります。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
講義 5. 正定行列と半正定行列
5. 正定行列と半正定行列
このビデオでは、スピーカーは固有値、行列式、ピボットなど、線形代数の以前の講義のハイライトをまとめています。これらはすべて、正定行列のテストを提供します。次にスピーカーは、正定行列と不定行列の関係、固有値と行列式との関係、および行列のベクトル X のエネルギーを計算する方法を説明します。スピーカーは、ディープ ラーニング、ニューラル ネットワーク、機械学習、およびエネルギーの最小化の概念についても説明します。凸関数の概念に触れ、深層学習でどのように使用できるかを説明しています。最後に、スピーカーは、正定行列と半正定行列の演習を紹介し、特異値分解の今後のトピックについて簡単に言及します。
講義 6. 特異値分解 (SVD)
6. 特異値分解 (SVD)
このビデオでは、行列を 3 つの行列に因数分解するために使用される特異値分解 (SVD) の概念について説明します。中央の行列は対角であり、特異値が含まれています。 SVD は、A、シグマ、および V の関係を理解するのに役立ち、最終的に方程式を解くのに役立ちます。このビデオでは、SVD における直交ベクトル、固有ベクトル、固有値の重要性について説明し、A 行列と V 行列の直交性を強調しています。このビデオでは、SVD プロセスのグラフィカル表現と行列の極分解についても説明しています。最後に、ビデオでは、SVD を使用して大きなデータ マトリックスの最も重要な部分を抽出するプロセスについて説明します。
講義 7. Eckart-Young: A に最も近いランク k 行列
7. Eckart-Young: A に最も近いランク k 行列
この YouTube ビデオでは、講師が主成分分析 (PCA) の概念を説明しています。これは、データのマトリックスを理解し、そこから意味のある情報を抽出するために使用されます。最も重要な情報を含む行列の最大 k 個の特異値の重要性が強調され、特異値分解の最初の k 個の部分がランク k 行列の最良の近似を提供するという Eckart-Young の定理が強調されます。 、紹介されています。スピーカーは、l2、l1、および無限大のノルムを含む、ベクトルと行列のさまざまなタイプのノルムについても説明します。 Netflix のコンペティションと MRI スキャンにおけるフロベニウス ノルムの重要性が、A に最も近いランク k 行列の概念とともに強調されます。スピーカーは、元の行列のプロパティを維持するための直交行列の使用についても説明し、その概念を紹介します。特異値分解 (SVD) とそれが PCA にどのように関係するかについて説明します。最後に、長方形行列 A とその転置を含む連立方程式を解くことの重要性と、特定のデータセットの年齢と身長の最適な比率を見つける際の SVD 法の使用について説明します。
講義 8: ベクトルと行列のノルム
講義 8: ベクトルと行列のノルム
この講義では、L1 ノルムや最大ノルムを含むベクトルと行列のノルムの概念と、圧縮センシングや信号処理などの分野への応用について説明します。講義では、ノルムにおける三角不等式の重要性、s ノルムの形状、ベクトルと行列の L2 ノルムの関係についても説明します。さらに、この講義では、ニューラル ネットワークを最適化するための推測として残っているフロベニウス ノルムと核ノルムを探り、学生と一緒に教え、学ぶことの重要性を強調します。
講義 9. 最小二乗問題を解く 4 つの方法
9. 最小二乗問題を解く 4 つの方法
このビデオでは、インストラクターが最小二乗法の概念とそれにアプローチするさまざまな方法について説明します。彼は最小二乗法の重要性を強調しています。最小二乗法は線形代数の本質的な問題であり、コース全体をまとめる接着剤として機能するからです。このビデオでは、行列の疑似逆行列、可逆行列と非可逆行列の SVD、ガウスの計画や直交列など、最小二乗問題を解くためのさまざまな方法について説明します。このビデオでは、L2 ノルムの 2 乗を使用して ax + b と実際の測定値との間の距離を最小化するという考え方と、それが線形回帰と統計にどのように関連するかについても説明しています。さらに、ビデオは、機械学習や深層学習などの分野に焦点を当てた、コースで学習した資料を使用するプロジェクトへの洞察を提供します。
講義 10: Ax = b の難しさの調査
講義 10: Ax = b の難しさの調査
数値線形代数に関するこの講義では、Ax=b 形式の線形方程式を解くことの難しさについて説明します。これらの問題は、行列 A がほぼ特異であり、その逆行列が不当に大きくなる場合、および実行可能な時間内に解くことが不可能な巨大な行列では問題が大きすぎる場合に発生します。講師は、問題を解決するためのいくつかの可能性を概説します。これは、簡単な通常のケースから、劣決定方程式の非常に難しいケースにまで及びます。ランダム化された線形代数、反復法、および SVD の使用について説明し、特にディープ ラーニングを使用して、テスト データで機能するソリューションを見つけることの重要性について説明します。さらに、講師は、SVD がマトリックスの問題を診断するための最良のツールであることを強調しています。
講義 11: 最小化 ‖x‖ 条件 Ax = b
講義 11: 最小化 ‖x‖ 条件 Ax = b
この講義では、スピーカーは数値線形代数に関連するさまざまなトピックを扱います。彼らは、Ax=b を解くときに発生する可能性のある問題について議論することから始め、次に、空間の直交基底を見つけるためのグラム-シュミット法、および Ax = b を条件として「x」を最小化するための修正されたグラム-シュミット法に移ります。 .講演者はまた、より専門的なグラム シュミット アルゴリズムにおける列交換または列ピボットの概念を紹介し、行列 A の列を正規化するための標準的なグラム シュミット プロセスの改善について説明します。また、クリロフ空間の考え方にも触れます。問題 Ax=b を解くため、および Ax = b の条件で ‖x を最小化するための適切な基礎を持つことの重要性。最後に、彼らは、Ax=b を前提として x を最小化する問題を終了し、非常に大きな行列を扱う問題に取り組んでいると述べています。
講義 12. 固有値と特異値の計算
12. 固有値と特異値の計算
このビデオでは、固有値と特異値を計算するための QR 法が紹介されています。このプロセスでは、目的の行列から開始し、それを QR に因数分解して、非直交基底を直交基底に接続する上三角行列 R を作成します。このプロセスは対角要素が小さくなるまで繰り返され、その時点でそれらを使用して固有値を近似できます。講演者は、固有ベクトルを計算してプロセスを高速化するためのシフト法についても説明します。対称行列に MATLAB を使用する利点も強調されています。このビデオでは、大きな行列の固有値問題を解くためのクリロフ ベクトルの概念についても触れています。
講義 13: ランダム化された行列の乗算
講義 13: ランダム化された行列の乗算
このビデオ講義では、ランダム化された行列乗算の概念について説明します。これには、行列 A の列と対応する行列 B の行を、合計が 1 になる確率でサンプリングすることが含まれます。無作為標本の平均値を計算して正しい答えを得ることができますが、それでも分散があります。講義では、平均と分散の概念と、分散を最小化する最良の確率を選択する方法について説明します。このプロセスでは、ラムダと呼ばれる未知の変数を導入し、それに関する導関数を取得して最適な PJ を見つけます。次に、行列のどの列が大きいか小さいかを調べるときに、確率をどのように重み付けするかという問題に焦点が移ります。講師は 2 つの可能性を提案します: ノルムの 2 乗に従って確率を重み付けするか、行列の列を混合して等しい確率を使用します。全体として、このビデオでは、ランダム化された行列の乗算と、最小の分散を得るために確率を最適化するプロセスについて詳しく説明しています。
講義 14. A の下位変化とその逆数
14. A の下位変化とその逆数
このビデオでは、低ランク行列の概念と関数行列におけるそれらの重要性、特に単純な 1 行 1 列の行列に関して N 行 n 列の行列の逆を求める逆行列式について説明します。この式は、摂動のランクが低い行列の逆行列を見つけるのに役立ち、逆行列を見つけるプロセスを簡素化できます。スピーカーは、2 番目のマトリックスの式を提示することで式がどのように機能するかを示し、答えに到達するために同じロジックがどのように適用されたかを示します。このビデオでは、特に最小二乗問題とカルマン フィルターにおける、この式の実用的なアプリケーションについても説明します。