MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Suvrit SraView the complete course: https://ocw.m...
00:15:00 このセクションでは、スピーカーは TensorFlow のプレイグラウンドと呼ばれる Web サイトについて説明します。これにより、ユーザーは非線形関数を使用して X の関数 f を作成できます。 Web サイトでは、正のセットと負のセットを分離する関数のゼロ セットをプロットし、その間にゼロを配置します。この Web サイトでは、データを学習する関数 f を見つけるのに不可欠なレイヤーと各レイヤーのニューロンの数をユーザーが決定できます。講演者は、このプロセスにおける線形関数の重要性についても言及し、練習に適した畳み込みニューラル ネット Web サイトの推奨事項を求めています。関数 f は、5 つのコンポーネントを持つ X のベクトル、6 つのニューロンを持つ層 1、および 1 つの数値の出力層の形式を持ちます。
00:20:00 このセクションでは、講演者は深層学習用のニューラル ネットワークの構造について説明します。彼らは、ニューラルネットの基本構造を説明することから始めます。これには、出力 Y を計算するための重みの行列が含まれます。しかし、深層学習のために複数の層を追加すると、プロセスはより複雑になります。各レイヤーは、データについてより多くを学習することになっています。最初のレイヤーは基本的な事実を学習し、後続の各レイヤーはより詳細を学習します。最後に、スピーカーは、ニューラル ネットワークがどのように詳細なマップを含み、各コンポーネントに関数を適用して最終的な出力を取得するかについて説明します。
00:35:00 このセクションでは、話者は平面を n 回折り曲げることによっていくつの平らなピースが得られるかという問題について説明します。この問題は、関数 f の自由度と、十分な倍数を取ることで任意の連続関数を近似できるかどうかを理解する上で不可欠です。話者は、答えはイエスであり、このクラスの機能は普遍的であることに注意します。さらに、このセクションでは、コンピュータ サイエンスのより広い分野、特にニューラル ネットワークにおいて、この概念を理解することの重要性についても触れています。
00:40:00 このセクションでは、スピーカーは、折りたたまれた紙片の平らな部分の数に関する数学的な問題について説明します。彼らは、紙をもっと折ると何枚になるかを尋ね、問題を解くための再帰式を作成しようとします。発表者は、これまでに見つけた数を提示し、m 次元の面を持つ n 折りの紙の平面部分の数の式を考え出す必要があることを説明します。再帰式が見つかったら、再帰式に追加する予定です。
00:45:00 このセクションでは、話者は視覚的な例を使用して、高次元空間でカットを行うことによって作成されるピースの数の公式を説明します。二項数を使用すると、任意の M 次元と N 次元に式を適用できます。スピーカーは、式の使用方法を示すために、N が 3 に等しく、M が 2 に等しい例を提供します。最後に、この式は、0 から M までの二項数に等しい M 次元のエンフォールドを持つ R として表されます。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
00:40:00 ビデオのこのセクションでは、話者は、バックプロパゲーションを使用して偏導関数を見つける方法を説明します。彼らは、連鎖則を使用して X と Y に関する偏導関数を見つける例を示し、逆伝播により、変数ごとに個別の連鎖ではなく、1 つの連鎖からすべての導関数を見つけることができることを強調しています。講演者は、このプロセスは任意のサイズのシステムに適用できることを指摘し、確率的勾配降下法の収束について簡単に言及します。これについては、今後の講義で取り上げます。
00:45:00 このセクションでは、スピーカーは 3 つの行列 (A、B、C) を乗算する 2 つの異なる方法と、そのために必要な演算の数について説明します。最初の方法では、A を BC で乗算します。これには、M x N x PQ の操作が必要です。ここで、P と Q は、それぞれ B と C の行と列の数です。 2 番目の方法では、AB に C を掛けます。これには、M x P x Q の操作が必要です。講演者は、特に C が列ベクトルの場合、行列を乗算するときに必要な演算の数に注意することが重要であることを強調しています。これは、処理が困難な非常に大きな行列につながる可能性があるためです。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
00:30:00 講義のこのセクションでは、巡回行列の概念が紹介されています。すべての巡回行列は P の多項式であることが示されています。ここで、P は 1 つのシフトを表します。また、2 つの行列が循環行列である場合、それらを乗算すると、別の循環行列が得られることも証明されています。さらに、恒等行列は巡回行列であり、巡回行列が 2 乗される場合、結果の行列も巡回行列になります。巡回行列を乗算するときの目標は、多項式の次数が目的の項数を超えないようにすることです。
00:35:00 このセクションでは、講師がランク 1 行列とサーキュラントについて説明します。 4x4 巡回シフト行列を次数 3 で乗算する場合、なぜ積が次数 6 でないのかという疑問があります。重要なのは、第 4 項への P は実際には 0 項への P であるため、積は巡回畳み込みです。次に講師は、畳み込みと巡回畳み込みの違いを、2 つのベクトル間の畳み込み計算の例を挙げて説明します。彼はまた、巡回畳み込みでは円記号を使用するのに対し、非巡回畳み込みでは円記号を使用しないことを視聴者に思い出させます。
00:40:00 このセクションでは、講師が巡回畳み込みと、巡回行列の乗算に対応する多項式の巡回乗算に使用する方法について説明します。 1 つの因子の桁数の合計に、もう 1 つの因子の桁数の合計を乗算して、畳み込みの桁数の合計を求めます。講師は、これらの行列の固有値と固有ベクトルについても簡単に触れます。すべてが 1 のベクトルは固有値を持つ固有ベクトルであり、これは P のべき乗の多項式和を持ちます。講義は、この分野のより高度なトピックの議論で締めくくられます。
00:45:00 講義のこのセクションでは、スピーカーは行列 C の固有ベクトルが行列 P の固有ベクトルと同じであることを説明します。行列 P の固有ベクトルは 1 と -1、および i と -i です。サーキュラントの世界では、サーキュラントごとに複数の固有値と固有ベクトルがあり、これらは信号処理における重要なルールです。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
00:00:00 このセクションでは、教授が巡回行列のトピックを紹介し、プロジェクトの締め切りと評価に関する最新情報を提供します。彼はまた、エンジニアリングと数学の重要なアルゴリズムである離散フーリエ変換への巡回行列の接続についても言及しています。 n 行 n 列のサイズの行列を定義するのに n 個のエントリしか必要としない特別な形式の巡回行列は、画像の機械学習を含む多くのアプリケーションで役立ちます。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
00:10:00 このセクションでは、講師が関数の畳み込み規則と、それが 2 つの関数のフーリエ変換にどのように接続するかについて説明します。彼は、F が 2 pi の周期的で G が 2 pi の周期的である場合、周期的な畳み込みを実行して 2 pi の周期を持つ答えを得たいと思うかもしれないと述べています。彼は、畳み込みを巡回にすることが乗算にどのように影響するか、および巡回 X には X の代わりに W が使用されることについて話します。
00:15:00 ビデオのこのセクションでは、講師が畳み込みに関する周期的ケースと非周期的ケースの違いについて説明します。周期的な場合、係数 W は、N に対する W が 1 であるというプロパティを持つように定義され、n より大きいベクトルは長さ n のベクトルに折り返すことができます。巡回の場合は、K が 0 から n-1 になることだけを考慮し、合計は 0 から n-1 になるだけです。非周期的なケースでは、畳み込みには P プラス Q マイナス 1 のコンポーネントがあり、この数は最初のラボで計算されます。
00:20:00 このセクションでは、講師は巡回行列、特に順列行列の固有ベクトルと固有値について説明します。固有ベクトルは固有ベクトル行列の列で、「F」で表され、F と C の乗算から派生した 4 つの固有値があります。講師はこの式を実演し、C が P の組み合わせである場合、固有ベクトルの同じ組み合わせにより、行列 C の固有値が得られます。
00:25:00 このセクションでは、講師は乗算と畳み込みの接続である畳み込み規則について説明します。畳み込み規則は、行列の乗算と行列の畳み込みを結び付けます。巡回畳み込みにより、講師が行列 C に行列 D を掛けると、別の巡回行列が得られます。畳み込み C および D の係数は、C × D 行列の対角係数を表します。講師は、C と D は交換して同じ固有ベクトルを持つため、CD の固有値は C の固有値に D の固有値を掛けた値に等しいと結論付けています。固有値は成分ごとに乗算され、畳み込み規則の関係が得られます。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
このビデオでは、勾配降下法または確率的勾配降下法によって最適化され、損失を最小限に抑えるためにトレーニング データに適用される、ニューラル ネットワークの学習関数 f の構築について講演者が説明します。彼は、手描きの絵を使用して、ニューラル ネットワークの概念と学習関数、およびクロス エントロピー損失を含む機械学習で使用されるさまざまな損失関数を説明しています。講演者は、与えられた距離から点の位置を見つける問題についても話します。これは、核磁気共鳴を使用して分子の形状を決定する場合など、さまざまなアプリケーションの古典的な問題です。彼は、ニューラル ネットワークの構造を得るための最終ステップである X の構築について議論することで締めくくり、金曜日にプロジェクトについて議論するボランティアの募集について言及しています。
00:00:00 このセクションでは、勾配降下法または確率的勾配降下法によって最適化され、損失を最小限に抑えるためにトレーニング データに適用される、ニューラル ネットワークの学習関数 f の構築について説明します。学習関数は、変数 X と V の 2 つのセットの関数です。ここで、X は重みで、V はトレーニング データからの特徴ベクトルです。ニューラル ネットの構造には、重みとサンプル ベクトルのセットから f を取得し、非線形ステップを生成し、目的の出力に到達するまでプロセスを繰り返すことが含まれます。線形ステップでは、入力 V0 を取得し、それを行列 AK で乗算し、バイアス ベクトル BK を加算して原点をシフトします。
00:10:00 このセクションでは、スピーカーは手描きの絵を使用して、ニューラル ネットワークと学習機能の概念を説明します。彼は、v1 を乗算したトレーニング サンプル コンポーネントがある図を描きます。これは、最初の層で異なる数のニューロンを持つことができる最初の層であり、それぞれが eze by から取得されます。損失関数は、すべての As と B である x2 を選択して最小化したい関数です。多くの場合、損失関数はすべての F の有限和であり、すべての I について計算できますが、代わりに確率的勾配を使用してそれらの 1 つまたは少数のみを選択します。損失関数は、サンプル I の真の結果を引いたものになります。これを二乗すると、すべてのサンプルで二乗された誤差の二乗和が得られます。
00:35:00 このセクションでは、スピーカーは内積行列 G が与えられたときに行列 X を見つける方法を説明します。まず、行のみに依存する行列と列のみに依存する行列の 2 つのランク 1 行列を分析し、説明します。これらの行列は、内積行列の重要な部分のほとんどを生成します。次に、XI の内積を対角に持つ対角行列を導入し、この行列が与えられた D 行列に関連していることに注意します。そこから、内積行列の方程式を導出する方法を示し、G があれば X を見つけることができると説明します。ただし、内積を変更せずに回転できるため、X は一意ではないため、次のステップは次のとおりです。回転を因数分解する方法を見つけます。
00:40:00 このセクションでは、スピーカーは、ニューラル ネットで恒等行列と X 転置行列の外積を見つけるために使用できる内積行列に関連する方程式について説明します。内積行列は、対角 D 行列、すべての行が同じ定数行列、およびすべての列が同じ定数行列の組み合わせです。スピーカーは方程式を段階的に調べ、各コンポーネントを分解して、X 転置 X 行列がこれらのランク 1 の場所とこれらの外積から来ていることを明らかにします。次に、方程式の半分の意味を調べますが、最終的には、正しい結果を得る必要があると結論付けます。
00:45:00 このセクションでは、スピーカーは行列言語で与えられた方程式を記述する方法と、X を転置した X を与えられた行列 X を最終的に見つける方法について説明します。彼らは線形代数を使用して解を見つけ、X を見つけることができることに注意します直交変換に。議論されている 2 つの主要な方法は、固有値を使用する方法と、X 転置 X で消去を使用する方法です。講演者は、ニューラル ネットワークと機械学習の分野におけるこれらの方法の重要性を強調しています。
00:50:00 このセクションでは、スピーカーは X の構成について説明します。X は対称で半正定値であり、それを見つける 2 つの方法があります。最初のアプローチは固有値構築で、X 転置 X の固有値と固有ベクトルを計算し、固有値の平方根を取得しながら固有ベクトルを保持します。 2 番目のアプローチはコレスキー分解です。コレスキー分解では、対称正定行列に対して消去を実行し、結果の下三角行列 L と対角行列 D を使用して、L の平方根 DL 転置の積として X を計算します。コレスキー分解は、固有値構築よりも高速で計算が簡単なため、より実用的なオプションになります。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
このビデオでは、グラフのクラスタリングと、K 平均法やスペクトル クラスタリングなどのさまざまなアルゴリズムを使用してクラスターを見つける方法について説明します。ラプラシアン行列はスペクトル クラスタリングで使用され、その固有ベクトルを通じてグラフ内のクラスターに関する情報を提供できます。最小の正の固有値の固有ベクトルであるフィードラー固有ベクトルは、クラスタリングに重要です。講演者はまた、異なるクラスターを識別する上で直交する固有ベクトルの重要性を強調しています。さらに、線形代数で Julia を使用した逆伝播について説明する次の講義の簡単なプレビューもあります。学生は、プロジェクトをオンラインまたは講師のオフィスの外で提出することをお勧めします。
00:00:00 このセクションでは、講演者はグラフのクラスタリングについて説明します。これは、大きなグラフをより小さく管理しやすいクラスタに分割するプロセスです。問題は、サイズが適度に等しい 2 つのクラスターを見つけることです。これを行うには、アルゴリズムを使用して、中心点 X と Y の位置を決定する必要があります。目的は、中心点と中心点の間の距離の合計を最小化することです。各クラスター内のノード数が適度に近いことを確認しながら、グラフ内のノード。これを達成するために使用できるいくつかのアルゴリズムがあり、グラフに関連付けられた行列を使用するものも含まれます。
00:05:00 このセクションでは、スピーカーは、A とラベル付けされた点と B とラベル付けされた点のセットをクラスターまたはグループに分割するための K-means クラスタリング アルゴリズムについて説明します。アルゴリズムは、まず A グループと B グループの中間点である重心を特定し、次にそれらの重心に基づいて最適なクラスターを形成しようとします。このプロセスは、アルゴリズムがデータの最適なクラスターに収束するまで繰り返されます。話者は、グループ内のすべての点と重心との間の距離の合計を最小化する点である、重心の概念も紹介します。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
このビデオでは、Alan Edelman が、機械学習におけるプログラミング言語の威力と、数学におけるその重要性について説明しています。彼は、Julia 言語の最近の開発を強調しています。その技術的メリットと機械学習での使いやすさが Google によって認められています。 Edelman は、Julia での自動微分がどのように機能するかを説明し、バビロニア アルゴリズムによる数値有限差分を使用せずに x の平方根を計算する例を示します。また、効率的な計算のための Julia での型の使用と、ブロック行列を使用した逆伝播プロセスの簡素化についても説明しています。全体として、Edelman は、数学的計算における線形代数の重要性と、複雑な現象を理解する上でのその役割を強調しています。
00:00:00 このセクションでは、Alan Edelman が Strang 教授による行のランクが列のランクに等しいというデモンストレーションと、この概念がゼロ行列にどのように適用されるかについて説明します。次に、機械学習で勢いを増しているプログラミング言語である Julia の最近の開発と、Google がこの分野でその力をどのように認識しているかについて話します。 Google は最近、機械学習に十分なほど強力な言語は 2 つしかなく、Julia はその 1 つであることを示すブログ投稿を公開しました。 Edelman は、この点を説明するための例を提供し、学生にブログ投稿をチェックして詳細情報を確認するよう勧めています。
00:15:00 このセクションでは、スピーカーは Julia コードを使用して、有限差分計算を使用せずに数値の平方根を計算する方法について説明します。このコードは、数値関数とその導関数を表す浮動小数点数のペアである「二重数」と呼ばれる変数の型を作成します。次に、スピーカーはプラス演算と除算演算をオーバーロードして商の規則を実装し、バビロニア アルゴリズムを使用して平方根を計算できるようにします。コードは数値的な有限差分を使用せずに機能し、スピーカーは、ジュリアが新しいコンテキストで既存のコードを再利用して「魔法」を実行できることを指摘しています。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Alan Edelman, Gilbert StrangView the complete cou...
講義 25. 確率的勾配降下法
25. 確率的勾配降下法
このビデオでは、確率的勾配降下法 (SGD) の概念が、有限和問題の形で提示されることが多い大規模な機械学習の問題を解決するための最適化手法として紹介されています。講演者は、SGD がランダムなデータ ポイントを選択して勾配を計算し、計算を高速化する方法と、方法の変動性のために最適値に近づくにつれて、バッチ勾配降下法とは異なる動作をする方法について説明します。 SGD の重要な特性は、確率的勾配推定が期待値の真の勾配の偏りのないバージョンであり、ノイズを減らすために確率的勾配の分散を制御する必要があることです。ミニバッチの使用は、ディープ ラーニング GPU トレーニングにおける安価な並列処理の手段として議論されていますが、適切なミニバッチ サイズを選択することは未解決の問題であり、目に見えないデータが存在する場合のソリューションの堅牢性に影響を与える可能性があります。 SGD を最適化する際の課題には、ミニバッチ サイズの決定と確率的勾配の計算が含まれますが、研究者は一般化の理論を開発することで、ニューラル ネットワークにおける SGD の有効性を理解しようとしています。
Lecture 26. 深層学習のためのニューラルネットの構造
26. 深層学習用ニューラルネットの構造
このビデオでは、ディープ ラーニング用のニューラル ネットワークの構造について説明します。目標は、m 個の特徴を持つ特徴ベクトルを使用してニューラル ネットワークを構築し、データを 2 つのカテゴリのいずれかに分類できる学習関数を作成することによって、データをバイナリで分類することです。線形分類器は非線形データを分離できないため、これらの関数を作成するには非線形性が不可欠です。ビデオでは、ニューラル ネットワークの重みとレイヤーの数の重要性についても説明し、ユーザーが関数の作成を練習するための TensorFlow プレイグラウンドなどのリソースを提供します。最後に、このビデオでは、ケーキを切ることによって得られる平らな部分の数の公式を証明するために使用される再帰と、深層学習における総損失を最小化する最適化問題との関係について説明します。
講義 27. バックプロパゲーション: 偏微分を求める
27. バックプロパゲーション: 偏導関数を見つける
このビデオでは、バックプロパゲーションと偏導関数の検出に関連するいくつかのトピックについて説明します。講演者は、偏導関数に対する連鎖律の使用を実演し、行列の乗算における計算順序の重要性を強調します。バックプロパゲーションは、勾配を計算するための効率的なアルゴリズムとして強調されており、その有効性を実証するためにさまざまな例が示されています。確率的勾配降下法における損失関数サンプルのランダムな順序の使用に関連するプロジェクトのアイデアとともに、確率的勾配降下法の収束について簡単に説明します。全体として、ビデオは逆伝播とそのアプリケーションの包括的な概要を提供します。
第30話 ランク1のマトリックス完成、サーキュラント!
第30話 ランク1のマトリックス完成、サーキュラント!
講義 30 では、講師はランク 1 行列と巡回行列の完成について説明します。彼らは 2x2 の行列式から始め、これを使用して行列に入力できる値を絞り込み、ランク 1 にします。次に、講師は 4x4 行列の組み合わせ問題に移り、与えられた 4 つの数のみで作成できる循環パターンを特徴とする巡回行列を紹介します。また、信号処理で重要な巡回行列の巡回畳み込み、固有値、固有ベクトルについても講義します。
講義 31. 巡回行列の固有ベクトル: フーリエ行列
31. 巡回行列の固有ベクトル: フーリエ行列
巡回行列の固有ベクトルに関するこのビデオでは、講演者は、巡回行列が画像処理と機械学習にどのように関係しているか、またフーリエ行列との関係について説明しています。スピーカーは、離散フーリエ変換 (DFT) とフーリエ変換に関連して、畳み込みと巡回行列を理解することの重要性を強調します。講演者は、巡回行列、特にフーリエ行列の固有ベクトルと、固有値でもある 8 つの数値の同じセットからすべてがどのように構成されるかについて説明します。講演者はまた、フーリエ行列の特性についても説明します。これには、列が直交しているが直交していないことや、巡回行列の対称性により固有ベクトルが加算されてゼロになり、互いに直交することなどが含まれます。最後に、講演者はフーリエ行列の固有ベクトルとしてのアルガン ベクトルの概念を例を挙げて説明します。
講義 32: ImageNet は畳み込みニューラル ネットワーク (CNN) であり、畳み込み規則
講義 32: ImageNet は畳み込みニューラル ネットワーク (CNN) であり、畳み込み規則
ディープ ラーニング コースのレクチャー 32 では、イメージ分類における畳み込みニューラル ネットワーク (CNN) の能力について説明します。畳み込みレイヤー、ノーマル レイヤー、および最大プーリング レイヤーを備えた大規模なディープ CNN が ImageNet の競争に勝利した例を取り上げます。また、乗算と畳み込みを結び付ける畳み込み規則、2 次元畳み込みの例、2 次元フーリエ変換と信号処理におけるクロネッカー積の使用、周期的と非周期的の違いに焦点を当てます。畳み込みに関するケース。講師は、巡回行列の固有ベクトルと固有値、およびクロネッカー和演算についても説明します。
講義 33. ニューラルネットと学習機能
33. ニューラルネットと学習機能
このビデオでは、勾配降下法または確率的勾配降下法によって最適化され、損失を最小限に抑えるためにトレーニング データに適用される、ニューラル ネットワークの学習関数 f の構築について講演者が説明します。彼は、手描きの絵を使用して、ニューラル ネットワークの概念と学習関数、およびクロス エントロピー損失を含む機械学習で使用されるさまざまな損失関数を説明しています。講演者は、与えられた距離から点の位置を見つける問題についても話します。これは、核磁気共鳴を使用して分子の形状を決定する場合など、さまざまなアプリケーションの古典的な問題です。彼は、ニューラル ネットワークの構造を得るための最終ステップである X の構築について議論することで締めくくり、金曜日にプロジェクトについて議論するボランティアの募集について言及しています。
講義 34. 距離行列、Procrustes 問題
34. 距離行列、Procrustes 問題
講演者は、あるベクトルのセットを別のベクトルのセットにできるだけ近づける最適な直交変換を見つけることを含むプロクラステス問題について説明します。彼らは、距離行列のフロベニウス ノルムを計算するためのさまざまな式と、そのプロクラステス問題への接続について説明しています。スピーカーはまた、行列のトレースの概念を紹介し、Procrustes 問題で正しい Q を見つけます。さらに、深層学習が実際に機能するかどうかという問題に対処し、2 つの行列の内積の SVD を計算し、SVD から直交行列を使用することを含む、最適な直交行列を見つけることを含む行列問題の解決策を提示します。
Lecture 35. グラフでクラスタを見つける
35. グラフでクラスターを見つける
このビデオでは、グラフのクラスタリングと、K 平均法やスペクトル クラスタリングなどのさまざまなアルゴリズムを使用してクラスターを見つける方法について説明します。ラプラシアン行列はスペクトル クラスタリングで使用され、その固有ベクトルを通じてグラフ内のクラスターに関する情報を提供できます。最小の正の固有値の固有ベクトルであるフィードラー固有ベクトルは、クラスタリングに重要です。講演者はまた、異なるクラスターを識別する上で直交する固有ベクトルの重要性を強調しています。さらに、線形代数で Julia を使用した逆伝播について説明する次の講義の簡単なプレビューもあります。学生は、プロジェクトをオンラインまたは講師のオフィスの外で提出することをお勧めします。
講義 36: アラン・エデルマンとジュリア・ランゲージ
講義 36: アラン・エデルマンとジュリア・ランゲージ
このビデオでは、Alan Edelman が、機械学習におけるプログラミング言語の威力と、数学におけるその重要性について説明しています。彼は、Julia 言語の最近の開発を強調しています。その技術的メリットと機械学習での使いやすさが Google によって認められています。 Edelman は、Julia での自動微分がどのように機能するかを説明し、バビロニア アルゴリズムによる数値有限差分を使用せずに x の平方根を計算する例を示します。また、効率的な計算のための Julia での型の使用と、ブロック行列を使用した逆伝播プロセスの簡素化についても説明しています。全体として、Edelman は、数学的計算における線形代数の重要性と、複雑な現象を理解する上でのその役割を強調しています。