00:20:00 このセクションでは、トレーニング時にモデルにラベルを提供することによって、拡散モデルクラスを条件付きにする方法について学習します。これにより、モデルは、ラベルによって表される画像の分布である y を指定して、x の p から画像を生成できます。さらに、モデルを低解像度の画像で調整し、それらを高解像度の画像にアップサンプリングすることもできます。ただし、このタイプのモデルでは一貫性のないサンプルが生成されるため、ガイダンスのトリックが導入されています。これには、ノイズの多い画像で分類器をトレーニングし、分類器の勾配を取得して、拡散モデルを誘導して、目的のラベルとして分類される可能性が高い画像を生成することが含まれます。
00:25:00 このセクションでは、勾配が分類器から直接使用されるため、Dhariwal は、サンプリング プロセスで分類器を維持する必要性について説明します。修正されたリバース プロセスは、追加のパラメーター s からのスケーリングを使用して、プロセスのステップ サイズ コントロールである追加の分散を伴う項を使用します。 s パラメーターは、モデルが分布のモードとより狭い結果に焦点を当てるのに役立ちます。 s の値が小さい場合は分類器にあまり影響しませんが、値が大きい場合は大きく影響します。スケール係数は、分類子から受け取るガイダンスを制御し、崩壊する分布に影響を与えます。
00:55:00 このセクションでは、ジェネラティブ アートで使用されるモデルの背後にある理論に興味がある人のために、Prafulla Dhariwal がさらに読むことをお勧めします。彼は、CLIP ガイダンスと分類器を使用しないガイダンスの詳細について、Jonathan Ho による「De-Noising Diffusion Probabilistic Models Paper」と、「Diffusion Models Beat GANs on Image Synthesis」に関する独自の論文を読むことを提案しています。さらに、Dhariwal は、Yang Song による論文「Generative Modeling by Estimating Gradients of the Data Distribution」を推奨しています。これは、拡散モデルを理解するための別のレンズであるスコア マッチングの別の視点から問題にアプローチしています。質疑応答の中で、Dhariwal は、使用される 2 次元ノイズとモデルの出力との間には関係があるが、それは間接的なものであると述べています。彼は、この関係をより明確にする方法として、ノイズを最初に 1 回サンプリングしてから、決定論的な逆プロセスを実行してモデルからサンプリングすることを提案しています。
Prafulla DhariwalResearch Scientist, OpenAIhttps://prafulladhariwal.com/More about the course: http://deepcreativity.csail.mit.edu/Information about accessib...
このレクチャーでは、Sarah Schwettmann がアート、心、機械の交差点について説明します。彼女は、視覚認識と、2D キャンバスを通して豊かな 3D 世界を体験するという課題を掘り下げます。これには、脳が逆問題を解決し、入ってくる情報の最良の説明を構築する必要があります。 Schwettmann はまた、GAN 反転を使用して Met コレクションの画像を基盤モデルの特徴空間に埋め込んで人間の創造性の構造を理解したり、任意の視覚的概念の語彙を作成したりするなど、アートワークでトレーニングされた深い生成モデルを含むプロジェクトについても語っています。顕著なまたは可能な変換の空間をサンプリングし、それらのサンプル方向を画面として使用して人間の知覚的判断を投影することによるGAN潜在空間。このプロセスでは人間の相互作用とラベル付けが重要であり、結果として得られる語彙を他のモデルに適用したり、さまざまな方法で画像を操作するために使用したりできます。さまざまな単語の選択によるデータのノイズにもかかわらず、任意のサイズの注釈ライブラリを使用して語彙を抽出する方法はスケールアップでき、自動的に方向にラベルを付けるようキャプション作成者をトレーニングする必要がある場合があります。
Sarah Schwettmann は、人間の創造物で訓練されたモデル内の方向を探索し、意味を割り当てるためのさまざまな方法についても説明します。彼女は、言語を使わずに視覚的な方向を捉えて学習する実験を紹介しています。これにより、人間は、潜在空間または特徴空間からサンプリングされた画像の小さなバッチとやり取りすることで、純粋に視覚的に必要な変換を定義できます。この方法は、微妙で説明が難しい特徴を持つ画像にラベルを付けて理解するのに役立ちます。さらに、潜在空間は、人間の経験を投影できるスクリーンになる可能性があり、そうでなければ形式化することが難しい人間の知覚の側面を研究者がよりよく理解できるようになります。
00:15:00 このセクションでは、Dr. Sarah Schwettmann が、MIT が提供する Vision in Art and Neuroscience コースについて説明します。これは、神経科学の文献、計算、および芸術の実践を通じて、ビジョンの根底にある原則を掘り下げる詳細なセミナーです。 Schwettmann は、Minor White の写真の例を紹介し、さまざまな要因が真実の知覚にどのように影響するかについて説明します。このコースには、学生が芸術的な文脈で視覚の原則を外部化して視覚化する方法を探求するスタジオセクションも含まれています。さらに、コースワークは美術展の作品を開発することで最高潮に達し、学生に自分の作品を展示するユニークな機会を提供します。
00:20:00 このセクションでは、Sarah Schwettmann が、人間の創造性の構造を理解するために深い生成モデルを使用する方法に焦点を当てたプロジェクトについて説明します。メトロポリタン美術館は、コレクション内の作品の数十万点のデジタル画像のデータ セットを提供しました。研究者たちは、作成された作品を文化的文脈に埋め込むこれらのアーカイブに関連する深い生成モデルを構築できるかどうかを尋ねました。彼らは GAN (敵対的生成ネットワーク) 反転を使用して、データセット内の各画像を基盤モデルの特徴空間に埋め込みました。これにより、データセットでモデルを再トレーニングするのではなく、相互作用できるこれらの大きなモデルの部分空間を定義することができました。このプロジェクトは、現在の急速な進化を可能にするタイムラインで文化史を実験することを目的としていました。
00:25:00 このセクションでは、Schwettmann が Met コレクションと BigGAN ImageNet を含む彼女が取り組んだプロジェクトについて説明します。彼らは、2 つの間で共有されるカテゴリを選択し、Met 画像と BigGAN 画像の間の類似性をピクセルおよびセマンティック レベルで最大化するために、2 つの部分の損失を作成しました。彼らは、個々の埋め込みを視覚化し、グラフ上の既存の画像間を補間して、コレクション内の既存の作品の空間間に存在する架空または夢のような画像を作成することができました.このプロジェクトは Met に展示され、Web アプリ版が利用可能になりました。このプロジェクトは、StyleGAN2-ADA を使用して小規模なデータセットをトレーニングすることで進化を続けています。
Sarah SchwettmannPostDoc in MIT CSAILhttps://www.cogconfluence.com/More about the course: http://deepcreativity.csail.mit.edu/Information about accessibility...
Table of Contents: Setup Visualizations - plotting image panels, videos, and distributions Training - pipeline for training your encoder Testing - pipeline for testing/transfer learning your encoder Notebooks - some jupyter notebooks, good place to start for trying your own dataset generations Colab Demo - a colab notebook to demo how the...
Jascha Sohl-DicksteinSenior Staff Research Scientist in the Brain Group at Googlehttp://www.sohldickstein.com/More about the course: http://deepcreativity.cs...
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert Strang, Sarah HansenView the complete cou...
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
00:20:00 講義のこのセクションでは、インストラクターが行列因数分解のプロセスを説明し、代数学に近い教育で有名な最初の行列因数分解を紹介します。このプロセスには、ある行列の列を別の行列の列から取得する方法をユーザーに伝える行列 R の作成が含まれます。 R の形状は元の行列によって決定され、インストラクターは正しい行列因数分解を得るために正しい数値を入れる方法を説明します。この講義では、行列の列のランクが行列の行のランクに等しいという線形代数の最初の偉大な定理にも簡単に触れます。
00:40:00 ビデオのこのセクションでは、Gilbert Strang 教授が、線形代数の問題がコースの宿題の一部になると説明しています。ただし、このコースを特別なものにしているのは、MATLAB、Python、または Julia を使用して行うことができるその他のオンラインの宿題です。彼は、このコースの概念がミシガン大学のラオ教授の功績によるものであると述べています。ラオ教授は以前、ミシガン大学で EE のコースを成功させるためにオンラインの宿題問題を作成していました。このコースの一部であるジョンソン教授は、学生が参加できる学期ごとにジュリアに関するチュートリアルを行います。 MATLAB は深層学習への入り口を示しましたが、Julia はその使いやすさから深層学習の人気のある言語になりつつあります。
00:45:00 講義のこのセクションでは、インストラクターが行列とベクトルの乗算について説明します。これは多くの人にとって単純に思えるかもしれませんが、インストラクターは行列の乗算を理解するためのより深い方法を探求し、列と行の組み合わせになります。このアプローチは、AB が外積の合計である AX= B の考え方を一般化したものです。この講義では、M x N の行列に N x P の行列を乗算するために必要な個々の乗算の数について簡単に触れています。
00:50:00 このセクションでは、講師が行列の乗算に必要な乗算の回数を、古い方法と新しい方法の例を使用して説明します。古い方法では、ドット積を行うために n 回の乗算が必要であり、答えには m と p のドット積があるため、全体として m と p の乗算になります。ただし、新しい方法では、列と行の乗算ごとに mp 回の乗算が必要であり、これらが n 回あるため、mp 回 n 回の乗算になります。方法論は異なりますが、どちらの方法でも同じ答えが得られ、講師は金曜日にこれについてさらに議論することを示唆しています.
この講義では、行列の乗算と因数分解の基本について説明します。著者は、行列が行空間と列空間の両方に次元を持つ方法と、行空間が次元 R を持ち、ヌル空間が次元 M から R を差し引いた次元を持つ方法を説明します。講義では、行と方程式の解の関係についても説明します。二次元空間におけるベクトルの直交性。最後に、著者は線形代数の基本定理を説明します。この定理は、幾何学が解決されると、空間の次元が正しく現れることを示しています。
00:40:00 行列の乗算と因数分解の講義では、行列の乗算と因数分解の基礎について説明します。この講義では、行列が行空間と列空間の両方に次元を持ち、行空間には次元 R があり、ヌル空間には次元 M から R を差し引いた次元があることを説明します。講義の最後のセクションでは、行列空間の幾何学について説明し、その方法を実演します。行列内の特定の方程式を解くベクトルを見つけます。
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018Instructor: Gilbert StrangView the complete course: https://o...
MIT 6.S192 - 講義 20: 拡散を使用したジェネレーティブ アート、Prafulla Dhariwal
MIT 6.S192 - 講義 20: 拡散を使用したジェネレーティブ アート、Prafulla Dhariwal
このレクチャーでは、OpenAI の Prafulla Dhariwal が、ハード クリエイティブ タスク、特に拡散モデルのジェネレーティブ モデリングの進歩について説明します。このプロセスでは、画像から開始し、それにガウス ノイズをゆっくりと追加します。次に、ノイズのある損傷を取り、ノイズを除去してノイズの少ない画像を作成することでプロセスを逆にします。生成モデルは、このようにノイズを反転するようにモデルをトレーニングし、モデルを段階的に逆方向に実行することで、テスト時に純粋なノイズから画像を生成することによって取得されます。プロセスの逆予測も、モデルの平均と分散を予測するために使用されるノイズの量が非常に小さい場合、ガウス分布のように見えます。 Dhariwal は、インペインティングに拡散モデルを使用する方法と、AI によって生成されたコンテンツの潜在的な危険性に対処する方法についても説明します。
MIT 6.S192 - 講義 21: アート、マインド、マシンの間で、サラ・シュウェットマン
MIT 6.S192 - 講義 21: アート、マインド、マシンの間で、サラ・シュウェットマン
このレクチャーでは、Sarah Schwettmann がアート、心、機械の交差点について説明します。彼女は、視覚認識と、2D キャンバスを通して豊かな 3D 世界を体験するという課題を掘り下げます。これには、脳が逆問題を解決し、入ってくる情報の最良の説明を構築する必要があります。 Schwettmann はまた、GAN 反転を使用して Met コレクションの画像を基盤モデルの特徴空間に埋め込んで人間の創造性の構造を理解したり、任意の視覚的概念の語彙を作成したりするなど、アートワークでトレーニングされた深い生成モデルを含むプロジェクトについても語っています。顕著なまたは可能な変換の空間をサンプリングし、それらのサンプル方向を画面として使用して人間の知覚的判断を投影することによるGAN潜在空間。このプロセスでは人間の相互作用とラベル付けが重要であり、結果として得られる語彙を他のモデルに適用したり、さまざまな方法で画像を操作するために使用したりできます。さまざまな単語の選択によるデータのノイズにもかかわらず、任意のサイズの注釈ライブラリを使用して語彙を抽出する方法はスケールアップでき、自動的に方向にラベルを付けるようキャプション作成者をトレーニングする必要がある場合があります。
Sarah Schwettmann は、人間の創造物で訓練されたモデル内の方向を探索し、意味を割り当てるためのさまざまな方法についても説明します。彼女は、言語を使わずに視覚的な方向を捉えて学習する実験を紹介しています。これにより、人間は、潜在空間または特徴空間からサンプリングされた画像の小さなバッチとやり取りすることで、純粋に視覚的に必要な変換を定義できます。この方法は、微妙で説明が難しい特徴を持つ画像にラベルを付けて理解するのに役立ちます。さらに、潜在空間は、人間の経験を投影できるスクリーンになる可能性があり、そうでなければ形式化することが難しい人間の知覚の側面を研究者がよりよく理解できるようになります。
GenRep: ICLR2022 におけるマルチビュー表現学習のデータ ソースとしての生成モデル
コード: https://github.com/ali-design/GenRep
GenRep: ICLR2022 におけるマルチビュー表現学習のデータ ソースとしての生成モデル
プレゼンターは、基礎となるデータにアクセスすることなく、事前にトレーニングされた生成モデルにアクセスできるモデル ズーの概念について説明します。対照学習を利用することで、研究者は同じオブジェクトの異なるビューを作成できます。これは、表現空間内の同じ近傍に分類されます。彼らは、潜在空間での単純なガウス変換が効果的であり、IGM からより多くのサンプルを生成すると、より良い表現が得られることを発見しました。特定のドメインの StyleGAN Car などのエキスパート IGM は、実際のデータから学習した表現よりも優れています。プロジェクトの Web サイトと Github コードは、さらに調査するために利用できます。
MIT 6.S192 - 講義 22: 拡散確率モデル、Jascha Sohl-Dickstein
MIT 6.S192 - 講義 22: 拡散確率モデル、Jascha Sohl-Dickstein
この講義では、Jascha Sohl-Dickstein が、トレーニング データとは別のタスクを学習するために使用される拡散モデルについて説明します。モデルは確率論的であり、データのエンコードまたはデコードに使用できます。順拡散過程は一定の過程であり、逆過程もまた真である。
この講義では、拡散確率モデルについて説明し、潜在空間と画像空間の間には 1 対 1 の対応がありますが、同じモデル内で複数のクラスを操作できることを説明します。次に、これらのモデルを使用して新しい画像を生成する方法について説明します。
データ分析、信号処理、および機械学習におけるマトリックス法を教えるギルバート・ストラングへのインタビュー
データ分析、信号処理、および機械学習におけるマトリックス法を教えるギルバート・ストラングへのインタビュー
有名な数学者である Gilbert Strang は、線形代数に大きく依存する機械学習の重要な部分である深層学習を教える上で、試験よりもプロジェクトの重要性を強調しています。彼は、プロジェクトによって、学生はディープ ラーニングを現実の世界に適用する方法を理解できるようになり、より効果的な学習方法になると考えています。 Strang はまた、教えるということは、単に生徒を採点するのではなく、生徒と一緒に学び、共に働くことだと強調しています。彼は、新しい教授に大きなチョークを使用し、授業で成功するために時間をかけてクラスにとどまるようにアドバイスしています.
MIT 18.065。データ分析、信号処理、および機械学習における行列法
Strang教授によるコース紹介
Strang 教授は、線形代数、深層学習、最適化、統計の 4 つの重要なトピックをカバーする新しいコース 18.065 を紹介します。このコースでは、最良の行列、対称および直交行列、および線形代数との関係に焦点を当てます。また、線形代数の基礎であり、数日または数週間にわたって GPU の使用を必要とする複雑な計算を伴うディープ ラーニングについても説明します。このコースでは、学習関数の数値を適切な範囲内に維持する役割を果たす統計学、学習アルゴリズムで重要な最適化と確率論、および科学と工学のアプリケーションで重要な役割を果たす微分方程式に触れます。 .このコースには、主題の完全なプレゼンテーションを提供するための演習、問題、およびディスカッションが含まれています。
講義 1: A の列空間にはすべてのベクトルが含まれる Ax
講義 1: A の列空間にはすべてのベクトルが含まれる Ax
この講義では、行列の列空間の概念に焦点を当てます。これは、行列に可能なすべてのベクトルを乗算することによって取得できるすべてのベクトルの集まりです。講師は、列のスペースは行列に依存し、R3 の全スペースまたはそのサブセットである可能性があると説明しています。教授はさらに、行スペース、列ランク、行ランクの概念、およびこれらのランク間の関係について説明します。この講義では、行列の列のランクが行列の行のランクに等しいという線形代数の最初の偉大な定理にも簡単に触れます。さらに、教授は、行列乗算の方法と、プロセスに必要な乗算の数について説明します。全体として、この講義では、線形代数の概要と、データから学習する上でのその重要性について説明します。
講義 2: 行列の乗算と因数分解
講義 2: 行列の乗算と因数分解
この講義では、行列の乗算と因数分解の基本について説明します。著者は、行列が行空間と列空間の両方に次元を持つ方法と、行空間が次元 R を持ち、ヌル空間が次元 M から R を差し引いた次元を持つ方法を説明します。講義では、行と方程式の解の関係についても説明します。二次元空間におけるベクトルの直交性。最後に、著者は線形代数の基本定理を説明します。この定理は、幾何学が解決されると、空間の次元が正しく現れることを示しています。
講義 3. Q の直交列 Q'Q = I を与える
3. Q の直交列 Q'Q = I を与える
ビデオのこのセクションでは、数値線形代数における直交行列の概念とその重要性について説明します。話者は、Q 転置 Q が単位に等しいという事実を使用して、QX の長さの 2 乗が X 転置 QX と同じでなければならないことを証明します。このビデオでは、Gordan 行列や Householder 行列などのさまざまな方法を使用して直交行列を作成する方法についても説明しています。信号処理で直交固有ベクトルを使用する概念とともに、ウェーブレットの重要性と構成についても説明します。最後に、講演者は、直交ベクトルを複素数でテストする方法について話し、直交行列には異なる固有値を持つ直交固有ベクトルがあることに言及します。
講義 4. 固有値と固有ベクトル
4. 固有値と固有ベクトル
このビデオでは、固有値と固有ベクトルの概念と、それらを使用して線形変換を計算する方法について説明します。また、固有ベクトルを使用してシステム内の線形方程式を見つける方法も示します。