The eleventh lecture of the Master class on Numerics of Machine Learning at the University of Tübingen in the Winter Term of 2022/23. This class discusses bo...
The twelfth lecture of the Master class on Numerics of Machine Learning at the University of Tübingen in the Winter Term of 2022/23. This class discusses bot...
The thirteenth lecture of the Master class on Numerics of Machine Learning at the University of Tübingen in the Winter Term of 2022/23. This class discusses ...
Philipp Hennig が「Numerics of Machine Learning」コースの概要を説明し、統合、最適化、微分方程式、線形代数などの数値解析に関連する機械学習で数学的な問題を解決することの重要性を強調しています。彼は、データセットに対して線形代数を実行することの複雑さと、それが処理装置とディスクにどのように関係するかについて説明しています。 Hennig は、自明でないサイズのデータ セットの処理、線形システムを解くためのアルゴリズム、偏微分方程式の解法、積分の推定などのトピックもカバーしています。彼は、深層ニューラル ネットワークのトレーニングの難しさと、確率問題を克服するためのソリューションの必要性を認めて締めくくりました。
Philipp Hennig 氏は、講義シリーズの最後で、単に機械学習モデルをトレーニングするだけでなく、モデルがどれだけ知っていて、何を知らないかを知ることの重要性を強調しています。彼は、損失関数の曲率を推定してディープ ニューラル ネットワークの不確実性推定を構築すること、および確率論的であることの重要性について話していますが、計算の複雑さのためにすべての場合にベイズの定理を適用する必要はありません。 Hennig はまた、機械学習における数値計算の重要性と、新しいデータ中心の計算方法を開発する必要性を強調しています。最後に、彼はコースに関するフィードバックを求め、今後の試験について話し合います。
00:00:00 このセクションでは、Philipp Hennig が機械学習の数値コース全体の要約を提供します。これは、さまざまな講師による内容の違いから重要であると彼は考えています。彼は、機械学習は基本的に、アルゴリズムを含む従来の AI とは対照的に、閉じた形式のソリューションを持たない数学的問題を解決することを含むと説明しています。機械学習の問題は数値解析に関連しており、統合、最適化、微分方程式、線形代数が含まれます。 Hennig は、データ セットに対して線形代数を実行することの複雑さと、それが処理装置とディスクにどのように関連するかを理解することの重要性を強調しています。
The fourteenth and final lecture of the Master class on Numerics of Machine Learning at the University of Tübingen in the Winter Term of 2022/23. This class ...
Want to learn what make Support Vector Machine (SVM) so powerful. Click here to watch the full tutorial.⭐6-in-1 AI MEGA Course - https://augmentedstartups.in...
01:20:00 ビデオのこのセクションでは、スピーカーは、現在の AI テクノロジが私たちが考えているほどインテリジェントではない可能性があり、この問題の解決に焦点を当てる必要があることについて説明しています。彼らはまた、ヨーロッパの資金によって資金提供されたヒューマン ブレイン プロジェクトにも触れており、それが AI の開発に役立つのか、それとも妨げになるのかについても疑問を呈しています。講演者はまた、複雑な概念を専門家ではない人にも理解しやすい方法で説明できること、AI 分野の若い研究者への資金提供とサポートを促進することについて講師を称賛しています。
"There have been two very different paradigms for Artificial Intelligence: the logic-inspired paradigm focused on reasoning and language, and assumed that th...
Since its release, the public has been playing with ChatGPT and seeing what it can do, but how does ChatGPT actually work? While the details of its inner wor...
To master machine learning models, one of the best things you can do is to implement them yourself. Although it might seem like a difficult task, for most al...
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/01 KNN at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
00:10:00 このセクションでは、スピーカーは、線形回帰モデルをトレーニングし、特定のクラスを使用して予測を行う方法について説明します。重みとバイアスの更新は、学習率に重みとバイアスの導関数を掛けた値をそれぞれ減算することによって行われます。アルゴリズムの実行を複数回繰り返すために、for ループを追加して、データセットに対してアルゴリズムを実行します。最後に、講演者は、scikit-learn のデータ セット機能を使用して線形回帰アルゴリズムの効率をテストする方法を示します。これには、良好なパフォーマンスをもたらす直線を当てはめ、予測の平均二乗誤差を計算します。 x の転置を取得することによって修正される間違った内積計算による次元エラーが発生します。
00:15:00 このセクションでは、プレゼンターがコードのタイプミスを修正し、それを使用して、特定のデータセットの x 値に基づいて y 値を予測する線形回帰モデルを作成します。次に、予測線を視覚化し、それがうまく適合している一方で、改善の余地があることに気付きます。プレゼンターは、学習率を調整することを決定し、モデルを再実行してより適切に適合させます。彼らは GitHub でコードを共有し、必要に応じて視聴者に質問してもらいます。
Implementation of popular ML algorithms from scratch - Machine-Learning-From-Scratch/02 Linear Regression at main · AssemblyAI-Examples/Machine-Learning-From-Scratch
講義 11 -- 深層学習の最適化 -- フランク シュナイダー
Numerics of ML 11 -- 深層学習の最適化 -- Frank Schneider
Frank Schneider が、ディープ ラーニングの最適化の課題について説明し、ニューラル ネットワークのトレーニングの複雑さと、適切な最適化方法とアルゴリズムを選択することの重要性を強調します。彼は、利用可能な方法の圧倒的な数と、異なるアルゴリズムの比較とベンチマークの難しさを指摘しています。 Schneider は、大規模な言語モデルのトレーニングが成功した実例と、モデルを正常にトレーニングするためのデフォルト以外の学習率スケジュールと飛行中の変更の必要性を示しています。 Schneider 氏は、これらのメソッドの使用方法やハイパーパラメータがトレーニング プロセスに与える影響について、より多くの洞察をユーザーに提供することの重要性を強調しています。また、実践者が特定のユース ケースに最適なメソッドを選択するのに役立つベンチマーク演習を作成することも重要です。また、Alpha などの新しい方法と、それを活用してニューラル ネットワークのトレーニング プロセスを制御する方法についても説明しています。
ディープ ラーニングの最適化の数値に関するビデオの第 2 部では、Frank Schneider が "Deep Debugger" ツールの Cockpit を紹介します。これは、データ バグやモデル ブロックなど、トレーニング プロセスの問題を検出して修正するための追加の手段を提供します。彼は、最適なハイパーパラメーターのためにデータを正規化することの重要性、学習率とテスト精度の関係、確率論を使用してニューラル ネットワークをトレーニングする際の課題について説明しています。 Schneider は、勾配を分布と見なし、長期的にはより優れた自律的な方法を開発することで、ニューラル ネットワークのトレーニングの改善に向けて取り組むことを学生に奨励しています。
講義 12 -- 深層学習の二次最適化 -- ルーカス・タッツェル
Numerics of ML 12 -- 深層学習のための二次最適化 -- Lukas Tatzel
このビデオでは、Lukas Tatzel が、ディープ ラーニングの 2 次最適化手法とその潜在的な利点について説明しています。彼は、2D のローゼンバーグ関数の例を使用して、SGD、Adam、LBFGS の 3 つの最適化手法の軌跡と収束率を比較します。 Tatzel は、SGD のびくびくした動作は、LBFGS の十分な情報に基づいたステップと比較して、収束が遅くなると述べています。彼は最適化のための高速な方法としてニュートン ステップを紹介し、条件数への依存など、その制限について説明します。 Tatzel は、悪条件の問題を処理するためのヘッセ行列の近似として、一般化ガウス ニュートン行列 (GGN) の概念についても説明しています。さらに、信頼領域の問題、非凸目的関数の処理方法、二次関数の最小化に CG を使用する Hessian-free アプローチについても説明しています。
このビデオの 2 番目の部分では、BFGS と LBFGS、ヘッセ行列を使用しない最適化、KFC など、深層学習の 2 次最適化手法について説明します。講演者は、KFC は公式の情報メトリックに基づくおおよその曲率であるのに対し、Hessian-free アプローチはヤコビ ベクトル積を使用してモデルを線形化すると説明しています。ただし、これらの方法では確率論とバイアスが発生する可能性があるため、これらの問題に対処するにはダンピングをお勧めします。講演者は、分布などのより豊富な量を使用して更新を行うことができる特殊なアルゴリズムの使用を提案し、確率論の基本的な問題が未解決のままであることを指摘します。全体として、二次最適化手法は、深層学習の課題に対する部分的な解決策を提供します。
講義 13 -- 深層学習における不確実性 -- アグスティヌス・クリスティアディ
Numerics of ML 13 -- 深層学習における不確実性 -- Agustinus Kristiadi
このビデオでは、深層学習における不確実性、特にニューラル ネットワークの重みの不確実性と、漸近過信の問題による不確実性を組み込むことの重要性について説明しています。確実。このビデオでは、ガウス分布を使用して最後の層の重みを近似し、ヘッセ行列を使用してニューラル ネットワークの曲率を推定することにより、2 次量、特に曲率推定を使用して深層ニューラル ネットワークに不確実性を取り込む方法についての洞察を提供します。このビデオでは、ニューラル ネットワークのモデルとパラメーターを選択するためのベイジアン形式とラプラス近似についても説明します。
講義の第 2 部では、Agustinus Kristiadi がこのビデオでディープ ラーニング モデルに不確実性を導入するさまざまな方法について説明しています。 1 つの手法では、線形化されたラプラス近似を使用して、ニューラル ネットワークをガウス モデルに変換します。もう 1 つのアプローチは、元のトレーニング セットでカバーされていない領域に不確実性が追加される、分布外トレーニングです。 Kristiadi は、モデルの過信を防ぐために不確実性を追加することの重要性を強調し、理想的な事後分布を見つけるコストを回避するために確率論的手段を使用することを提案しています。これらの手法については、確率的機械学習に関する今後のコースでさらに詳しく説明します。
講義 14 -- まとめ -- Philipp Hennig
ML 14 の数値 -- まとめ -- Philipp Hennig
Philipp Hennig が「Numerics of Machine Learning」コースの概要を説明し、統合、最適化、微分方程式、線形代数などの数値解析に関連する機械学習で数学的な問題を解決することの重要性を強調しています。彼は、データセットに対して線形代数を実行することの複雑さと、それが処理装置とディスクにどのように関係するかについて説明しています。 Hennig は、自明でないサイズのデータ セットの処理、線形システムを解くためのアルゴリズム、偏微分方程式の解法、積分の推定などのトピックもカバーしています。彼は、深層ニューラル ネットワークのトレーニングの難しさと、確率問題を克服するためのソリューションの必要性を認めて締めくくりました。
Philipp Hennig 氏は、講義シリーズの最後で、単に機械学習モデルをトレーニングするだけでなく、モデルがどれだけ知っていて、何を知らないかを知ることの重要性を強調しています。彼は、損失関数の曲率を推定してディープ ニューラル ネットワークの不確実性推定を構築すること、および確率論的であることの重要性について話していますが、計算の複雑さのためにすべての場合にベイズの定理を適用する必要はありません。 Hennig はまた、機械学習における数値計算の重要性と、新しいデータ中心の計算方法を開発する必要性を強調しています。最後に、彼はコースに関するフィードバックを求め、今後の試験について話し合います。
7 分でベクター マシン (SVM) をサポート - 楽しい機械学習
7 分でベクター マシン (SVM) をサポート - 楽しい機械学習
このビデオでは、サポート ベクター マシン (SVM) について説明しています。これは、データ セットの極値に基づいて決定境界 (超平面) を描画する 2 つのクラスを持つデータ セットに使用される分類アルゴリズムです。また、カーネル トリックを使用してデータ セットをより高次元の特徴空間に変換することにより、非線形に分離可能なデータ セットに SVM を使用する方法についても説明します。このビデオでは、高次元空間での有効性、メモリ効率、カスタム関数に異なるカーネルを使用する機能など、SVM の利点を示しています。ただし、ビデオでは、機能の数がサンプルの数よりも多い場合のパフォーマンスの低下や、コストのかかる相互検証が必要な直接的な確率推定の欠如など、アルゴリズムの欠点も明らかにしています。
「ディープラーニング革命」 - Geoffrey Hinton - RSE President's Lecture 2019
「ディープラーニング革命」 - Geoffrey Hinton - RSE President's Lecture 2019
「ディープ ラーニングのゴッドファーザー」として知られるジェフリー ヒントンが、ディープ ラーニングとニューラル ネットワークの歴史と進化、ディープ ラーニングを使用して人間の脳と同じように学習できる機械を作成することの課題と刺激的な可能性について説明します。バックプロパゲーションをより効果的にするトリックとテクニック。また、音声認識とコンピューター ビジョンにおけるニューラル ネットワークの成功、コンピューター ビジョンと教師なし事前トレーニングのためのニューラル ネットワークの進化、言語モデリングと機械翻訳におけるその有効性についても説明しています。最後に、類推による推論の価値を強調し、「カプセル」の理論と、全体から部分を予測するモデルへの知識の配線について説明します。
深層学習のパイオニアである Geoffrey Hinton は、連想記憶、高速記憶、および複数のタイムスケールをニューラル ネットワークに統合して、真の推論に必要な長期的な知識と一時的な記憶域を可能にすることを提唱する講演を行います。さらに、彼は以前の信念とデータの間のバランスをとる行為、教師なし学習の可能性、視点の知識と並進的等価性を組み込んだ物体認識における畳み込みネットの効率、および象徴的推論をトランスフォーマーのようなコネクショニスト ネットワークと組み合わせる必要性について議論します。ネットワーク。彼はまた、機械学習における無意識のバイアスの問題にも取り組んでおり、バイアスを特定して修正することで、人間のバイアスよりも簡単に修正できると考えています。最後に、彼は AI 分野の若い研究者への資金提供とサポートを増やす必要性を強調しています。
ChatGPTの実際の仕組み
ChatGPTの実際の仕組み
ChatGPT は、チャットの会話で有害なコンテンツを正しく識別できる機械学習モデルです。そのアーキテクチャは人間の入力に基づいており、その欠点が概説されています。おすすめの読み物も紹介。
Machine Learning From Scratch フルコース
Machine Learning From Scratch フルコース
機械学習モデルを自分で実装することは、それらを習得するための最良の方法の 1 つです。困難な作業のように見えますが、多くのアルゴリズムでは想像以上に簡単です。今後 10 日間、特定の計算に Python を使用し、場合によっては Numpy を使用して、毎日 1 つの機械学習アルゴリズムを実装します。
コードは GitHub リポジトリにあります: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch
Python で KNN をゼロから実装する方法
コード: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/01%20KNN
Python で KNN をゼロから実装する方法
「Python で KNN をゼロから実装する方法」というタイトルのビデオでは、スピーカーは Python を使用して KNN 分類器をゼロから作成する方法を説明しています。新しいデータ ポイントとデータセット内の他のポイントとの間の距離の計算、最も近い k 個のポイントの選択、分類のラベルまたは回帰の平均の決定など、アルゴリズムの実装に関連する手順について説明します。スピーカーは、Python のクラスを使用してアルゴリズムを実装し、96% の精度で虹彩データセットに実装が成功したことを示しています。また、Github リポジトリでコードをチェックアウトし、コメント セクションで質問するよう視聴者に呼びかけています。
Python でゼロから線形回帰を実装する方法
コード: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/02%20Linear%20Regression
Python でゼロから線形回帰を実装する方法
このビデオでは、Python を使用してゼロから線形回帰を実装するプロセスについて説明します。講演者は、平均二乗誤差を使用して最適な直線を見つける方法と、勾配降下法を使用して重みとバイアスを計算する方法を説明します。スピーカーは、学習率が収束にどのように影響するかについても説明し、scikit-learn のデータ セット機能を使用してモデルをテストする方法を示します。また、コードのタイプミスを修正し、学習率を調整して予測ラインの適合性を改善します。コードは GitHub で共有されており、視聴者は質問をするよう招待されています。
結果、および方程式の誤差が計算されるため、すべてのデータ ポイントで行列乗算を使用して勾配を計算することが容易になります。テスト中、トレーニング済みモデルは方程式を使用して結果を予測します。