Learn the theory and practical application of machine learning concepts in this comprehensive course for beginners.🔗 Learning resources: https://github.com/...
05:35:00 このセクションのビデオでは、機械学習におけるバギングとランダム フォレストの手法について説明します。バギングには行サンプリングが含まれるため、モデルが大きくなり、分散が減少します。ランダム フォレストも同じですが、基本モデルとして列サンプリングと決定木が使用されます。デシジョン ツリーでのトレーニングの複雑さは、n log m × n × d のオーダーですが、ランダム フォレストでは、d × k × n です。このビデオでは、ランダム フォレストを自明に並列化し、トレーニングを容易にする方法についても説明しています。最後に、非常にランダム化されたツリーの概念が導入され、可能な値を試して決定ツリーのしきい値を決定します。
05:40:00 このセクションでは、スピーカーは、ランダム フォレストですべての可能な値を試す計算コストの高い方法の代替として、極端にランダム化されたツリーの概念について説明します。列と行のサブセットをサンプリングすることにより、分散は減少しますが、ランダム フォレストと比較して良い結果が得られる可能性は低くなります。スピーカーは、時間の複雑さによる大規模なデータセットでのランダム フォレストの使用の欠点についても言及していますが、それを試して、グリッド検索を使用してハイパーパラメーターを調整することを提案しています。次に、ランダム フォレストを実装するための scikit-learn API を紹介し、ハイパーパラメーターを微調整するためのプロジェクトについて言及します。
07:25:00 このセクションでは、スピーカーはクラスタリングのトピックと、中心ベースや密度ベースなどのさまざまなタイプのクラスタリング アルゴリズムを紹介します。 k-means クラスタリング アルゴリズムに焦点を当て、詳細に検討します。また、講演者は、機械学習をよりよく理解するために、問題セットやプロジェクトに取り組むことを視聴者に勧めています。講演者は、教師なし学習の重要性を強調し、さまざまな分野でクラスタリングを適用する方法を示します。 X および Y 平面でのクラスタリングは、クラスタリングの概念を説明するために使用されます。全体として、このセクションでは、コースでカバーされる今後のトピックを強調し、視聴者が学び続けることを奨励しています。
08:45:00 このセクションでは、インストラクターは、別のタイプのクラスター間類似度測定であるグループ平均クラスター間類似度測定の概念について説明します。彼はその方程式を提供し、それがどのように機能するかを説明する樹状図を示します。次に、インストラクターは、最小距離測定の欠点について説明し、外れ値に敏感であることを述べ、学習者がさらに理解するためにウィキペディアのページを参照できることを提案します。彼はまた、凝集クラスタリングの時間と空間の複雑さを提供します。これは、空間では n 平方のオーダーであり、時間の複雑さでは n の平方対数または n 立方体のオーダーです。最後に、機械学習の理解を深めるために、多くのプロジェクトで練習するよう学習者に促して、セクションを締めくくります。
08:50:00 このセクションでは、スピーカーがコースのプロジェクト セクションについて説明し、構築される心不全予測モデルを紹介します。講演者は、このモデルは、年齢、性別、血圧、糖尿病、喫煙などのさまざまな特徴に基づいて人が死亡するかどうかを予測すると説明しています。このプロジェクトのデータは提供されたリンクから入手できます。講演者は、このプロジェクトのビジネス目標は、健康上の懸念を早期に検出して命を救うのに役立つヘルスケア AI システムを構築することであると説明しています。さらに、講演者は、スパム検出システム プロジェクトもコースで提示されると述べています。スピーカーは、必要なライブラリをインポートし、データを読み込み、データの形状を印刷します。
Learn the theory and practical application of machine learning concepts in this comprehensive course for beginners.🔗 Learning resources: https://github.com/...
01:20:00 このビデオでは、線形回帰を使用して分類器が正しい確率を推定する方法を講師が説明しています。これを行うには、最初に p が mx と b を足したものに等しいように方程式を書き直す必要があります。この方程式は、負の無限大から無限大までの範囲を取ることができますが、0 と 1 の間でなければなりません。 p を解くために、オッズの対数を削除すると、1 から確率を引いた p が得られます。
Learn Machine Learning in a way that is accessible to absolute beginners. You will learn the basics of Machine Learning and how to use TensorFlow to implemen...
Learn how to use TensorFlow 2.0 in this crash course for beginners. This course will demonstrate how to create neural networks with Python and TensorFlow 2.0...
This course will give you an introduction to machine learning concepts and neural network implementation using Python and TensorFlow. Kylie Ying explains bas...
Learn how to use TensorFlow 2.0 in this full tutorial course for beginners. This course is designed for Python programmers looking to enhance their knowledge...
04:45:00 説明する最初の方法は、bag of words と呼ばれます。このアルゴリズムは、文を見て、文中のすべての単語が数字でエンコードされた数値表現に変換します。これは、単語が存在するだけで文の意味を判断するのに十分なタスクに役立ちます。ただし、より複雑な入力を処理する場合、この手法は機能しなくなる可能性があります。
06:10:00 強化学習は、パフォーマンスの向上につながる行動に対して報酬を与えることで、環境内でタスクを達成するように AI をトレーニングする方法です。強化学習の目標は、報酬を最大化することです。これは、エージェントが環境で達成しようとしているものであれば何でもかまいません。このコースでは、講師は状態、アクション、および報酬の概念について説明します。
Learn how to use TensorFlow 2.0 in this full tutorial course for beginners. This course is designed for Python programmers looking to enhance their knowledge...
Keras with TensorFlow コースは、Python で記述され、TensorFlow と統合されたニューラル ネットワーク API である Keras の使用方法をユーザーに教えることに重点を置いています。データの整理と前処理、人工ニューラル ネットワークの構築とトレーニング、データの正規化と検証セットの作成の重要性について説明します。このコースでは、ビデオやテキスト ファイルなどのリソースや、GPU をセットアップして効率を高める方法についてのガイドも提供します。ユーザーは、すべて、アーキテクチャのみ、または重みのみを保存するオプションを含め、モデルを保存およびロードする方法も学びます。このコースは、基本的なプログラミング スキルと Python の使用経験がある方に適しています。
「Keras with TensorFlow コース」の 2 番目のセクションでは、元のモデルと同じアーキテクチャを持つ新しい Keras モデルに重みをロードすることから始めて、さまざまなトピックを取り上げます。次に、インストラクターは、最初の CNN の Keras シーケンシャル モデルの構築とトレーニングに進む前に、畳み込みニューラル ネットワークをトレーニングして画像を猫または犬のいずれかに分類するための画像データを準備および前処理する方法を説明します。このセクションでは、モデルの適合時に検証用のラベル データを含むジェネレーターを使用してモデルをトレーニングする方法と、混同行列をプロットしてモデルのパフォーマンスを評価する方法について詳しく説明します。最後に、事前トレーニング済みの VGG 16 モデルを微調整して猫と犬の画像を分類し、前処理を調整し、トレーニングも行う方法を示します。
00:45:00 このセクションでは、混同行列を使用して、ニューラル ネットワーク モデルがテスト データをどの程度予測しているかを視覚的に観察する方法について説明します。必要なパッケージをインポートし、scikit-learn を使用して混同行列を作成することで、テスト セットの真のラベルと予測されたラベルを比較できるため、モデルの予測の精度をよりよく理解できます。また、混同行列関数をプロットする方法と、その中の特定の値がどのように取得され、前処理され、視覚化されるかについても説明します。 Keras with TensorFlow コースに役立つ関数へのリンクは、深いトカゲのブログでも利用できます。
00:50:00 このセクションでは、インストラクタが混同行列をプロットしてモデルの予測の精度を視覚化する方法を示します。プロットは、予測されたラベルを x 軸に、真のラベルを y 軸に示します。正しい予測は、プロットの左上から右下に対角線上にある青い四角で示されます。混同行列により、ユーザーはモデルのパフォーマンスを視覚化し、改善が必要なクラスを特定できます。インストラクターは、混同マトリックスはモデルのパフォーマンスを評価するために使用する優れたツールであり、さらに作業が必要なクラスをドリルダウンするのに役立つと説明しています。最後に、インストラクターは、モデルのアーキテクチャ、重み、およびトレーニング構成を h5 ファイルに保存する `.save()` 関数を使用して Keras シーケンシャル モデルを保存する方法を示します。
This course will teach you how to use Keras, a neural network API written in Python and integrated with TensorFlow. We will learn how to prepare and process ...
ビデオの 2 番目の部分では、グリッド検索、メトリクス、パイプライン、しきい値調整、時系列モデリング、外れ値の処理など、いくつかのトピックについて説明します。インストラクターは、カスタム定義されたメトリクスの使用と、モデル作成における適合率と再現率のバランスを取ることの重要性を探ります。さらに、投票分類器は、モデルの柔軟性と表現力を高めるメタ推定器として紹介されています。このビデオは、機械学習アルゴリズムと組み合わせることができるルールベースのシステムの構築とベンチマークに役立つヒューマン ラーン ツールの紹介で締めくくられています。さらに、FunctionClassifier ツールが調査され、ユーザーはカスタマイズされたロジックを分類子モデルとして作成し、外れ値検出などの動作を追加できます。全体として、ビデオは Scikit-learn とその柔軟な API の包括的な概要を提供し、モデルの作成とカスタマイズに関連するメトリックを理解することの重要性を強調しています。
00:00:00 データ y. X には特徴または入力変数が含まれ、Y には予測するターゲットまたは出力変数が含まれます。モデルのパフォーマンスを評価するために、データをトレーニング セットとテスト セットに分割します。次に、データを前処理する必要があります。最も重要な前処理手法の 1 つはスケーリングです。これには、フィーチャの値を正規化して、すべてが同様の範囲内に収まるようにする必要があります。これは、モデルがより効果的に学習するのに役立ちます。最後に、モデルを選択し、トレーニング セットでトレーニングします。モデルがトレーニングされると、テスト セットでそのパフォーマンスを評価し、新しいデータで予測を行います。次のセクションでは、前処理、モデル評価、およびメタ推定器のトピックについて詳しく説明します。
00:05:00 このセクションでは、講演者は機械学習モデルのためにデータを x と y のセットに分割する方法について説明します。 x セットは予測に使用されるデータを表し、y セットには目的の予測が含まれます。 scikit-learn ライブラリを使用すると、ユーザーは教育目的でベンチマーク データセットを読み込むことができます。講演者は、予測を行うためにデータから学習するモデルを作成して適合させる 2 段階のプロセスについても説明します。例として k 最近傍モデルが使用されていますが、異なるモデルが scikit-learn 内で同じ API を持つ方法を示すために、線形回帰モデルも示されています。
00:10:00 このセクションでは、Scikit-learn クラッシュ コースのビデオで、家屋の平方フィートと学校への近さを特徴とする単純なデータセットで K 最近傍モデルがどのように機能するかを説明しています。このモデルは、最も近い 5 つの近傍に基づいて予測を行いますが、スケールが異なる距離を使用すると問題が発生する可能性があります。つまり、1 つの軸が別の軸よりも予測に大きな影響を与える可能性があります。これには、機械学習モデルとは何かを再考する必要があり、予測が行われる前にスケーリングが行われるように、データが K 最近傍モデルに与えられる前に何らかの前処理が必要であることを示唆しています。加工ボックスはモデルの一部です。
Scikit-learn is a free software machine learning library for the Python programming language. Learn how to use it in this crash course.✏️ Course created by V...
02:25:00 このセクションのビデオでは、行列乗算の例を使用して、PyTorch の for ループに対するベクトル化の利点を説明しています。 torch メソッド torch dot matmore は、小さなテンソルに対して for ループを使用するよりも 10 倍高速であることが示されています。ただし、このビデオでは、行列の乗算での形状エラーを回避するために、より大きなテンソルに対して 2 つの主な規則を満たさなければならないことを警告しています。最初のルールは、2 つのテンソルの内次元が一致しなければならないということです。
02:30:00 このセクションでは、インストラクターが行列の乗算のルールと、テンソルを乗算する際の一般的な形状エラーを回避する方法について説明します。最初の規則は、行列の内部次元が一致する必要があるということです。これを実証するために、インストラクターはサイズ 3x2 のテンソルを作成し、同じ内部次元を持たない別のテンソルを掛けようとして、エラーが発生します。 2 番目の規則は、結果の行列が外部次元の形状を持つことです。インストラクターは、さまざまなテンソル形状と次元を使用した行列乗算の例と、それらがどのようにさまざまな行列形状になるかを示します。インストラクターは、次のビデオの前に、課題として行列の乗算を練習するための Web サイトを使用することを視聴者に勧めています。
02:35:00 このセクションでは、深層学習で最も一般的なエラーの 1 つである、ニューラル ネットワークの形状エラーについてインストラクターが説明します。ニューラル ネットワークは複数の行列乗算演算で構成されているため、わずかなテンソル形状エラーでも形状エラーにつながる可能性があります。次に、インストラクターは 2 つのテンソル、テンソル a とテンソル b を作成し、それらの間で行列の乗算を実行しようとすると、形状エラーが発生します。このエラーを修正するために、インストラクターは転置の概念を導入します。これは、指定されたテンソルの軸または次元を切り替え、PyTorch コードでテンソルの形状を調整するためにそれを使用する方法を示します。
02:40:00 このセクションでは、インストラクターがテンソルの転置の概念と、行列の乗算におけるその重要性について説明します。転置は、基になるデータを変更せずにテンソルの要素を再配置し、「ドット t」で表されます。また、インストラクターは、テンソル b が転置されたときに行列乗算演算がどのように機能するかを示し、ニューラル ネットワークと深層学習におけるこの演算の重要性を強調します。テンソルを転置するプロセスは視覚的に示され、インストラクターは段階的なコード例を提供して、学生が概念を理解し、実践できるようにします。
02:45:00 このセクションでは、講師が PyTorch と Matrix Multiplication という Web サイトを使用した行列乗算について説明します。彼は 2 つのテンソル、テンソル a とテンソル b を作成し、それらの乗算が特定の出力形状を持つ新しいテンソルになることを示しました。彼は視聴者に、テンソル b の代わりにテンソル a を転置し、結果を確認するように要求しています。次に、インストラクターはテンソル集約について説明し、PyTorch メソッドを使用してテンソルの最小値、最大値、平均値、および合計値を見つける方法を示します。彼はまた、テンソルの集約がテンソルの要素数の削減にどのように役立つかについても説明しています。
Learn PyTorch for deep learning in this comprehensive course for beginners. PyTorch is a machine learning framework written in Python.✏️ Daniel Bourke develo...
初心者のための機械学習コース (パート 1-5)
初心者のための機械学習コース
00:00:00 - 01:00:00 機械学習の初心者向けコースに関するこの YouTube ビデオでは、インストラクターが機械学習アルゴリズムの基礎とその実際のアプリケーションについて説明し、理論的側面と実践的側面の両方をカバーしています。このコースでは、学習者は機械学習の基礎から、線形回帰、ロジスティック回帰、主成分分析、教師なし学習などのアルゴリズムまで学習できます。このビデオでは、オーバーフィッティング、アンダーフィッティング、およびトレーニング/テスト データ セットについても説明します。インストラクターは、機械学習アルゴリズムがデータを分析して予測を作成できるようにする機能を開発する方法を理解することの重要性を強調しています。最後に、パフォーマンスの評価に使用されるコスト関数を最適化するための勾配降下アルゴリズムを紹介します。
01:00:00 - 02:00:00 この初心者向け機械学習コースでは、初心者向けの機械学習の重要なトピックを幅広くカバーしています。インストラクターは、線形回帰におけるシータの偏導関数のベクトル化、正規方程式、線形回帰の仮定、および独立した機能と依存する機能の違いについて説明します。このコースには、ロジスティック回帰と分類タスクも含まれており、ロジスティック回帰、コスト関数、勾配降下の仮説、およびコスト関数と勾配降下のベクトル化コードについて説明します。さらに、このコースでは、Python ライブラリ、データ分析手法、モデル構築、および線形回帰を使用した精度チェックを紹介します。また、インストラクターは、過適合を回避するための機械学習における正則化手法とその重要性についても説明します。このコースでは、リッジ回帰となげなわ回帰について説明します。これは、重要度の低いフィーチャの重みにペナルティを課して、それらをゼロに近づけるか、完全に削除します。
. 02:00:00 - 03:00:00 「初心者のための機械学習コース」では、正則化手法、サポート ベクター マシン (SVM)、非線形分類、データ探索など、さまざまなトピックを取り上げます。このコースでは、SVM の概要を説明し、データ ポイントを分類しながら予測を行うために、最大のマージンを持つ超平面を構築する方法を説明します。 SVM におけるハード マージンとソフト マージンの分類の概念とその違いについても説明します。このコースには、Python ライブラリを使用した株価予測プロジェクトも含まれており、平均二乗誤差、二乗平均平方根誤差、線形回帰モデルの R2 二乗などの評価指標を調べます。 Ridge や Lasso などの正規化された線形モデルについても詳しく説明し、Flask を使用して簡単なアプリを作成するデモも行います。
03:00:00 - 04:00:00 動画「初心者のための機械学習コース」では、Flask を使用したサーバーと Web サイトのセットアップ、主成分分析 (PCA)、バイアスと分散のトレードなど、機械学習に関するさまざまなトピックを取り上げています。 -offs、回帰モデル、およびネストされた if-else ステートメント。インストラクターは、実世界のシナリオでのテキストおよび画像データの機械学習とデータ前処理の概念を理解することの重要性を強調し、虹彩データを操作して簡単な決定木を作成する方法の実用的な例を提供します。このビデオでは、線形変換、固有ベクトル、固有値などのトピックについても説明し、PCA が情報を保持しながらデータ次元を削減する方法について説明します。全体として、ビデオは初心者が機械学習とその応用について学ぶための包括的な紹介を提供します。
04:00:00 - 05:00:00 このビデオでは、基本的な用語、エントロピー、情報利得、ジニ不純物などの属性選択尺度を使用して決定木を構築する方法、および決定木がどのように構築されるかなど、決定木の初心者レベルの紹介を提供します。分類問題と回帰問題の両方に使用できます。このビデオでは、ハイパーパラメーターの重要性と、機械学習の重要な概念として決定木を理解することも強調しています。次のセクションでは、アンサンブル学習とその 3 つの手法 (バギング、ブースティング、スタッキング) について説明します。これらは、Kaggle コンテストで一般的に使用されます。
05:00:00 - 06:00:00 この YouTube ビデオでは、機械学習モデルの精度を向上させるためのさまざまなアンサンブル学習手法について説明しています。一般的な手法の 1 つは、バギングまたはブートストラップ集約です。この手法では、複数のモデルがトレーニング データのサブセットでトレーニングされ、パフォーマンスを向上させるためにトレーニングに使用される行サンプリングと組み合わされます。このビデオでは、決定木、バギング、および列サンプリングを使用して強力なモデルを作成するランダム フォレストについても説明します。さらに、このビデオでは、バイアスを減らし、モデルの精度を向上させるために使用されるブースティングについて説明しています。これは、弱い学習者を強力なモデルに追加的に結合することによって行われます。インストラクターは、勾配ブースティングや適応ブースティングなど、さまざまなタイプのブースティングの概要を説明します。ビデオは、視聴者が試してみる問題セットを GitHub で提供することで締めくくられ、視聴者がチャンネルに登録してより多くの無料コンテンツを受け取るように促します。
06:00:00 - 07:00:00 「初心者のための機械学習コース」ビデオでは、ブースティングの背後にあるコア アイデア、さまざまなブースティング手法 (勾配ブースティング、適応型ブースティング、極端なブースティングなど) など、ブースティングに関連するいくつかのトピックを取り上げています。 )、ブースティングを使用してモデルをトレーニングするためのアルゴリズム、およびブースティングを使用して機械学習モデルの高いバイアスを削減する方法について説明します。さらに、このビデオでは、scikit-learn や mlx10 などのライブラリを使用して、Python でブースティング アルゴリズムを実装する方法について説明しています。このビデオでは、複数のモデルを組み合わせて、より優れたパフォーマンスを持つ新しいモデルを作成する方法である、スタックの概念についても触れています。インストラクターは、sklearn ライブラリを使用して、Python でロジスティック回帰、k 最近傍、ガウス単純ベイズ、およびランダム フォレスト モデルを使用してスタック分類モデルを作成する方法を示します。
07:00:00 - 08:00:00 このビデオでは、アンサンブル学習とスタック分類器から始めて、インストラクターがさまざまなトピックについて説明します。次に、教師なし学習とそのデータ ポイントのクラスタリングへの応用に焦点が移ります。講演者は、中心ベースや密度ベースなど、さまざまな種類のクラスタリング アルゴリズムについて説明し、クラスタリング モデルの品質を評価するための Dunn インデックスや Davies-Bouldin インデックスなどの評価手法の概要を説明します。最後に、スピーカーは、初期化、重心、ハイパーパラメーター、および制限を含む k-means クラスタリングについて詳しく説明しながら、2 つの重心を持つアルゴリズムの視覚化を提供します。全体として、このビデオはさまざまな機械学習の概念と手法をカバーしており、主題を包括的に紹介しています。
08:00:00 - 09:00:00 「初心者のための機械学習コース」というタイトルのこの YouTube ビデオでは、機械学習に関連するさまざまなトピックが取り上げられています。 1 つのセクションでは、k-means クラスタリングに焦点を当て、アルゴリズムを詳細に説明し、重心の初期化、クラスターの割り当て、収束までのクラスターの更新について説明します。このビデオでは、ランダムな初期化で直面する問題の解決策として、K-means++ とエルボ法も紹介しています。さらに、別のセクションでは、階層的クラスタリングについて詳しく説明し、凝集型および分割型クラスタリング手法を使用したクラスターの階層の作成について説明します。ビデオの最後では、心不全予測モデル プロジェクトについて説明します。このプロジェクトは、健康上の問題を早期に発見して命を救うのに役立つヘルスケア AI システムを構築することを目的としています。
09:00:00 - 09:50:00 「初心者のための機械学習コース」ビデオでは、不均衡なデータ、相関関係、特徴量エンジニアリング、モデルの構築と評価、NLP 手法を使用したテキスト分類など、機械学習に関連するさまざまなトピックを取り上げています。インストラクターは、バランスのとれたデータの重要性と、データを視覚化して理解を深めることの重要性を強調しています。プレゼンターは、スパムおよびハム検出システムを構築し、データを分析して理解し、NLP 手法を実装してメッセージをスパムまたはハムとして分類するためのプロセスを順を追って説明します。このコースでは、初心者の機械学習愛好家が構築できる基本的な概念の概要を説明します。
パート1
パート2
パート3
パート 4
パート5
初心者向け機械学習コース (パート 6-10)
初心者のための機械学習コース
パート6パート 7
パート8
パート9
パート10
みんなのための機械学習 – フルコース
みんなのための機械学習 – フルコース
00:00:00 - 01:00:00ビデオのこの部分では、教師あり学習と教師なし学習を含む機械学習の基本について説明します。また、利用可能なさまざまなモデルとその使用方法についても説明します。最後に、機械学習モデルのパフォーマンスを測定する方法について説明します。
01:00:00 - 02:00:00このパートでは、機械学習を使用してイベントの結果を予測する方法について説明します。線形回帰、ロジスティック回帰、およびサポート ベクター マシンについて説明します。また、グリッド検索を使用して機械学習モデルをトレーニングする方法についても説明します。
02:00:00 - 03:00:00このパートでは、線形回帰やバックプロパゲーションなど、機械学習の基本について説明します。 TensorFlow ライブラリを使用してデータを正規化し、線形回帰モデルを適合させる方法について説明します。
03:00:00 - 03:50:00このビデオでは、教師あり学習と教師なし学習を含む機械学習の概念を紹介しています。線形回帰とニューラル ネットワークを使用して予測を行う方法を示します。発表者は、機械学習を使用してデータをクラスター化する方法についても説明します。
パート1
パート2
パート3
パート 4
TensorFlow 2.0 集中講座
TensorFlow 2.0 集中講座
「TensorFlow 2.0 クラッシュ コース」ビデオでは、画像分類に焦点を当てて、ニューラル ネットワークとそのアーキテクチャの基礎を説明しています。インストラクターは、スネーク ゲームとファッション マニアックなデータセットを例として使用し、損失関数に基づいて重みとバイアスを調整するプロセスを通じてニューラル ネットワークをトレーニングします。ビデオは、より複雑なモデルを作成するために、データの前処理とシグモイドや ReLU などの活性化関数の使用の重要性を示しています。講演者はまた、データのテストとトレーニングの重要性を強調し、モデルの画像データを読み込んで変更する方法を示します。最後に、プレゼンターは、Keras でモデルのアーキテクチャを定義し、コンパイルおよびフィット メソッドを使用してトレーニングし、「model.predict」を使用して特定の画像を予測する方法を示します。
ビデオ チュートリアルの 2 番目の部分では、ファッション アイテムを分類し、映画のレビューに関する感情分析を実行できる基本的なニューラル ネットワークを作成するさまざまな側面について説明します。チュートリアルでは、トレーニング用のデータの読み込みと準備から始めて、データの前処理と入力シーケンスの長さの正規化の重要性について説明します。次に、チュートリアルでは、埋め込みレイヤーや高密度レイヤーなどのさまざまなレイヤーの使用を含む、適切なモデル アーキテクチャの作成について説明します。最後に、このチュートリアルでは、ハイパーパラメーターの微調整、モデルの検証、モデルの保存と読み込み、および外部データに対するモデルのパフォーマンスの評価の方法について説明します。全体として、このチュートリアルは、より高度なニューラル ネットワークの知識を構築するための重要な構造を提供します。また、モデルのデータのエンコード、予測用の保存済みモデルの実行、Ubuntu Linux への TensorFlow 2.0 GPU バージョンのインストールなど、TensorFlow 2.0 に関連するさまざまなトピックについても説明します。エンコーディング セクションでは、プレゼンターはデータのトリミングとクリーニングのプロセスを順を追って説明し、適切な単語マッピングを確保し、ルックアップ関数を作成して予測のためにデータをエンコードします。次に、モデルが処理する正しい形式で入力データを準備することの重要性を示してから、Linux システムに TensorFlow 2.0 GPU バージョンをインストールするチュートリアルに進み、関連するダウンロードのサイズのために忍耐強くなるよう聴衆にアドバイスします。 .
機械学習のための Python TensorFlow – ニューラル ネットワーク テキスト分類チュートリアル
機械学習のための Python TensorFlow – ニューラル ネットワーク テキスト分類チュートリアル
この YouTube チュートリアルでは、プレゼンターは、機械学習とニューラル ネットワークのテキスト分類のための Python TensorFlow に関連するさまざまなトピックを取り上げます。まず、Google Colab でのセットアップ プロセスと必要なライブラリのインポートについて説明した後、Wine Reviews データセットに注目し、Matplotlib を使用してさまざまな機能のヒストグラムをプロットします。このチュートリアルでは、教師あり学習を含む機械学習の概念、質的データと量的データの違い、および二項分類や多クラス分類などの分類シナリオにおける入力と予測について説明します。カバーされるその他のトピックには、損失関数、ニューラル ネットワーク、活性化関数、勾配降下、逆伝播、および TensorFlow 内のニューラル ネットの実装が含まれます。最後に、発表者はテキスト分類に TensorFlow を使用してニューラル ネットワークを実装し、パッケージとライブラリを使用して効率を高める利点を示します。
ビデオ チュートリアルの第 2 部では、Python での TensorFlow を使用した機械学習のさまざまな側面について説明します。特に、ニューラル ネットワークのテキスト分類に焦点を当てています。このチュートリアルでは、トレーニング セットとテスト セットへのデータの分割、TensorFlow と Keras を使用した単純なモデルの作成、データセットのスケーリングとバランス調整、再帰型ニューラル ネットワークの使用、テキスト分類のための TensorFlow Hub の使用について説明します。このチュートリアルでは、モデルの精度を評価することの重要性と、活性化関数、ドロップアウト層、さまざまな種類のセルなど、さまざまなニューラル ネットワーク コンポーネントの使用が強調されています。このチュートリアルは、ニューラル ネットワークの構築、テキスト分類のための TensorFlow の使用、数値データの操作など、重要なポイントを要約して締めくくります。
TensorFlow 2.0 の完全なコース - Python Neural Networks for Beginners チュートリアル (パート 1-4)
TensorFlow 2.0 コンプリート コース - 初心者向け Python ニューラル ネットワーク チュートリアル
00:00:00 - 01:00:00 このビデオでは、データ操作と機械学習用のライブラリである TensorFlow 2.0 を紹介しています。インストラクターは、テンソルとは何か、テンソルを使用して部分的に定義された計算を保存する方法について説明します。彼はまた、TF ドット ランクおよび TF ドット形状変更関数を使用して、テンソルの次元数を制御する方法も示しています。
01:00:00 - 02:00:00 ビデオ チュートリアルでは、線形回帰を使用してデータ セットの値を予測する方法を説明しています。タイタニックのデータセットが例として使用されます。プレゼンターは、線形回帰を使用してデータ セット内の値を予測する方法と、TensorFlow を使用してデータ セット内に特徴列を作成する方法について説明します。
02:00:00 - 03:00:00 このビデオ チュートリアルでは、ニューラル ネットワークに Python を使用する基本について説明します。ビデオは、相互接続されたニューロンの層でニューラル ネットワークがどのように構成されているかの説明から始まります。次に、ビデオでは、乱数ジェネレーターの作成方法とニューラル ネットワークのトレーニング方法について説明します。最後に、このビデオでは、ニューロンと重みを接続する方法、ネットワークを介して情報を渡す方法、およびニューロンの出力値を計算する方法を示します。
03:00:00 - 04:00:00 このビデオでは、TensorFlow を使用して画像認識用の畳み込みニューラル ネットワークを構築する方法を説明しています。このビデオでは、畳み込みニューラル ネットワークの仕組みや事前トレーニング済みモデルの使用方法など、畳み込みニューラル ネットワークの基本について説明します。
04:00:00 - 05:00:00 このビデオでは、TensorFlow を使用して、画像のクラスを予測できる機械学習モデルをトレーニングする方法を説明しています。このビデオでは、ディープ ラーニングや畳み込みニューラル ネットワークなどの基本的な概念について説明します。
05:00:00 - 06:00:00 このビデオは、ニューラル ネットワークのトレーニングに TensorFlow 2.0 を使用するための完全なガイドです。ニューラル ネットワークの入力と出力の形状、損失関数の作成方法、モデルを使用してシーケンスを予測する方法について説明します。このビデオでは、TensorFlow を使用してテキストを生成する方法も示しています。
06:00:00 - 06:50:00 このビデオ チュートリアルでは、強力な機械学習ライブラリである TensorFlow 2.0 の基礎を紹介します。 TensorFlow とその主要な概念を紹介した後、このチュートリアルでは、ディープ ラーニングや強化学習などのさまざまな機械学習タスクに関する一連のチュートリアルを視聴者に案内します。
パート1
パート2
パート3
パート 4
TensorFlow 2.0 コンプリート コース - Python Neural Networks for Beginners チュートリアル (パート 5-7)
TensorFlow 2.0 コンプリート コース - 初心者向け Python ニューラル ネットワーク チュートリアル
パート5
パート6
パート 7
TensorFlow コースを使用した Keras - 初心者のための Python 深層学習とニューラル ネットワークのチュートリアル
TensorFlow コースを使用した Keras - 初心者のための Python 深層学習とニューラル ネットワークのチュートリアル
Keras with TensorFlow コースは、Python で記述され、TensorFlow と統合されたニューラル ネットワーク API である Keras の使用方法をユーザーに教えることに重点を置いています。データの整理と前処理、人工ニューラル ネットワークの構築とトレーニング、データの正規化と検証セットの作成の重要性について説明します。このコースでは、ビデオやテキスト ファイルなどのリソースや、GPU をセットアップして効率を高める方法についてのガイドも提供します。ユーザーは、すべて、アーキテクチャのみ、または重みのみを保存するオプションを含め、モデルを保存およびロードする方法も学びます。このコースは、基本的なプログラミング スキルと Python の使用経験がある方に適しています。
「Keras with TensorFlow コース」の 2 番目のセクションでは、元のモデルと同じアーキテクチャを持つ新しい Keras モデルに重みをロードすることから始めて、さまざまなトピックを取り上げます。次に、インストラクターは、最初の CNN の Keras シーケンシャル モデルの構築とトレーニングに進む前に、畳み込みニューラル ネットワークをトレーニングして画像を猫または犬のいずれかに分類するための画像データを準備および前処理する方法を説明します。このセクションでは、モデルの適合時に検証用のラベル データを含むジェネレーターを使用してモデルをトレーニングする方法と、混同行列をプロットしてモデルのパフォーマンスを評価する方法について詳しく説明します。最後に、事前トレーニング済みの VGG 16 モデルを微調整して猫と犬の画像を分類し、前処理を調整し、トレーニングも行う方法を示します。
3 番目のセクションでは、インストラクターは MobileNets を紹介します。これは、より複雑なモデルに代わる、より小さくて高速な代替手段です。彼らは、Jupyter Notebook での MobileNets のダウンロードと使用、手話数字のデータセットの編成、および新しい分類タスク用のモデルの微調整を示しています。インストラクターは、イテレーターがディスク上のデータセットの場所を正しく指すこと、トレーニング中にフリーズするレイヤーの数、過適合の問題を減らすためのハイパーパラメーターの調整の重要性を強調しています。最後のセクションでは、データ拡張と、オーバーフィッティングを減らしてデータセットのサイズを大きくする可能性を紹介し、さまざまなタイプの拡張 (シフト、反転、回転など)、拡張された画像のディスクへの保存、トレーニングへの追加について説明します。設定。
scikit-learn クラッシュ コース - Python 用機械学習ライブラリ
scikit-learn クラッシュ コース - Python 用機械学習ライブラリ
「Scikit-learn クラッシュ コース」ビデオでは、Python での機械学習に Scikit-learn ライブラリを使用する方法の概要を説明しています。このビデオでは、データの準備、モデルの作成とフィッティング、グリッド検索によるハイパーパラメーターの調整、モデルの評価について説明しています。モデルのパフォーマンスを向上させる上での前処理とトランスフォーマーの重要性が強調され、標準のスケーラーと分位トランスフォーマーの例が示されています。このビデオでは、モデル評価の重要性、問題に適したメトリックの選択、およびワンホット エンコーディングでの不均衡なデータセットと未知のカテゴリの処理についても説明しています。講演者は、データ セットとモデル予測における潜在的なバイアスを理解することを強調し、クレジット カード詐欺検出の例を示します。
ビデオの 2 番目の部分では、グリッド検索、メトリクス、パイプライン、しきい値調整、時系列モデリング、外れ値の処理など、いくつかのトピックについて説明します。インストラクターは、カスタム定義されたメトリクスの使用と、モデル作成における適合率と再現率のバランスを取ることの重要性を探ります。さらに、投票分類器は、モデルの柔軟性と表現力を高めるメタ推定器として紹介されています。このビデオは、機械学習アルゴリズムと組み合わせることができるルールベースのシステムの構築とベンチマークに役立つヒューマン ラーン ツールの紹介で締めくくられています。さらに、FunctionClassifier ツールが調査され、ユーザーはカスタマイズされたロジックを分類子モデルとして作成し、外れ値検出などの動作を追加できます。全体として、ビデオは Scikit-learn とその柔軟な API の包括的な概要を提供し、モデルの作成とカスタマイズに関連するメトリックを理解することの重要性を強調しています。
深層学習と機械学習のための PyTorch – フルコース (パート 1-4)
深層学習と機械学習のための PyTorch – フルコース
00:00:00 - 01:00:00 「PyTorch for Deep Learning & Machine Learning」オンライン コース インストラクターの Daniel Bourke が、Python コードを使用して PyTorch で機械学習の概念を実装することに焦点を当てたコースを視聴者に紹介します。このコースで取り上げる主なトピックには、転移学習、モデルのデプロイ、実験の追跡などがあります。このビデオでは、機械学習とディープ ラーニング、およびそれらの違いについて紹介します。ディープ ラーニングは、大量のデータを必要とする複雑な問題に適しており、非構造化データの洞察を提供します。ニューラル ネットワークの構造が説明され、コースでは、教師あり学習や転移学習など、機械学習のさまざまなパラダイムがカバーされます。さらに、このビデオでは、特にオブジェクト検出と自然言語処理におけるディープ ラーニングの潜在的なアプリケーションについても説明します。最後に、PyTorch の利点について説明します。たとえば、研究方法論の標準化や GPU での機械学習コードの実行が可能になり、数値計算の効率的なマイニングが可能になります。
01:00:00 - 02:00:00 このパートでは、PyTorch の基本、データの前処理、事前トレーニング済みの深層学習モデルの構築と使用、データセットへのモデルの適合、予測の作成、モデルの予測の評価について説明します。インストラクターは、GitHub、ディスカッション、learnpytorch.io などのコースのリソースを使用するだけでなく、実験、視覚化、質問をすることの重要性を強調しています。学習者は、GPU または TPU アクセラレーションを使用して計算時間を高速化する機能、プリインストールされた PyTorch、およびその他のデータ サイエンス パッケージを提供する Google Colab も紹介されます。このコースでは、深層学習の基本的な構成要素としてのテンソルについて詳しく説明し、スカラー、ベクトル、行列テンソルなど、さまざまな次元と形状のテンソルを作成する方法を示します。このコースでは、ランダム テンソル、0 と 1 のテンソルの作成、およびテンソルの作成時にデータ型、デバイス、必要な grad パラメータを指定する方法についても説明します。
02:00:00 - 03:00:00 この PyTorch チュートリアルでは、インストラクターは、トラブルシューティング、操作、行列の乗算、転置、集計など、テンソル演算のさまざまな側面について説明します。深層学習モデルを操作する際に正しいテンソル形状とデータ型を維持することの重要性を説明し、PyTorch コマンドを使用してこれらのパラメーターを確認および変更する方法を示します。このチュートリアルには、行列の乗算の練習やテンソルの位置の最小値と最大値の検出などの視聴者向けの課題が含まれており、for ループでのベクトル化の使用など、一般的な形状エラーを回避してパフォーマンスを向上させるための役立つヒントが提供されています。さらに、インストラクターは、テンソルの再形成、スタック、スクイーズ、アンスクイーズに役立ついくつかの PyTorch 関数を紹介します。
03:00:00 - 04:00:00 このパートでは、reshape、view、stacking、squeeze、unsqueeze、および permute などのテンソル操作メソッドを含む、PyTorch に関連するさまざまなトピックについて説明します。インストラクターはコード例を提供し、機械学習と深層学習におけるテンソル形状操作の重要性を強調し、テンソルにインデックスを付けて特定の値を返すよう視聴者に挑戦します。このコースでは、PyTorch テンソルと NumPy 配列の間でデータを変換する方法と、それぞれのデフォルトのデータ型、ニューラル ネットワークの再現性の概念、実験でのランダム性を減らすためのランダム シードの使用についても説明します。インストラクターは、計算を高速化するために GPU にアクセスする方法を説明し、Google Colab、Colab Pro、独自の GPU の使用、または GCP、AWS、Azure などのクラウド コンピューティング サービスの使用などのオプションを提供します。
04:00:00 - 05:00:00 このパートでは、PyTorch で GPU アクセスを設定する方法、PyTorch で nn モジュールを使用する方法、線形回帰モデルを作成する方法など、初心者向けの幅広いトピックを取り上げます。インストラクターは、デバイスに依存しないコードをさまざまなデバイスで実行し、テンソルとモデルが保存されているデバイスのタイプに留意することの重要性を強調しています。このコースには、学んだことを実践するための演習と追加のカリキュラムも含まれており、インストラクターは、Colab で演習に取り組む方法についてのヒントを提供します。このコースでは、機械学習モデルのトレーニングと評価、一般化のためのトレーニング セットとテスト セットへのデータの分割、およびデータの視覚化について説明します。インストラクターは、純粋な PyTorch を使用して線形回帰モデルを作成する方法を説明します。これには、init 関数を使用してコンストラクターを作成し、nn.parameter を使用して重みパラメーターを作成し、torch.rand を使用してランダム パラメーターに設定することが含まれます。
05:00:00 - 06:00:00 このパートでは、PyTorch を使用した線形回帰モデルの作成、PyTorch による勾配降下やバックプロパゲーションなどの最適化アルゴリズムの実装、PyTorch モデルの予測力のテスト方法の理解などのトピックを扱います。予測を行う際に torch.inference_mode コンテキスト マネージャーを使用すること、モデル パラメーターを初期化すること、損失関数を使用してモデルの予測の精度を測定すること、およびモデル パラメーターを最適化してモデルの精度を向上させることの重要性についても説明します。さらに、torch.nn、torch.nn.module、torch.optim、および torch.utils.dataset を含む PyTorch の基本的なモジュールが提示されます。
06:00:00 - 07:00:00 このパートでは、PyTorch と機械学習のさまざまな側面について説明します。 1 つのセクションでは、データのループ、損失の計算、逆伝播の実行など、PyTorch でトレーニング ループを構築するために必要な手順に焦点を当てました。インストラクターは、適切な損失関数とオプティマイザーを選択することの重要性を強調し、勾配降下の概念を紹介しました。別のセクションでは、オプティマイザーと学習率、およびそれらがモデルのパラメーターに与える影響について説明しました。このビデオでは、テストの重要性も強調し、テスト予測の作成とテスト損失の計算の概要を説明しました。このコースは、バックプロパゲーションと勾配降下の数学的背景に関心のある人向けの追加リソースを提供します。
07:00:00 - 08:00:00 このパートでは、PyTorch に関連する複数のトピックを扱います。このコースでは、損失値の記録を保持し、減少傾向を示す損失曲線をプロットすることにより、モデルの進行状況を追跡することの重要性について説明します。インストラクターは、状態辞書の保存、torch.nn.module.loadStateDict メソッドまたは torch.load メソッドを使用したモデルのロード、ロードされたモデルのテストなど、PyTorch モデルの保存とロードの方法についても説明します。後のセクションでは、線形回帰モデルの作成と、nn.module をサブクラス化することによる、線形層などの PyTorch での既存のモデルの使用について説明します。
08:00:00 - 09:00:00 このパートでは、深層学習と機械学習の領域における幅広いトピックを取り上げます。最初のセクションでは、torch.nn で利用可能なさまざまなレイヤー、これらのレイヤーの事前構築済みの実装、および損失関数とオプティマイザー関数を使用して PyTorch モデルをトレーニングする方法について説明します。以降のセクションでは、インストラクターは、デバイスに依存しないコードの重要性、PyTorch モデルの保存と読み込み、および分類問題へのアプローチ方法について説明します。インストラクターは例を示し、入力の数値エンコーディング、カスタム データの作成、および隠れ層、ニューロン、損失関数、オプティマイザーの数などの分類モデルに関連する設計の複雑さの重要性を強調します。最後に、インストラクターは、データを使用して機械学習の問題を開始することが最も重要なステップであることを強調しています。
09:00:00 - 10:00:00 このパートでは、バイナリ分類に PyTorch を使用してニューラル ネットワークを作成およびトレーニングする方法の概要を説明します。このビデオでは、カスタム データセットの作成、入力と出力の形状の確認、トレーニング用のデータの準備、モデルの作成と GPU への送信、モデルのオプティマイザーと損失関数の選択、予測の作成など、幅広いトピックを取り上げています。このコースには、これらの概念の実践的なデモンストレーションが含まれており、機械学習プロジェクトでの PyTorch の使用に関する包括的な理解を提供することを目的としています。
10:00:00 - 11:00:00 このパートでは、損失関数、オプティマイザー、アクティベーション関数、トレーニング ループ、評価指標など、いくつかのトピックについて説明します。インストラクターは、損失関数とオプティマイザーを設定し、精度関数を作成し、生のロジットを予測確率とラベルに変換する方法を説明します。このコースでは、BCE 損失とロジット損失を伴う BCE の違い、および分類モデルのテスト損失と精度を計算する方法についても確認します。さらに、インストラクターは、ニューラル ネットワークの深さの増加、ハイパーパラメーターの調整、外部 Python スクリプトからのヘルパー関数のインポートと使用など、モデルのパフォーマンスを改善するためのヒントを提供します。
11:00:00 - 12:00:00 このパートでは、講師が隠れユニットの数、レイヤーの数、エポックの数などのハイパーパラメーターを変更してモデルを改善する方法を説明し、テストの重要性を強調します改善または低下を特定するために、一度に 1 つずつ変更します。また、パラメーターとハイパーパラメーターの違いと、この区別が重要な理由についても説明します。さらに、インストラクターは、モデルが機能していない場合のトラブルシューティング手法についても説明し、機械学習および深層学習モデルにおける非線形性の重要性を紹介します。インストラクターは、線形および非線形回帰の問題を含むさまざまな例を使用してこれらの概念を示し、さまざまなハイパーパラメーターと損失関数をテストしながらモデルをトレーニングおよび評価する方法を示します。
12:00:00 - 13:00:00 この PyTorch for Deep Learning and Machine Learning コースでは、モデルを構築するための基本から高度な PyTorch の概念について説明します。インストラクターは、非線形性の概念を紹介し、PyTorch で非線形性を使用して分類モデルを構築する方法を示します。また、オプティマイザの構築、損失関数、およびカスタム アクティベーション関数についても説明します。線形関数と非線形関数を組み合わせて、これらの関数のレイヤーを積み重ねてモデルを作成し、データのパターンを見つけることの重要性が強調されています。このコースでは、バイナリ分類モデルとマルチクラス分類モデルの両方をカバーし、それらを PyTorch で設定する方法を説明します。このセクションの最後に、入力機能と出力機能を使用してマルチクラス分類モデルを初期化する方法を示します。
13:00:00 - 14:00:00 このパートのインストラクターは、PyTorch の nn.Sequential メソッドを使用して線形レイヤー スタック モデルを作成し、マルチクラス分類を実行する方法について説明します。彼らは、クロスエントロピー損失と確率的勾配降下 (SGD) を使用した損失関数とオプティマイザーの作成について説明しています。インストラクターは、ドロップアウト レイヤーと、エラーを解決するための機械学習コードのトラブルシューティングの重要性についても説明します。これらは、精度、精度、再現率、F1 スコア、混同行列、トーチメトリクスと scikit-learn ライブラリを使用した分類レポートなどのさまざまな分類評価方法を使用して、トレーニング済みモデルの評価を示しています。最後に、インストラクターは torchmetrics パッケージを使用して PyTorch で事前構築済みのメトリクス関数をインポートして使用する方法を示し、さらに調査するために torchmetrics モジュールと課外記事へのリンクを提供します。
14:00:00 - 15:00:00 このパートでは、機械学習を使用した PyTorch とコンピューター ビジョンに関連するさまざまなトピックについて説明します。これには、バイナリまたはマルチクラスの分類問題などのコンピューター ビジョンの問題の理解と、機械学習モデルがさまざまな画像の例からパターンを学習する方法の学習が含まれます。このビデオでは、TorchVision などの PyTorch ライブラリと、データセット、事前トレーニング済みモデル、ビジョン データを機械学習モデルで使用できる数値に操作するための変換がどのように含まれているかについても説明しています。さらに、インストラクターは、FashionMNIST データセットの入力と出力の形状、潜在的な問題を特定するためにデータセットを視覚化および調査することの重要性について説明し、PyTorch と Matplotlib を使用して画像データをプロットおよび視覚化する方法のデモンストレーションを提供します。
15:00:00 - 16:00:00 深層学習と機械学習のための PyTorch に関するこのビデオ コースでは、データを準備し、PyTorch データ セットとデータ ローダーを使用することの重要性について説明します。ディープ ラーニングにおけるミニバッチの概念が強調され、バッチ サイズ ハイパーパラメーターが 32 に設定された PyTorch を使用して、トレーニングおよびテスト データ ローダーを作成するプロセスが説明されます。 PyTorch モデルで使用するために、多次元データを単一のベクトルに変換するために平坦化の機能が導入されました。フラット化レイヤーと 2 つの線形レイヤーを使用して単純なニューラル ネットワーク モデルを作成するプロセスがカバーされ、Python 機械学習プロジェクトでヘルパー関数を使用する概念が説明されています。最後に、モデルのトレーニングにかかる時間を測定するためのタイミング関数の重要性と、プログレス バーへの TQDM の使用について説明します。
16:00:00 - 17:00:00 コースのこのパートでは、PyTorch に関連するさまざまなトピックを扱います。トレーニングとテスト ループのセットアップ、一般的なエラーのトラブルシューティング、モデルの評価、予測の作成から始めます。インストラクターは、特定のデータセットに最適なニューラル ネットワーク モデルを見つけるための実験の重要性を強調し、非線形データをモデル化するための非線形性の利点について説明します。また、PyTorch でヘルパー関数を作成し、ループを最適化して評価し、トレーニングとテストの手順を実行する方法も示します。このコースでは、デバイスに依存しないコードと、CPU と GPU でモデルをトレーニングする利点をさらに探究し、両方のデバイスでトレーニング時間を測定する方法のデモンストレーションで締めくくります。
17:00:00 - 18:00:00 このパートでは、深層学習と機械学習に関する多くのトピックを取り上げます。インストラクターは、深層学習モデルを作成してテストする方法、PyTorch を使用して畳み込みニューラル ネットワーク (CNN) を構築する方法、および PyTorch でブロックを作成する方法を示します。さらに、このチュートリアルでは、PyTorch モデルの構成と、畳み込みが実際にどのように機能するか、畳み込みレイヤーのストライドとパディング値の変更、および PyTorch の畳み込みと最大プーリング レイヤーについて説明します。ビデオ全体を通して、講師はリソースを共有し、PyTorch コードと段階的な説明を提供し、効率的で再利用可能なコードを作成する方法についてガイダンスを提供します。
19:00:00 - 20:00:00 このパートでは、機械学習モデル予測の視覚化、PyTorch での混同行列を使用したマルチクラス分類モデルの評価、Google Colab でのパッケージのインストールとアップグレード、PyTorch の保存と読み込みなど、さまざまなトピックについて説明しますモデル、およびカスタム データセットの操作。このコースでは、PyTorch を使用してコンピューター ビジョン モデルを構築するプロセスも示します。インストラクターは、データ読み込み関数とカスタマイズ可能なデータ読み込み関数にドメイン ライブラリを利用することの重要性を強調し、ビジョン、テキスト、オーディオ、レコメンデーションなどのさまざまなカテゴリの例を提供します。また、learn pytorch.io Web サイトや PyTorch ディープ ラーニング リポジトリなどの役立つリソースも提供しています。
20:00:00 - 21:00:00 この PyTorch for Deep Learning & Machine Learning コースのインストラクターは、Food 101 データセットを紹介することから始めますが、3 つの食品カテゴリと画像の 10% のみを含む小さなサブセットを提供して練習します。 PyTorch。インストラクターは、データ用に別のディレクトリを持つことの重要性を強調し、Python 画像ライブラリの Pillow メソッドと PyTorch メソッドを使用して画像を開き、視覚化し、変換する方法を示します。このセクションでは、画像のサイズ変更や反転など、PyTorch を使用したデータ変換についても説明し、インストラクターは、PyTorch を使用して機械学習モデルのテンソルとして画像を読み込んで変換する方法を示します。このセクションは、PyTorch で利用可能なさまざまな画像変換オプションを調べるための提案で終わります。
21:00:00 - 22:00:00 この PyTorch コースでは、インストラクターが画像データをロードしてテンソルに変換する方法、トレーニングとテスト用のデータ ローダーを作成およびカスタマイズする方法、カスタム データ ロード クラスを作成する方法について説明します。これらは、すべての画像の変換をカスタマイズするために使用できる、事前構築済みのデータ セット機能である画像フォルダーの機能を示しています。また、ディレクトリからクラス名とマッピングを取得する関数の作成、torch.utils.data.Dataset のサブクラス化、get item および len メソッドの上書きなど、カスタム データ ローダーを構築するために必要な手順についても説明します。データ ローダーのカスタマイズ機能は便利ですが、エラーのあるコードを記述するリスクがあります。
22:00:00 - 23:00:00 コースのこのパートでは、PyTorch でカスタム データセットとカスタム ローダーを作成して利用する方法、およびデータ拡張技術を実装する方法について説明します。インストラクターは、PyTorch ライブラリを使用して畳み込みニューラル ネットワークを構築する方法を示し、カーネル サイズやストライドなどのハイパーパラメータを含む、実験する領域に関するアドバイスを提供します。このコースでは、拡張パイプラインをテストし、単純な拡張手法を活用してモデルの精度を向上させる方法についても説明します。このコースから得られるものには、PyTorch の柔軟性と、ベース データセット クラスから継承してカスタム データ セット ロード関数を作成する機能が含まれます。
23:00:00 - 24:00:00 インストラクターは、深層学習と機械学習のための PyTorch のさまざまな側面について説明します。これには、モデルの形状エラーのトラブルシューティング、Torch Info を使用した PyTorch モデルの要約の出力、評価用のトレーニングとテスト ステップ関数の作成が含まれますデータセットのパフォーマンスを向上させ、これらの関数をトレーニング関数に組み合わせて、モデルのトレーニングを容易にします。また、インストラクターは、深層学習モデルのトレーニング プロセスのタイミング、時間の経過に伴うモデルの進行状況を追跡するための損失曲線のプロット、レイヤーの追加や学習率の調整など、さまざまな設定を試してモデルのパフォーマンスを評価することについても説明します。最終的に、これらのスキルは、PyTorch を使用して高度なモデルを構築および評価するための強固な基盤を提供します。
24:00:00 - 25:00:00 PyTorch for Deep Learning & Machine Learning コースのこのセクションでは、インストラクターがモデルのオーバーフィッティングとアンダーフィッティングの概念と、データ拡張などの対処方法について説明します。モデルを早期に停止し、単純化します。それらは、損失曲線を使用して経時的にモデルのパフォーマンスを評価することの重要性を強調し、異なるモデルのパフォーマンスを比較するためのツールを提供します。このセクションでは、予測用にカスタム画像を準備する方法についても説明し、torch vision.io を使用して画像を PyTorch にロードし、それをテンソルに変換する方法を示します。インストラクターは、画像をモデルに渡す前に、サイズを変更し、float32 に変換し、適切なデバイスに配置する必要があるかもしれないと指摘しています。
25:00:00 - 26:35:00 PyTorch コースのこのパートでは、データ型や形状、PyTorch の変換パッケージを使用した画像データの変換、事前トレーニング済みモデルを使用したカスタム データの予測など、さまざまなトピックを扱います。モデルにフィードする前にデータが正しい形式であることを確認するには、データを前処理し、0 から 1 の間でスケーリングし、必要に応じて変換し、正しいデバイス、データ型、および形状であることを確認することが重要です。 .インストラクターはまた、学習者が PyTorch カスタム データ セットの演習を行うことで練習することを奨励し、参照としてソリューションを提供します。インストラクターはまた、learnpytorch.io で探索する追加の 5 つの章があり、転移学習、pytorch モデル実験の追跡、pytorch ペーパーの複製、pytorch モデルの展開などのトピックをカバーしていると述べています。
パート1
パート2
パート3
パート 4