機械学習とニューラルネットワーク - ページ 39

 

カスタム データセットで YOLOv8 をトレーニングする | YOLOv8 を使用した手話アルファベットの検出と認識



カスタム データセットで YOLOv8 をトレーニングする | YOLOv8 を使用した手話アルファベットの検出と認識

ビデオは、手話アルファベットの検出と認識のためのカスタム データセットでの YOLOv8 の実装を示しています。このプロセスには、データセットのダウンロード、50 エポックのモデルのトレーニング、および混同行列とトレーニングと検証の損失を使用したパフォーマンスの評価が含まれます。プレゼンターは、検証バッチとトレーニングに使用されていない画像に対するモデルの予測を検証して、さまざまな画像での動作を決定する方法についても説明します。次に、トレーニングされたモデルが検証され、検証データセットの画像でテストされ、デモ ビデオの推論が良好な結果で表示されます。全体として、ビデオは、カスタム データセットのトレーニングとオブジェクト検出のための YOLOv8 のアプリケーションを強調しています。

  • 00:00:00 ビデオのこのセクションでは、プレゼンターが手話アルファベットの検出と認識のためのカスタム データで YOLOv8 をトレーニングするトピックを紹介します。彼らはプロセスを順を追って説明し、YOLOv8 を使用して手話アルファベットの検出および認識システムを実装する方法について説明します。プレゼンターは、OS、IPython ディスプレイ、G-LOP などのさまざまなライブラリをインポートします。これらは、混同行列、トレーニングと検証の損失、およびテスト画像を表示するために必要です。次に、プレゼンターは GPU アクセスを確認する方法を示し、データセット画像を含む異なるフォルダー間を簡単に移動できるようにヘルパー変数を定義します。最後に、「pip install」を使用して Ultra Analytics をインストールし、YOLOv8 がインストールされ、正常に動作していることを確認します。

  • 00:05:00 このセクションの動画では、手話アルファベットの検出と認識のために、カスタム データセットに YOLOv8 を実装するプロセスを紹介しています。データセットは Roboflow からダウンロードされ、YOLOv8 モデルは 50 エポックでトレーニングされます。混同行列は、モデルのパフォーマンスを評価するために使用され、モデルがさまざまなクラスをどれだけうまく検出および分類できるかを識別します。結果は、モデルがアルファベット A を 60% の確率で正しく検出できたことを示しています。全体として、ビデオは、カスタム データセットのトレーニングとオブジェクト検出のための YOLOv8 のアプリケーションを強調しています。

  • 00:10:00 ビデオのこのセクションでは、モデルがさまざまなクラスをどれだけうまく処理したかを示す混同マトリックス、およびトレーニングと検証の損失についてプレゼンターが説明します。重要なものはボックス ログと分類の損失です。検証バッチでのモデルの予測も表示され、トレーニングに使用されていない画像が検証され、さまざまな画像でモデルがどのように動作するかが判断されます。次に、カスタム モデルが検証され、検証データセットの画像でテストされます。続いてデモ ビデオの推論が行われ、モデルが手話のアルファベットを検出して認識し、良好な結果が得られていることが示されます。最後に、視聴者は、提供されたビデオ データセットを使用して独自のモデルをテストすることをお勧めします。
Train YOLOv8 on Custom Dataset | Sign Language Alphabets Detection and Recognition using YOLOv8
Train YOLOv8 on Custom Dataset | Sign Language Alphabets Detection and Recognition using YOLOv8
  • 2023.01.19
  • www.youtube.com
#yolo #yolov8 #objectdetection #opencvpython #opencv #computervision #machinelearning #artificialintelligence #deeplearning#artificialintelligence Sign Lan...
 

オブジェクト トラッキングを使用した YOLOv8 セグメンテーション: ステップバイステップのコード実装 | Google コラボ |ウィンドウズ



オブジェクト トラッキングを使用した YOLOv8 セグメンテーション: ステップバイステップのコード実装 | Google コラボ |ウィンドウズ

このビデオ チュートリアルでは、ディープ ソート トラッキング ID とトレイルを使用して YOLOv8 セグメンテーションを実装する方法に関する包括的なガイドを提供します。プレゼンターは、必要なスクリプト ファイルのインポート、依存関係のインストール、およびディープ ソートによるセグメンテーションとオブジェクト トラッキングに必要なディレクトリのセットアップのプロセスを視聴者に順を追って説明します。このチュートリアルには、一意の ID と移動の軌跡を使用したオブジェクト トラッキングのデモと、YOLOv8 セグメンテーションとディープ ソート トラッキングのワンクリック ソリューション コードを提供する GitHub リポジトリでのディスカッションが含まれています。このチュートリアルでは、YouTube チャンネルにアップロードされないビデオ チュートリアルへの排他的アクセスを持つパトロンのプログラムも紹介します。全体として、このチュートリアルでは、オブジェクト追跡を使用した YOLOv8 セグメンテーションのコード実装の段階的な説明を提供します。

  • 00:00:00 ビデオ チュートリアルのこのセクションでは、視聴者は、ディープ ソート トラッキング ID とトレイルを使用して YOLO V8 セグメンテーションを実装する方法について説明されます。このチュートリアルでは、コードのエンド ツー エンドの説明と、Google Colab および Windows と Linux での実装プロセスのデモンストレーションを提供します。視聴者は、YouTube チャンネルにアップロードされないビデオ チュートリアルを含む、週に 2 ~ 3 つのプロジェクトへの排他的アクセスを提供する新しいパトロンのプログラムも紹介されます。このビデオは、GitHub リポジトリの説明で締めくくられています。GitHub リポジトリは、YOLO V8 セグメンテーションとディープ ソート トラッキング用のワンクリック ソリューション コードを提供し、カスタム データセットまたは事前トレーニング済みの MS Coco データセットへの実装を容易にします。

  • 00:05:00 このセクションでは、プレゼンターはオブジェクト トラッキングを使用した YOLOv8 セグメンテーションの実装に関連する最初の手順を実行します。最初のステップでは、GitHub リポジトリのクローンを作成し、必要なすべてのスクリプト ファイルをインポートします。 setup.py ファイルを使用して依存関係がインストールされ、ディープ ソートによるセグメンテーションとオブジェクト トラッキングを実行するために必要なディレクトリが設定されます。次にプレゼンターは、Google ドライブからテスト用のサンプル ビデオをダウンロードし、各オブジェクトに割り当てられた一意の ID と各オブジェクトの動きを示す軌跡を使用して、オブジェクト トラッキングがどのように実行されるかを示します。このビデオは、PyCharm を使用して Windows システムに YOLOv8 を実装する方法の説明で締めくくられています。

  • 00:10:00 このセクションでは、スピーカーは Windows 上の Google Colab でオブジェクト トラッキングを使用して YOLOv8 セグメンテーションを実装するためのステップバイステップ ガイドを提供します。このプロセスには、GitHub リポジトリのクローン作成、現在のディレクトリのクローン フォルダーとしての設定、すべての依存関係のインストール、ディープ ソート ファイルのダウンロードが含まれます。ディープ ソート アルゴリズムを使用してオブジェクト トラッキングを実装するには、ディープ ソート ファイルが必要です。これらのファイルはダウンロードされ、セグメント化されたチュートリアル フォルダーに抽出されます。講演者はまた、ディープ ソートの代わりに使用できるオブジェクト追跡アルゴリズムが複数あることにも言及しています。

  • 00:15:00このセクションでは、スピーカーはオブジェクト トラッキング アルゴリズムについて説明し、テストの結果、ディープ ソート アルゴリズムが最も優れたパフォーマンスを発揮することがわかったと述べています。彼らは、スクリプトでの追跡に SORT アルゴリズムを使用すると説明しています。講演者はデモ ビデオをダウンロードし、オブジェクト トラッキングに使用される YOLOv8-sec BT 事前トレーニング済みモデルを説明するコードを示します。また、YOLOv8 のさまざまなモデルと、速度と精度のトレードオフについても説明します。最後に、スピーカーは predict.5 スクリプトについて説明し、検出されたオブジェクトの境界ボックスの色がどのように定義されているかを強調します。

  • 00:20:00このセクションでは、スピーカーは、検出されたオブジェクトの周りに長方形を作成し、一意の ID とラベルを割り当て、境界ボックスを作成する機能を実演します。 UI タッチ ボックス関数を使用してバウンディング ボックスと上記の長方形を作成する方法と、CV ドット 2 長方形関数を使用して検出されたオブジェクトの周囲に長方形を作成する方法について説明しています。スピーカーは、Dash boxing 関数の draw が境界ボックスの下端の中心を見つけて軌跡を描き、各オブジェクトに一意の ID を割り当てる方法も示します。全体として、スピーカーは、オブジェクト追跡を使用した YOLOv8 セグメンテーションのコード実装の段階的な説明を提供します。

  • 00:25:00このセクションでは、スピーカーはデータを格納するためのリストの代わりに両端キュー (DQ) の使用について説明します。 DQ は、オブジェクトの値を格納し、現在のフレームにないオブジェクトの ID を削除するために使用されます。このデータは、CV2 ツール ラインを使用してトレイルを描画するために使用されます。セグメンテーションが実行され、出力ビデオには、一意の ID が割り当てられたトレイルと検出されたオブジェクトが表示されます。講演者は、スクリプトを CPU で実行すると時間がかかる可能性がありますが、同じ手順で GPU で実行できることを指摘しています。
YOLOv8 Segmentation with Object Tracking: Step-by-Step Code Implementation | Google Colab | Windows
YOLOv8 Segmentation with Object Tracking: Step-by-Step Code Implementation | Google Colab | Windows
  • 2023.01.14
  • www.youtube.com
#yolov8 #objectdetection #objectracking #objectsegmentation #opencv#yolo #opencvpython #computervision #segmentation #machinelearning #artificialintellige...
 

ヨロv8 |物体検出 |セグメンテーション |完全なチュートリアル Google Colab|シングルクリック ソリューション



ヨロv8 |物体検出 |セグメンテーション |完全なチュートリアル Google Colab|シングルクリック ソリューション

ビデオ チュートリアルでは、オブジェクトの検出とセグメンテーションのために Google Colab を使用して YOLOv8 を実装する方法を示します。ユーザーは、GitHub リポジトリのクローン作成、パッケージのインストール、ディレクトリの構成、およびテスト用の Google ドライブからのデモ ビデオのインポートの手順をガイドされます。ユーザーは、デモ ビデオで物体検出のために YOLOv8 モデルを実行する方法、間隔の問題を修正する方法、および出力ビデオを保存およびダウンロードする方法も示されます。このチュートリアルでは、YOLOv8 を使用したセグメンテーションの実行についても説明し、続行する前に以前の圧縮ファイルを削除することの重要性を強調しています。ノートブック ファイルをダウンロードするためのリンクが提供されており、閲覧者はコメント セクションで質問をすることをお勧めします。

  • 00:00:00 このセクションでは、プレゼンターが検出とセグメンテーションに Google Colab を使用した YOLOv8 の実装について説明します。チュートリアルは、YOLOv8 GitHub リポジトリのクローンを作成し、必要なパッケージをインストールすることから始まります。プレゼンターは、必要なディレクトリを使用してシステムを構成し、テストのために Google ドライブからデモ ビデオをインポートする方法を示します。これらの手順に従って、提供されたセルを実行することにより、ユーザーは、オブジェクトの検出とセグメンテーションのために Google Colab に YOLOv8 をインストールして実装できます。

  • 00:05:00 このセクションのビデオ チュートリアルでは、デモ ビデオでオブジェクト検出用に YOLOv8 モデルを実行する方法について説明します。ビデオがフォルダーにインポートされ、YOLOv8 GitHub リポジトリがノートブックに追加されます。次に、「テスト 1」ビデオを YOLOv8 モデルで検出するためにテストし、「テスト 2」ビデオを試す前に間隔の問題を修正します。出力ビデオはパスに保存され、ダウンロードして結果を確認できますが、チュートリアルには、HTML および OS ライブラリを使用して Google Colab 内でデモ ビデオを表示するスクリプトも含まれています。

  • 00:10:00 この抜粋は、Google Colab で YOLOv8 を使用してオブジェクト検出モデルを作成するチュートリアルの続きのようです。スピーカーは、出力ビデオのパスが正しいことを確認するために、コードにいくつかの調整を加え、エラーをチェックしています。彼らは、RB.free が見つからない問題とスペースの問題について言及しており、コードを再度実行する前に修正しています。ビデオは、オブジェクト検出モデルの出力を示しています。

  • 00:15:00 このセクションでは、ユーザーは YOLOv8 を使用してセグメンテーションを実行します。必要なコードをコピーし、それを実行してセグメンテーションを実行し、出力ビデオで印象的な結果を取得します。ユーザーは、セグメンテーションを続行する前に、以前の圧縮ファイルを削除することの重要性を強調しています。また、ノートブック ファイルをダウンロードするためのリンクも提供し、視聴者がコメント セクションで質問をするように促します。
YOLOv8 | Object Detection | Segmentation | Complete Tutorial Google Colab| Single Click Solution
YOLOv8 | Object Detection | Segmentation | Complete Tutorial Google Colab| Single Click Solution
  • 2023.01.10
  • www.youtube.com
#objectdetection #segmentation #yolov8 #yolo *Update*I have updated the Google Colab Notebook, Now you can do Detection, Segmentation and Export the Model in...
 

AI 顔感情認識 | V7で顔の表情を識別する



AI 顔感情認識 | V7で顔の表情を識別する

ビデオ チュートリアルでは、V7 プラットフォームを使用して、AI の顔感情認識用の注釈付きデータセットを作成するプロセスについて説明します。チュートリアルでは、データセットの作成、感情の画像や動画への注釈付け、モデルのトレーニング、サンプル画像やライブ Web カメラでのテストなど、プロセスのさまざまな側面について説明します。 AI モデルを効果的にトレーニングするための正確なラベル付けの重要性は、チュートリアル全体で強調されており、V7 プラットフォームの機能と複数のモデルが強調されています。チュートリアルでは、AI を使用して顔の表情を識別するためのアノテーション プロセスの例をエンドツーエンドで提供します。

  • 00:00:00 このセクションでは、YouTuber が V7 プラットフォームを使用して表情検出器を作成する方法を説明します。データ セットの作成、画像と動画のアップロード、データ セットのラベル付けの手順を実行します。 V7 プラットフォームを使用すると、ユーザーはオブジェクト検出またはセグメンテーションと分類のためにモデルをトレーニングし、サンプル画像、ビデオ、さらには Web カメラでテストすることができます。 YouTuber は怒っている表情の例を使用し、画像をアップロードしてモデルをトレーニングします。また、V7 は、PNG、JPG、JFIF、MP4、ABI など、画像とビデオのさまざまな形式を提供することにも言及しています。全体として、このビデオは、V7 プラットフォームを使用して表情検出器を実装する方法に関するエンド ツー エンドのチュートリアルを提供します。

  • 00:05:00 このセクションでは、発表者が V7 ラボで顔の表情に注釈を付けるプロセスについて説明します。プレゼンターは、怒っているクラスの例を使用して、人物の顔の周りにバウンディング ボックスを描画し、怒りの感情のクラス ラベルを作成する方法を示します。次にプレゼンターは、データ セットに含まれる 50 枚の画像すべてに注釈を付けます。このプロセスは、ビデオ フレームに注釈を付ける場合にも複製できることに注意してください。全体として、プレゼンターは、AI の顔の感情認識モデルを効果的にトレーニングするための正確なラベリングの重要性を強調しています。

  • 00:10:00 ビデオのこのセクションでは、ビデオ データセットのフレームに注釈を付けて、AI の感情認識用の視覚画像を作成する方法をプレゼンターが示しています。プレゼンターはビデオ データセットをアップロードし、毎秒 1 フレームを抽出して個々の画像を作成します。次に、描写された感情を識別するために、画像に個別に注釈が付けられます。発表者は、このプロセスには時間がかかりますが、機械学習用の包括的なデータセットを作成するために重要であると述べています。プレゼンターは、AI の感情認識のために画像とビデオの両方に注釈を付ける機能も実演します。全体として、このセクションは、AI 感情認識用の注釈付きデータセットを作成するための役立つチュートリアルを提供します。

  • 00:15:00 このセクションでは、スピーカーは、V7 テクノロジを使用した AI 顔感情認識の「幸せ」クラスのデータセットをアップロードして注釈を付けるプロセスを説明します。講演者は 50 枚の画像をアップロードし、「幸せ」というラベルを付けて 1 つずつ注釈を付けます。彼らは、これまでに「怒っている」クラスの 100 枚を含む、合計 182 枚の画像に注釈が付けられていると述べています。また、ビデオをアップロードし、それを別々のフレームに分割して、それぞれに表情の注釈を付ける方法についても説明しています。

  • 00:20:00 このセクションのビデオ チュートリアルでは、AI の顔の感情認識を使用して、ビデオや画像内の幸せな人や怖い人を識別するためのアノテーション プロセスを紹介します。アノテーターは 66 の幸せな人のビデオをアップロードし、Envision で注釈を付け、各フレームを回転させ、幸せな表現または中立的な表現にラベルを付けます。次に、アノテーターは恐怖の新しいクラスを追加し、50 枚の画像をアップロードしてから、各画像に適切な感情ラベルで注釈を付けます。完成したデータ セットには 248 の画像とビデオが含まれており、チュートリアルでは、AI を使用して顔の表情を識別するためのアノテーション プロセスのエンドツーエンドの例を提供しています。

  • 00:25:00 このセクションでは、YouTuber が、AI 顔感情認識プロジェクトの画像に注釈を付けてアニメーション化する際の進捗状況について説明します。彼らは透明なガラスの 50 枚の画像すべてに注釈を付けることに成功し、恐怖の人物のビデオのフレームごとの注釈も完了しました。次に YouTuber は、最後のクラスであるサプライズ クラスのすべての画像に注釈を付け、すべての注釈が完了したら、ビデオのトレーニング部分に進むと述べています。このビデオはプロジェクトのワークフロー図を示しており、YouTuber は、即時のセグメンテーションや分類ではなく、オブジェクトの検出と境界ボックスの作成を行うことを明確にしています。

  • 00:30:00 このセクションのビデオ チュートリアルでは、V7 を使用して顔の表情と感情のデータセットで AI モデルをトレーニングするプロセスを示します。このチュートリアルでは、データセットのトレーニングをスケジュールおよび監視し、完了後に電子メール通知を送信する方法を示します。このビデオでは、モデルのパフォーマンス メトリック (平均精度と再現率、損失など) も強調されています。チュートリアルの最後に、Python、シェル、JavaScript、または Elixir を使用して、トレーニング済みのモデルをデプロイしてさまざまな API で使用する方法と、モデルをライブ Web カメラでもテストする方法を示します。

  • 00:35:00 このセクションでは、講演者が V7 ラボを使用して AI の顔の感情認識を実演します。このプロセスには、怒り、幸福、恐怖、驚きなどの感情の画像データ セットを収集してラベル付けすることが含まれます。スピーカーはモデルをトレーニングし、Web カメラと画像のサンプルを使用してテストし、優れた結果を達成します。 V7 ラボでは、セグメンテーションやテキスト スキャンなどのタスク用に複数のモデルも提供されており、ユーザーは無料のクレジットで独自のモデルを作成できます。講演者は、V7 を使用した将来のプロジェクトを紹介し、視聴者にビデオを共有して気に入ってもらうよう促します。
AI Face Emotion Recognition | Identifying Facial Expressions With V7
AI Face Emotion Recognition | Identifying Facial Expressions With V7
  • 2023.02.08
  • www.youtube.com
#objectdetection #videoannotation #computervision #expressionrecognition #facialemotiondetection #machinelearning ------------------------------------------...
 

YOLOv8 Live を使用したリアルタイムのフットボール選手とボールの検出と追跡 : オブジェクト追跡 YOLOv8



YOLOv8 Live を使用したリアルタイムのフットボール選手とボールの検出と追跡 : オブジェクト追跡 YOLOv8

この YouTube ビデオ チュートリアルでは、プレゼンターが、Roboflow を使用してフットボール選手とボールの検出および追跡データセットを作成するプロセスを実演します。プレゼンターは、画像のアップロードと注釈付け、データセットの準備、モデルのトレーニング、サンプル ビデオとライブ Web カメラでのテスト、追跡を改善するためのコードの変更の手順を順を追って説明します。全体として、YOLOv8 モデルはうまく機能しますが、特定のシナリオでのフットボールの検出にはいくつかの制限があります。

  • 00:00:00 チュートリアルのこのセクションでは、プレゼンターは、Roboflow を使用してフットボール選手とボール検出データセットを作成するプロセスを順を追って説明します。アカウントにサインアップして新しいプロジェクトを作成する方法と、YouTube からビデオをアップロードして処理し、注釈用のフレームを抽出する方法を示します。プレゼンターは、フレームにまだ注釈が付けられていないことに気付き、注釈用に別のビデオをアップロードします。

  • 00:05:00 このセクションでは、ビデオ作成者が、サッカー選手とボールの検出および追跡プロジェクトの画像をアップロードして注釈を付けるプロセスを示します。作成者は、画像をアップロードしてビデオからフレームを抽出し、画像に注釈を付ける作業を自分自身に割り当てます。各画像にサッカーまたはサッカー選手のラベルを付けて注釈を付け、各画像でさまざまな選手に注釈を付ける方法を示します。最後に、彼らはプロジェクトのために合計 1827 枚の画像に注釈を付けたことに注目しています。

  • 00:10:00 ビデオのこのセクションでは、すべての画像のサイズを 640x640 に変更し、注釈のない画像を除外し、拡張データを生成してデータセットを増やすことにより、フットボール選手とボール検出モデルのデータセットを準備することについてプレゼンターが話しますサイズ。拡張データには、1 つの画像から生成された、コントラストと明るさのレベルが異なる 2 つの画像が含まれます。プレゼンターはデータセットを Roboflow から Google Colab ファイルにエクスポートし、GitHub リポジトリから抽出したサッカー データセットを使用してモデルをトレーニングします。また、Google ドライブを Colab ノートブックに接続して、トレーニング済みモデルの重みを保存します。

  • 00:15:00 このセクションでは、ユーザーは現在の作業ディレクトリを GitHub リポジトリとして設定し、必要なすべての依存関係をインストールして、検出または予測プロセスの実行中にエラーが発生しないようにします。次に、必要なディレクトリ検出に移動し、データセットを roboflow から Google ノートブックにダウンロードします。また、ユーザーはディープ ソート ファイルをダウンロードして解凍し、ディープ ソートを使用したオブジェクト トラッキングを実装します。最後に、フットボール選手とフットボールのデータセットで YOLOv8 のカスタム モデルをトレーニングして検証し、適切な平均値を確保します。ユーザーは、F1 曲線、Precision 曲線、Recall 曲線、およびトレーニングと検証バンクの結果を含むトレーニング結果を確認できます。

  • 00:20:00 このセクションでは、スピーカーは、フットボール選手とボールの検出と追跡のための YOLOv8 モデルの結果について説明します。彼らは正確な結果を報告しており、選手の平均精度は 0.63144 と 0.476 であり、サッカーの検出も良好です。次にスピーカーは、サンプル ビデオをダウンロードしてモデルをテストし、結果を示し、モデルをライブ Web カメラ テストに配置する方法を実演します。全体として、このモデルは選手の検出と一意の ID の割り当てでうまく機能しましたが、サッカーの検出を逃したものもいくつかありました。

  • 00:25:00 このセクションのビデオでは、追跡プロセスを簡素化するために、コードでフットボールに割り当てられた一意の ID を削除する方法を示しています。コードの変更は、project.py ファイルを編集し、サッカー ラベルに割り当てられた一意の ID を削除することによって行われます。次に、出力ビデオがダウンロードされ、ライブ Web カメラでテストされます。この場合、モデルはフットボールを正常に検出できますが、プレーヤーはプレーヤーのように服を着ていないため、プレーヤーを検出できません。全体として、コードに加えられた変更により追跡プロセスが改善され、満足のいく結果が得られました。

  • 00:30:00 このセクションでは、プレゼンターが、YOLOv8 を使用してライブ Web カメラで予測を実行するために作成されたスクリプトを示します。このスクリプトは YOLO をインポートし、重みファイルを設定して、ソースを 0 に設定し、show を true に設定して予測を実行します。信頼値は 0.15 に設定されます。モデルは選手に扮した状態ではプレゼンターを検出できませんでしたが、フットボールの検出には成功しました。
Real Time Football Player and Ball Detection and Tracking using YOLOv8 Live :Object Tracking YOLOv8
Real Time Football Player and Ball Detection and Tracking using YOLOv8 Live :Object Tracking YOLOv8
  • 2023.02.13
  • www.youtube.com
#objectdetection #computervision #yolo #yolov8 #objecttracking #opencv #opencvpython #pytorch Real Time Football Player and Ball Detection and Tracking using...
 

顔、性別検出、顔カウント、および人物追跡のための YOLOv8 および VGG16 |カスタム データセット



顔、性別検出、顔カウント、および人物追跡のための YOLOv8 および VGG16 |カスタム データセット

このビデオ チュートリアルでは、YOLOv8 および VGG16 モデルを使用した顔検出、性別分類、顔カウント、人物追跡のプロセスについて説明しています。このチュートリアルでは、これらのモデルの実装とトレーニングのさまざまな側面について説明します。これには、データの準備、データの増強、トレーニング済みの VGG16 モデルの微調整、転移学習の使用、顔検出のための YOLOv8 モデルのトレーニングが含まれます。プレゼンターは、Google ドライブを Google Colab ノートブックにマウントする方法、画像データセットにアクセスして変換する方法、必要なライブラリをダウンロードする方法、ディープソートを使用してオブジェクト トラッキングを統合する方法についても説明します。このチュートリアルでは、検出されたオブジェクトの周囲に境界ボックスを描画し、性別分類モデルを統合し、フレーム内の顔の数を数え、deepsort.update を使用して検出された各顔に一意の ID を割り当てるための詳細なコード説明を提供します。

  • 00:00:00 ビデオ チュートリアルのこのセクションでは、性別分類による顔検出と、YOLOv8 および VGG16 を使用した追跡による顔カウントのワークフローについて説明します。最初のステップは、男性と女性の顔の画像を含むデータセットを準備し、性別検出のために VGG16 モデルをトレーニングし、続いて顔検出のために YOLOv8 モデルをトレーニングすることです。 YOLOv8 の顔検出では、トレーニング済みの VGG16 モデルを使用して性別分類が行われます。次に、Deepsort を使用してオブジェクト トラッキングを実装し、検出された各顔または人物に一意の ID を割り当てます。ノートブックは、必要なライブラリのインポート、Google ドライブのマウント、データセットの読み込み、画像とラベルの配列への変換、データ拡張の適用、性別分類データに対する VGG16 モデルの微調整、トレーニングと検証損失のプロット、およびサンプル画像でテスト。

  • 00:05:00 このセクションでは、スピーカーは、画像を numpy 配列に、またはその逆に変換するために使用できるさまざまなライブラリと関数について説明します。また、2 ダッシュ カテゴリ ライブラリの使用と、ニューラル ネットワークで層を配置するための順次的および関数的アプローチの概念についても説明します。平坦化層は多次元入力を 1 次元に変換するために使用され、密層は出力層のサイズを定義するために使用されます。さらに、VGG16 モデルでの転移学習の使用と、トレーニング テストの分割、numpy、および OS ライブラリのインポートについても説明します。最後に、フォルダー内のすべてのファイルにアクセスするための gdob ライブラリーと、画像データセットをシャッフルするためのランダム ライブラリーの使用について言及しています。

  • 00:10:00 このセクションの動画では、zip 形式でアップロードされたデータセットにアクセスするために Google Colab ノートブックを使用して Google ドライブをマウントする方法を説明しています。データセットには男性と女性の顔の画像が含まれており、ビデオでは、これらの画像を含むフォルダーを解凍してアクセスする方法を示しています。ビデオは glob ライブラリを使用して、データセット フォルダー内のすべての画像ファイルにアクセスし、画像が男性か女性かを示すラベル付きの配列形式に変換します。このビデオでは、サンプル画像を示し、画像ファイル変数に男性と女性のフォルダーのすべての画像ファイル パスがどのように含まれているかを説明しています。これは、cb2.im read を使用して読み取ることができます。

  • 00:15:00 このセクションでは、スピーカーは、顔と性別の検出のためにデータセットをどのように準備したかを説明します。彼らは「男性」と「女性」のフォルダーを作成し、その中の画像のサイズを変更し、それらを配列に変換してデータ リストに格納しました。対応するラベル値をラベル リストに追加しました。女性は 1、男性は 0 です。データとラベルのリストは、NumPy を使用して配列に変換されました。また、講演者は、画像データ ジェネレーターを使用してデータ拡張を実演し、さまざまな変換を適用して 1 つの画像から複数の画像を生成します。次に、性別分類データセットで事前トレーニング済みの VGG16 モデルを微調整し、softmax アクティベーションを実装して出力レイヤーを定義しました。男性または女性のいずれかを分類するために、出力サイズは 2 に設定されました。

  • 00:20:00 ビデオ チュートリアルのこのセクションでは、スピーカーは顔と性別の検出のための VGG16 モデルを実演し、一般的な分類データセットでそれをトレーニングする方法を示します。モデルは .H5 形式で保存され、その精度、検証精度、損失部分が計算されます。 cv2.dsize を使用して、画像を 100x100 の次元にリサイズし、配列に変換します。モデルは、画像に男性が含まれているか女性が含まれているかを予測します。チュートリアルの次の部分では、YOLOv8 モデルを顔データセットでトレーニングして、顔を検出し、追跡用の一意の ID を割り当てます。講演者はまた、predict.pi ファイルに追加された単純なコードを使用してフェイス カウントが実装されることにも言及しています。全体として、チュートリアルは 7 つのステップに分かれています。

  • 00:25:00 このセクションでは、プレゼンターは、ディープ ソートを使用したオブジェクト トラッキングを実装するために使用する GitHub リポジトリと、フェイス リダクション用の YOLO V8 モデルを紹介します。彼らは、ディープ ソート オブジェクト トラッキング コードを統合して各人に一意の ID を割り当てる前に、顔を検出して性別を分類する方法について説明しています。次に、プレゼンターは現在のディレクトリを複製リポジトリとして設定し、スクリプトに必要なすべての必要なライブラリと依存関係をインストールします。また、RoboFlow から Google Colab ノートブックにデータセットをダウンロードしますが、プライベート アカウントを持っているために問題が発生します。

  • 00:30:00 事前トレーニング済みの YOLOv8 モデルの重みを顔検出に使用します。データセットがダウンロードされ、Google ドライブ アカウントに保存されます。顔検出用に 80 エポックの YOLOv8 モデルを既にトレーニングしています。トレーニング済みのモデルは既に保存されており、重みは Google Colab ノートブックにダウンロードされています。ディープ ソートを使用してオブジェクト トラッキングが実装されるため、ディープ ソート ファイルもノートブックにダウンロードされます。さらに、VGG16 モデルは性別検出用にトレーニングされており、モデルの .h5 ファイルが保存され、Google ドライブ アカウントにダウンロードされています。サンプル ビデオは Google ドライブからダウンロードされ、predict.pi スクリプトをテストします。このスクリプトには、性別分類器のコードと顔のカウントが含まれています。

  • 00:35:00 このセクションでは、スピーカーはディープ ソートを使用したオブジェクト トラッキングを実装するために追加されたコードについて説明します。ディープ ソート オブジェクト トラッキング ポートが初期化され、YOLOv8 モデルから受け取った出力をディープ ソート用の互換性のある形式に変換する関数が定義されます。 UI ボックス関数は検出されたオブジェクトの周囲に境界ボックスを作成し、ドロー ボックス関数は UI ボックス関数と境界線関数を呼び出して、テキストの角の丸い四角形を描画します。トレイルを描画する機能とともに、ディープ ソート トラッキング コードが統合されています。次にスピーカーは、ペイント ファイル内の性別分類器とカウント関数のコードを説明します。 count 関数は、各フレーム内の各オブジェクトをカウントするために使用されます。全体として、このコードは、YOLOv8 からの X1、Y1、X2、および Y2 出力値を、ディープ ソートを使用してオブジェクト追跡の中心座標、高さ、および幅の値に変換し、実際のアプリケーションでオブジェクト検出とオブジェクト追跡を実装する方法を説明しています。

  • 00:40:00 このセクションでは、スピーカーは、YOLOv8 モデルをバウンディング ボックスの xcyc 中心座標と、バウンディング ボックスの幅と高さに変換して、ディープ ソート オブジェクト トラッキングと互換性を持たせる方法について説明します。また、ラベルの色の計算関数が検出されたオブジェクトに一意の色を割り当てる方法と、破線境界線の描画関数がラベルと信頼スコアが書き込まれる境界ボックスの上に長方形を作成する方法についても説明します。講演者は、性別分類子クラスについても説明し、検出されたオブジェクトの性別を分類するためにビデオの各フレームに読み込まれて使用される方法についても説明します。さらに、境界ボックスを作成し、性別分類関数を呼び出すために使用される UI Dash box 関数と draw Dash box 関数についても言及しています。

  • 00:45:00 このセクションでは、プレゼンターが性別分類モデルを使用して、顔が男性のものか女性のものかを検出する方法を説明します。顔を検出した後、境界ボックスの座標のみが性別分類モデルに渡されます。次に、モデルは顔が男性に属するか女性に属するかを予測し、それに応じて境界ボックスの上にラベルが追加されます。次にプレゼンターは、関数 count について説明します。この関数は、Foundry-classes と呼ばれる辞書を使用して、フレーム内で検出された顔の数を格納します。カウントは、ビデオまたは画像の上部にある UI に表示されます。

  • 00:50:00 このセクションでは、スピーカーは、現在のフレームで検出された顔の数のカウントが、FaceDetails クラスの Foundry クラス ディクショナリに格納されていることを説明します。ディクショナリには、「顔」を含むキー変数と、現在のフレームで検出された顔の数を含む値変数の 2 つの値が含まれます。スピーカーは count 関数を使用して、各フレームで検出された顔の数を示し、deepsort.update を使用して、検出された各顔に一意の ID を割り当てます。スピーカーは、一般クラス、分類クラス、および危険クラスも作成します。モデルの検出は複数のデモ ビデオでテストされ、スピーカーは各フレームで検出の結果を示します。
YOLOv8 and VGG16 for Face, Gender Detection, Face Counting, and People Tracking | Custom Dataset
YOLOv8 and VGG16 for Face, Gender Detection, Face Counting, and People Tracking | Custom Dataset
  • 2023.03.05
  • www.youtube.com
#objectdetection #computervision #yolo #yolov8 #ultralytics #transferlearning #vgg16 #objecttracking #deepsort #facedetection #opencv #opencvpython #pytorc...
 

YOLOv8 を使用した信号機の検出と色認識。カスタム オブジェクト検出のチュートリアル



YOLOv8 を使用した信号機の検出と色認識。カスタム オブジェクト検出のチュートリアル

ビデオ チュートリアル「YOLOv8 を使用した信号機の検出と色認識」では、Ultralytics YOLOv8 web pro を使用して信号機の検出と色認識モデルを作成する手順について説明しています。信号機のデータセット、データ拡張、必要なライブラリのインストール、YOLOv8 モデルの微調整、いくつかのビデオでのモデルのテストについて説明します。プレゼンターは、必要なすべてのライブラリをインストールすることの重要性を強調し、ビデオでモデルをテストした結果は、さまざまな色の信号機を検出して認識する精度を示しています。

  • 00:00:00 セクションのチュートリアルでは、プロジェクトに使用する信号機データセットについて説明します。これは、緑、赤、黄の 3 つの異なる信号機クラスを持つ約 1000 枚の画像で構成されています。各ラベルの例を示し、トレーニング データセットに十分な画像がなかったため、データ拡張を適用してデータセットのサイズを拡大した方法を説明しています。ビデオは、RoboFlow から Google Colab ノートブックにデータセットをエクスポートする方法を示し、モデルのトレーニング、デプロイ、監視などに役立つ新しく発売された製品である Expense を紹介します。

  • 00:05:00 このセクションでは、YouTuber が、ultralytics YOLOv8 web pro を使用して信号機検出および色認識モデルを作成するための実装プロセスの最初の手順について説明します。最初のステップでは、OS や glob などの必要なすべてのライブラリをインポートします。これらのライブラリは、さまざまなファイル パスをナビゲートし、入力および出力イメージをプロットするために使用されます。次に、GPU の存在を確認し、必要なすべてのライブラリを pip を使用してインストールします。最後に、ultralytics GitHub リポジトリのクローンを作成し、それを現在のディレクトリとして設定してから、残りの必要なライブラリをインストールします。このビデオでは、必要なすべてのライブラリをインストールして、後でスクリプト エラーを回避することの重要性を強調しています。

  • 00:10:00 ビデオのこのセクションでは、プレゼンターが、Google Colab を使用して信号機データセットで YOLO V8 モデルをトレーニングおよび微調整する手順を示します。データセット フォルダーを現在のディレクトリとして設定した後、モデルは 80 ボックスの Ade ボックスでトレーニングされ、結果は、すべてのクラスの IOU50s での平均精度が 98.3% であることを示しています。次に混同行列が表示され、モデルがそれぞれ 96.7%、97.4%、95.5% の確率で、緑、赤、黄色のライトを正確に分類したことが示されます。発表者はまた、損失が継続的に減少していること、およびより多くのエポックでモデルをトレーニングすることでモデルをさらに改善できることにも言及しています。最後に、モデルの最適な重みが検証画像を使用して検証されます。

  • 00:15:00 このセクションでは、スピーカーは信号機のデモ ビデオを含むいくつかのビデオで YOLOv8 モデルをテストした結果について説明します。このモデルは信号機を正確に検出し、信号機の色と一致するバウンディング ボックスの色を使用して、信号機の色に基づいてラベルを割り当てることができます。スピーカーは、赤、緑、黄色の信号機を検出するモデルの例を、それぞれに適切なラベルと境界ボックスの色と共に示します。さまざまなビデオでのモデルの結果は、さまざまな色の信号機の検出と認識におけるその精度を示しています。
Traffic Lights Detection and Color Recognition using YOLOv8 | Custom Object Detection Tutorial
Traffic Lights Detection and Color Recognition using YOLOv8 | Custom Object Detection Tutorial
  • 2023.03.16
  • www.youtube.com
#yolo #yolov8 #objectdetection #computervision #opencv #pytorch #python #trafficlights #trafficlightsdetection #trafficanalysis A complete YOLOv8 custom o...
 

ANN を使用した顧客離れの分析と予測|深層学習のチュートリアル (Tensorflow、Keras、Python)



ANN を使用した顧客離れの分析と予測|深層学習のチュートリアル (Tensorflow、Keras、Python)

「ANN を使用した顧客離れの分析と予測 | ディープ ラーニング チュートリアル (Tensorflow、Keras、Python)」というタイトルの YouTube ビデオでは、人工ニューラル ネットワークを使用して、Kaggle のデータセットを使用して顧客離れを予測する方法を示しています。このビデオでは、データのクリーニング、カテゴリ特徴のエンコード、列の値のスケーリングなど、データの準備に関連するさまざまな手順について説明します。次に、スピーカーは、20 個のニューロンからなる単一の隠れ層とシグモイド活性化関数を使用してニューラル ネットワークを作成し、入力層と出力層、およびバイナリ クロス エントロピー損失関数を使用するオプティマイザーを定義します。達成された精度と Scikit-learn ライブラリを使用した分類レポートが表示されます。予測値は 0 または 1 の形式に変換され、0.78 の精度を示します。

  • 00:00:00 このセクションでは、YouTuber が顧客離れのトピックを紹介し、人工ニューラル ネットワークを使用してそれを予測する方法を説明します。 Kaggle と Jupyter Notebook のデータセットを使用して探索的データ分析とデータ クリーニングを実行し、続いてデータ ラングリング、トレーニング テストと分割を行い、最終的に人工ニューラル ネットワークを使用して顧客離れを予測します。 Pandas や NumPy などの必要なライブラリをインポートすることから始め、データセットの読み込みと分析に進みます。顧客離れの予測には役立たないため、顧客 ID 列を削除します。

  • 00:05:00 ビデオのこのセクションでは、スピーカーはデータ型をチェックし、カテゴリ特徴を特定するプロセスについて説明します。スピーカーは、浮動小数点数または整数値である必要があるにもかかわらず、「合計料金」列がカテゴリ変数として表示されていることを発見しました。この問題を解決するために、スピーカーは列を整数に変換します。また、488 の位置で空のスペース エラーが発生し、errors = "coerce" を使用して解決し、エラーを無視します。最後に、スピーカーは行に値がないことを確認し、必要に応じてそれらを削除する予定です。

  • 00:10:00 このセクションでは、スピーカーは Python を使用して合計料金列から空の行を削除するプロセスについて説明します。最初に、スピーカーは合計料金列の空の行の数を特定し、pd.notnull() を適用してそれらを削除します。行を削除した後、スピーカーは残りの行数をチェックして、予想される数と一致することを確認します。その後、スピーカーは pd.to_numeric() を使用して合計料金列を数値データ型に変換します。スピーカーは、データ型変換を保存しないというエラーを識別し、それを調整します。

  • 00:15:00 ビデオのこのセクションでは、プレゼンターが顧客離れデータの探索的データ分析を行います。 「合計料金」列を float 型に変換し、視覚化を使用して値を確認します。次に、ヒストグラムをプロットして、10 か月の期間に基づいて (解約ではなく) 忠実な顧客が何人滞在しているかを確認し、顧客を離れていることを示すデータ ポイントを緑、滞在していることを示すデータ ポイントを赤で色分けします。

  • 00:20:00 このセクションでは、スピーカーはステートメントを変更して各列の一意の値を見つけ、一意の値の前に列名を追加する方法について説明します。スピーカーは、カテゴリ変数を含むすべての列を見つけて、それらを整数または浮動小数点数に変換することについても話します。次に、これらすべてのステップをまとめて、任意のデータフレームでカテゴリ値を出力できる関数を定義します。

  • 00:25:00 ビデオのこのセクションでは、関数を使用して、関数に入れられたデータ フレームのカテゴリ値またはオブジェクト データ型の値を出力する方法を講演者が実演します。次に、列を float データ型に変換して削除することで、データ フレームを変更します。スピーカーは、replace 関数を使用して「インターネット サービスなし」と「電話サービスなし」を「いいえ」に置き換え、すべての yes 変数と no 変数をそれぞれ 1 と 0 に置き換える yes-no 列を定義して、カテゴリ値を機械学習モデルが理解しやすい数値。

  • 00:30:00 このセクションでは、スピーカーは、機械学習用のデータの準備に含まれる手順について説明します。彼らは、データセットをトレーニング セットとテスト セットに分割する方法と、「女性」を 1 に、「男性」を 0 に置き換えることによってカテゴリ特徴をエンコードする方法を示しています。次に、スピーカーは TensorFlow と Keras を使用して、単一の隠れ層を持つニューラル ネットワークを作成します。 20個のニューロンとシグモイド活性化関数の。入力レイヤーには 27 個のフィーチャがあり、出力レイヤーが定義されています。

  • 00:35:00 ビデオのこのセクションでは、プレゼンターは、機械学習モデル用のデータを準備するために、get dummies を使用してテキスト データを整数値に変換する方法について説明します。プレゼンターは、インターネット サービスやコントラクトなどの変数のダミー値を生成する方法を示し、最小最大スカラーを使用して、列の値を 0 から 1 の間でスケーリングします。スケーリングの目的は、列の値を 0 から 1 の間にすることです。 1 機械学習モデルがデータを正確に理解して解釈できるようにします。

  • 00:40:00 このセクションでは、スピーカーは、人工ニューラル ネットワークを使用して、顧客離れの分析と予測のために、入力層、出力層、オプティマイザを定義する方法について説明します。彼は、不要な入力層を削除し、シグモイド活性化関数を使用して 1 または 0 で構成される出力層を定義します。彼は、ReLU 関数は分類問題の隠れ層で使用できますが、出力層では使用できないことに注意しています。オプティマイザはバイナリ クロス エントロピー損失関数で定義され、精度は 100 エポック モデルのコンパイルでチェックされます。最後に、達成された精度と Scikit-learn ライブラリを使用した分類レポートを表示します。

  • 00:45:00 このセクションでは、スピーカーは、2 次元配列で 0 から 1 の範囲の予測値を 0 または 1 の形式に変換する方法を説明します。彼らは for ループを使用してこれを行い、値が 0.5 より大きい場合は 1 と見なされ、0.5 未満の場合は 0 と見なされると述べました。値を変換した後、話者は分類を出力しました。レポートでは、0.78 の精度が示されています。チュートリアルは、スピーカーが視聴者に視聴者に感謝し、チャンネルに登録するよう招待することで終了します。
Customer Churn Analysis and Prediction using ANN| Deep Learning Tutorial(Tensorflow, Keras & Python)
Customer Churn Analysis and Prediction using ANN| Deep Learning Tutorial(Tensorflow, Keras & Python)
  • 2021.08.10
  • www.youtube.com
deeplearning, neuralnetworks, neuralnetwork, deeplearningalgorithms, python3, python, ANN, dataanalysis, dataanalytics, machinelearning
 

車両追跡・交通監視 yolov5+deepsort



車両追跡・交通監視 yolov5+deepsort

みんながYouTubeからここに来るか、推論のために私のレポを使いたいだけです。これは、私が学校にいたときに履歴書を学ぶためだけの非常に古いプロジェクトです。久しぶりすぎて、このおもちゃプロジェクトで何をしたかすっかり忘れてました。私はこのレポから編集し、いくつかの制約のためにいくつかのコード行を追加しました。皆さんはそのレポを参照に使用できます。ありがとう。

YOLOv5によって生成された検出は、オブジェクトを追跡するディープ ソート アルゴリズムに渡されます。

コード: https://github.com/duongcongnha/Vehicle-tracking

Vehicle tracking / Traffic monitoring yolov5+deepsort
Vehicle tracking / Traffic monitoring yolov5+deepsort
  • 2022.01.21
  • www.youtube.com
Full 34 minutes of Tracking traffic using yolov5 + deepsortVideo: https://youtu.be/wqctLW0Hb_0My repo: https://github.com/duongcongnha/Vehicle-tracking
 

CVPR 2018 の第 2 回 AI シティ チャレンジ ワークショップでの車両追跡と速度推定のデモ



CVPR 2018 の第 2 回 AI シティ チャレンジ ワークショップでの車両追跡と速度推定のデモ

ワシントン大学の私たちのチームは、CVPR 2018 の第 2 回 AI シティ チャレンジ ワークショップでトラック 1 (トラフィック フロー分析) の勝者になりました。

第 2 回 AI シティ チャレンジ (2018) のデータセットは公開されなくなりました。ただし、3rd AI City Challenge (2019) のデータセットにアクセスしたり、CVPR 2020 の最新の 4th AI City Challenge に参加したりすることはできます。

彼らは、マルチカメラ車両追跡と画像ベースの再識別のための新しい都市規模のデータセットを提供しました。また、トラフィックの異常を検出するための新しいデータセットも用意されました。データセットの規模と評価に使用されている車両の数は、どちらも前例のないものです。 AI City Challenges の Web サイトはhttps://www.aicitychallenge.org/です。

コード: https://github.com/zhengthomastang/2018AICity_TeamUW

Demo of vehicle tracking and speed estimation at the 2nd AI City Challenge Workshop in CVPR 2018
Demo of vehicle tracking and speed estimation at the 2nd AI City Challenge Workshop in CVPR 2018
  • 2018.04.09
  • www.youtube.com
In this demo video, the estimated speed of each vehicle is shown in miles/hour.Our team from the University of Washington is the winner of Track 1 (Traffic F...
理由: