00:15:00 ビデオのこのセクションでは、スピーカーはオブジェクト検出アルゴリズムをフレーム全体ではなく ROI に適用し、検出がどのように改善されたかを示しています。ただし、誤検知と検出アルゴリズムにはまだ問題があります。オブジェクト検出を改善するために、スピーカーは履歴のサイズと var しきい値を調整します。これは、誤検知の量に影響します。次にスピーカーは、検出された各オブジェクトを囲む四角形を抽出し、ROI に緑色で描画します。最後に、スピーカーは、しきい値演算子を使用して画像内の白い要素のみを保持することにより、画像から影を取り除き、より正確なオブジェクト検出を実現します。
00:25:00 このセクションのビデオでは、OpenCV と Python のオブジェクト追跡機能に一意の ID を追加する方法について説明しています。オブジェクトごとに異なる ID が割り当てられるようになり、オブジェクトをカウントする際の間違いを防ぐことができます。 ID を使用することで、オブジェクトを正しくカウントし、オブジェクトが交差したことを検出するために線を引くことができます。ビデオの最後では、示されている方法は単純で完璧ではありませんが、オブジェクト トラッキングの入門としては適切であることを説明しています。オブジェクトの検出と追跡に関するより深い知識については、作成者は、OpenCV とディープ ラーニングに関するビデオ コースを視聴することを推奨しています。
Sergio Canu Hi there, I’m the founder of Pysource. I’m a Computer Vision Consultant, developer and Course instructor. I help Companies and Freelancers to easily and efficiently build Computer Vision Software .
pysource.com
In this tutorial we will learn how to use Object Tracking with Opencv and Python. First of all it must be clear that what is the difference between object detection and object tracking: Object detection is the detection on every single frame and frame after frame. Object tracking does frame-by-frame tracking but keeps the history of where the...
Code: https://github.com/computervisioneng/image-classification-yolov80:00 Intro0:41 Dataset1:54 Data structure4:50 Train method 1: Python in local environme...
00:00:00 ビデオのこのセクションでは、プレゼンターが、YOLOv8 を使用してオブジェクト検出器をトレーニングする際のデータ収集の重要性と、自分の写真を撮ったり、公開されているデータセットを使用したりするなど、データを収集するさまざまな方法について説明します。 Open Images Set のように。発表者はデモンストレーションの目的でアルパカ データセットを使用し、視聴者にはデータセットに含まれる画像の例が表示されます。さらに、プレゼンターは、チュートリアルに必要な正確な方法で Open Images Set からデータをダウンロードしてフォーマットするためのスクリプトを視聴者に提供できると述べています。
In this video I show you a super comprehensive step by step tutorial on how to use yolov8 to train an object detector on your own custom dataset! dataset If you want to train yolov8 with the same dataset I use in the video, this is what you should do: Go to prepare_data directory. Execute...
00:20:00 このセクションでは、プレゼンターはディープ ソート オブジェクト トラッキングのプロセスについて説明します。これには、フレームと検出されたオブジェクトの特徴を計算することが含まれます。アルゴリズムはフレームをトリミングして特徴を抽出し、すべてのトラックを反復処理するために、プレゼンターはループを使用して境界ボックスとトラック ID にアクセスします。ビデオで検出された各人物またはオブジェクトには、すべてのフレームで安定した ID が割り当てられています。検出された新しい ID ごとに、プレゼンターはビジュアライゼーション内のランダムな色のリストを使用して、異なる色でそれをプロットします。
Yolov8 object detection + deep sort object tracking ! requirements Deep Sort We are working on this fork from deep sort official implementation. You can download deep sort feature extraction model here. data You can download the same data I use in the video here.
01:00:00 このセクションでは、スピーカーは、科学プロジェクトがプロジェクトの実現可能性と可能性を確立するために、できるだけ早くプロトタイプを作成することの重要性を強調しています。説明のために、スピーカーは曲がった LED を検出する例を示します。これには、超高精度のモデルまたは顕微鏡などのセンサーが必要です。モバイル ネット モデルと Web カメラを使用して迅速にプロトタイプを作成すると、パフォーマンスが低下する可能性があります。これは、別の手法またはセンサーが必要であることを示しています。プロトタイピングは、改善のためのベースラインを迅速に確立するのに役立ちます。スピーカーは、低品質の画像を削除し、より良い検出のためにより良い品質の画像をキャプチャすることの重要性を強調しながら、収集した画像を使用してモデルをトレーニングし、高評価を検出します。
01:15:00 このセクションでは、インストラクターが注釈ファイルを作成して画像にラベルを付ける方法を説明します。注釈ファイルは、画像内のオブジェクトの位置を記述する xml ファイルです。インストラクターは、複数のオブジェクトで画像にラベルを付ける方法を示し、注釈を適切に保存する方法を説明します。画像にラベルを付けるプロセスは、アウトソーシングするか、軽量のオブジェクト検出モデルを使用してラベル付けプロセスを自動化する新しいツールを使用することで、スケールアップできます。
01:45:00 このセクションでは、プレゼンターが TensorFlow オブジェクト検出モデル API のクローンを作成してインストールする方法を説明します。モデル API は、TensorFlow モデル ガーデンからダウンロードできます。ここには、多くのドキュメントとオープンソースのチュートリアルがあります。次にプレゼンターは、TensorFlow Object Detection Model API を使用するために必要なすべてのファイルを含む research フォルダーに移動する方法を示します。リサーチ フォルダのクローンを作成した後、プレゼンターは、TensorFlow オブジェクト検出モデル API を正常にインストールするために必要な protoc およびその他の必要なコンポーネントをインストールする方法の説明に進みます。最後に、プレゼンターは、検証スクリプトを実行して TensorFlow Object Detection API が正常にインストールされたかどうかを確認することで、インストールを検証する方法を示します。
03:20:00 ビデオのこのセクションでは、インストラクターがトレーニング済みモデルを使用して画像内のオブジェクトを検出する方法を示します。最新のチェックポイントが読み込まれ、検出スクリプトを実行するためにイメージ名が指定されます。インストラクターは、画像が有効で、images フォルダーにある必要があることを強調しています。セルを実行すると、トレーニング済みのオブジェクト検出モデルが画像内のオブジェクトを識別します。インストラクターはさらに、ファイルを圧縮してエクスポートする方法を説明し、コードをローカルで実行するときにオブジェクト検出 API をインストールする必要性を強調します。このセクションは、オブジェクト検出のための顕微鏡の使用、TensorFlow.js Web アプリの構築、Raspberry Pi 感情検出の実行など、次に取り上げる 3 つのプロジェクトをプレビューすることで締めくくります。
03:25:00 このセクションでは、インストラクターが最初のプロジェクトの説明から始めます。このプロジェクトでは、USB 顕微鏡を使用して小さな LED の欠陥を検出します。顕微鏡は他のカメラと同じように扱われ、ビデオ フィードは OpenCV ライブラリを使用して取得されます。インストラクターは、Python コードを使用して顕微鏡を配置およびズームする方法を示し、ビデオ フィードを表示します。次に、ビデオ フィードを使用して、オブジェクト検出用のトレーニング イメージを収集します。このプロジェクトの目標は、モデルをトレーニングして LED の欠陥を検出し、それらを曲がっているか曲がっていないかを分類することです。
03:30:00 TensorFlow Object Detection フル コースの 3 つのプロジェクトのこのセクションでは、インストラクターが OpenCV を使用して Web カメラまたは顕微鏡フィードから画像をキャプチャする方法を示します。彼は、cv2 Web キャプチャを閉じた後に「cap.release」を実行するなど、キャプチャ デバイスを解放し、OpenCV ウィンドウを破棄するためのベスト プラクティスについて説明しています。次に、顕微鏡の位置と焦点を調整して LED ピンの画像をキャプチャする方法と、欠陥のあるピンと正常なピンの画像を保存する 2 つの新しいフォルダーを作成する方法を示します。最後に、画像キャプチャ用の Web カメラ フィードをテストして、すべてが期待どおりに機能していることを確認します。
04:45:00 このセクションでは、ビデオは 2 番目のプロジェクトを終了し、Raspberry Pi でオブジェクト検出モデルを実行することを含む 3 番目のプロジェクトに進みます。講演者は、GPU がないため、Raspberry Pi でオブジェクト検出モデルを実行することは、前の 2 つのプロジェクトとは異なり、そのためモデルを特に Tensorflow lite 形式に変換すると述べています。幸せそうな顔と悲しい顔の画像を収集し、以前と同じプロセスを使用してモデルをトレーニングします。ただし、彼らはこのプロジェクトに Raspberry Pi を使用し、検出のためにリモート デスクトップを使用します。ビデオは、さまざまなデバイスで複数の異なるモデルを実行する可能性に言及して終了し、視聴者にこのトピックに関するアイデアを共有するよう促します.
05:05:00 このセクションでは、講師が TensorFlow オブジェクト検出を使用して Raspberry Pi 検出モデルを構築するために必要な手順を説明します。最初のステップは、TensorFlow オブジェクト検出コースを実行して TfLite ファイルを作成することです。次に、ユーザーは Raspberry Pi 検出リポジトリを複製するか、PC にダウンロードするか、Raspberry Pi から複製する必要があります。これが完了したら、ユーザーは必要な依存関係をインストールし、変換されたモデルをコピーして、既存の detect.tf lite モデルを使用して実行する必要があります。インストラクターは、xrdp を使用して Raspberry Pi にリモート デスクトップする方法も示し、プロセスを簡単にします。
05:10:00 このセクションでは、講師が Raspberry Pi で TensorFlow の Object Detection API を操作するために必要なすべての依存関係をインストールするプロセスを順を追って説明します。インストラクターは、OpenCV Python をインストールする方法と、OpenCV が Raspberry Pi で動作するために必要な他のいくつかの依存関係を示します。その後、講師は TensorFlow Lite ランタイムをインストールします。これは、Raspberry Pi で TensorFlow Lite モデルを実行するために必要です。すべての依存関係がインストールされたら、サンプルのオブジェクト検出モデルを Raspberry Pi で実行して、その動作を示します。最後に、インストラクターはカスタム モデルとラベルをシステムに追加する方法を説明します。
This set of Notebooks provides a complete set of code to be able to train and leverage your own custom object detection model using the Tensorflow Object Detection API. This accompanies the Tensorflow Object Detection course on my YouTube channel. Steps Step 1. Clone this repository: https://github.com/nicknochnack/TFODCourse Step 2. Create a...
01:15:00 このセクションでは、講師が数行のコードを使用して、検出しきい値を超える画像スコア、クラス、およびボックスを抽出する方法を説明します。これらは、検出スコア配列の各値をループして、しきい値を超えるスコアのみを返す方法を示しています。また、ボックスとクラスにフィルターを適用して、それらが Web カメラの正しいサイズと形式であることを確認します。最後に、画像の幅と高さを取得してボックス座標を再計算し、画像にフィルタリングを適用して関心領域を決定します。
01:20:00 このセクションでは、画像から関心領域を抽出し、光学式文字認識 (OCR) を適用してプレートの結果を抽出する方法をビデオで示します。まず、image.shape を使用して、イメージの幅と高さのパラメーターを取得します。 ROI を抽出するには、検出の座標を表すボックス変数の各ボックスをループし、関心領域を除外します。最後に、EasyOCR を使用して OCR が ROI に適用され、結果がコンソールに出力されます。このビデオでは、EasyOCR リーダーをセットアップし、言語パラメーターを通過させ、画像を解析してプレートの結果を抽出するプロセスを視聴者に説明します。
A practical implementation of sign language estimation using an LSTM NN built on TF Keras. - GitHub - nicknochnack/ActionDetectionforSignLanguage: A practical implementation of sign language estim...
Opencv と Python によるオブジェクト追跡
コード: https://pysource.com/2021/01/28/object-tracking-with-opencv-and-python/
Opencv と Python によるオブジェクト追跡
OpenCV と Python を使用したオブジェクト トラッキングに関するビデオ チュートリアルでは、オブジェクト検出とオブジェクト トラッキングの違いを説明し、効率的なトラッキングのためにオブジェクト トラッカー ファイルを作成する方法を示します。このビデオでは、ビデオやオブジェクト トラッカー ファイルなど、必要なファイルの概要を説明し、リアルタイム ビデオ表示用に main.py ファイルをコーディングする方法を示します。このチュートリアルでは、マスクから小さな要素を削除し、関心領域を定義して画像の一部を抽出して車両に焦点を合わせる方法についても説明します。このビデオは、物体追跡のプロセスを説明し、物体に一意の ID を追加して正しくカウントすることで締めくくります。ただし、このチュートリアルでは、この方法は完璧ではないが、オブジェクト トラッキングの優れた入門として役立つと述べており、OpenCV とディープ ラーニングに関するより詳細なコースを受講することをお勧めします。
コンピューター ビジョンのロードマップ |コンピュータビジョンエンジニアになる方法
コンピューター ビジョンのロードマップ |コンピュータビジョンエンジニアになる方法
このビデオでは、コンピューター ビジョン エンジニアになるためのロードマップを提供し、学習プロセスを 4 つのモジュール (Python と OpenCV、ロボット工学と低レベル プログラミング、人工知能、高度なトピック) に分けています。ロボット工学や Arduino などの物理デバイスを使用した実践的なプロジェクトの重要性と、数学の基本的な理解が必要であることが強調されています。講演者は、意欲的なコンピューター ビジョン エンジニアがスキルを磨くのに役立つコンテストやプロジェクトについても説明します。さらに、ドキュメンテーションや Git や Docker などのソフトウェア ツールの知識などのソフト スキルの重要性が強調されています。最後に、数学、データ サイエンス、コンピューター サイエンス、またはエンジニアリングの学位を取得することをお勧めしますが、プロジェクトやコースを通じて独立して学習することも可能です。
Yolov8 カスタム データセットを使用した画像分類 |コンピューター ビジョンのチュートリアル
コード: https://github.com/computervisioneng/image-classification-yolov8
Yolov8 カスタム データセットを使用した画像分類 |コンピューター ビジョンのチュートリアル
このセクションでは、プレゼンターがプロジェクトに最適なモデルを選択する方法を説明し、トレーニング プロセスで生成された最後のモデルを選択するか、精度が最も高いモデルを選択するかについて提案します。この決定は、データ、問題、ユースケース、トレーニング プロセスなど、さまざまな要因によって異なります。講演者は、YOLO をインポートしてモデルへの絶対パスを指定し、ローカル コンピューターの画像を使用して結果を表示することで、すべての推論を行い、新しいサンプルを予測する方法についても説明します。結果は、画像分類器がトレーニングされたカテゴリの確率や名前など、多くの情報を提供します。
カスタム データセットで Yolov8 オブジェクト検出をトレーニングします。ステップバイステップガイド |コンピューター ビジョンのチュートリアル
コード: https://github.com/computervisioneng/train-yolov8-custom-dataset-step-by-step-guide
カスタム データセットで Yolov8 オブジェクト検出をトレーニングします。ステップバイステップガイド |コンピューター ビジョンのチュートリアル
このビデオ チュートリアルでは、コンピューター ビジョン アプリケーション用のカスタム データセットで YOLOv8 を使用してオブジェクト検出器をトレーニングする方法について、段階的なガイドを提供します。このチュートリアルでは、データ収集、注釈、書式設定、トレーニングなどの重要な側面と、モデルのパフォーマンスを評価するために損失関数プロットと実際の例を分析することの重要性について説明します。このチュートリアルでは、注釈に CVAT ツールを使用すること、必要な YOLOv8 データ形式に準拠すること、および構成 YAML ファイルを作成することを強調しています。このチュートリアルでは、オブジェクト検出器のトレーニングとテストに Google Colab と PyCharm を使用する方法も示しています。
このビデオは、アルパカ データセットでトレーニングされた YOLOv8 オブジェクト検出モデルのパフォーマンスを示しています。講演者は Python スクリプトを使用して動画を読み込み、予測を実行します。ある場合にはほぼ完全な検出が行われ、別の場合には安定した検出が示されますが、1 つの動画では検出を逃したものもあります。スピーカーは、トレーニングと検証の損失関数を分析し、モデルを再度トレーニングしてより強力でパフォーマンスの高いモデルを取得する前に、改善の余地があるかどうかを判断することをお勧めします。
Yolov8 オブジェクト検出 + ディープ ソート オブジェクト トラッキング |コンピューター ビジョンのチュートリアル
コード: https://github.com/computervisioneng/object-tracking-yolov8-deep-sort
Yolov8 オブジェクト検出 + ディープ ソート オブジェクト トラッキング |コンピューター ビジョンのチュートリアル
このビデオ チュートリアルでは、YOLOv8 とディープ ソートを使用してオブジェクト検出および追跡システムを実装する方法を示します。プレゼンターは、環境のセットアップから、YOLOv8 を使用したビデオ内のオブジェクトの読み込みと検出、ディープ ソートを使用した時間の経過に伴う検出されたオブジェクトの追跡まで、プロセスを段階的に実行します。また、正しいファイル構造を作成し、必要な依存関係をインストールすることの重要性についても説明しています。検出が YOLOv8 から抽出されると、ディープ ソート オブジェクト トラッキングが適用され、検出されたオブジェクトを経時的に追跡します。最後に、プレゼンターは、最終的な出力フレームをビデオ ファイルに保存する方法を説明し、視聴者に精度を高めるために検出しきい値を変更するよう促します。
Yolov8 カスタム データセットによる画像セグメンテーション |コンピューター ビジョンのチュートリアル
コード: https://github.com/computervisioneng/image-segmentation-yolov8
データ: https://drive.google.com/drive/folders/1JvA2IvHBy2QOnAtPtoy4JbEEmtbz5dnK
Yolov8 カスタム データセットによる画像セグメンテーション |コンピューター ビジョンのチュートリアル
このチュートリアルでは、画像に注釈を付け、セマンティック セグメンテーション用のバイナリ マスクを作成し、YoloV8 でトレーニングするためのデータセットをフォーマットおよび構造化し、Google Collab でモデルをトレーニングし、トレーニング結果を分析し、Python スクリプトを使用して予測を行うプロセスについて説明します。プレゼンターは、ファイル システムを構造化し、損失関数と検証指標を分析して、YoloV8 カスタム データセットの適切なモデルをトレーニングすることの重要性を強調しています。また、欠陥のあるデータが予測の品質に与える影響についても説明し、現在のモデルの予測を使用して新しく改善されたモデルをトレーニングすることを推奨しています。全体として、このチュートリアルは、YoloV8 カスタム データセットを使用した画像セグメンテーションの包括的なガイドを提供します。
Python を使用した 5 時間での Tensorflow オブジェクト検出 | 3プロジェクトのフルコース
コードを入手する Tensorflow Object Detection Python コース コード: https://github.com/nicknochnack/TFODCourse
Tensorflow オブジェクト検出 React アプリ: https://github.com/nicknochnack/TFODApp
Raspberry Pi の Tensorflow オブジェクト検出: https://github.com/nicknochnack/TFODRPi
Python を使用した 5 時間での Tensorflow オブジェクト検出 | 3プロジェクトのフルコース
05:00:00 - 05:25:00 Python を使用した TensorFlow オブジェクト検出に関するこのフル コースでは、インストラクターが GPU マシンでの感情分析などのモデル アプリケーションをトレーニングする際の一般的なエラーと解決策について説明します。このコースでは、TensorFlow オブジェクト検出を使用した Raspberry Pi 検出モデルの構築とインストール、OpenCV Python、TensorFlow Lite ランタイムなどの必要な依存関係のインストール、しきい値の調整によるカスタム オブジェクトの検出、および画像とトレーニングの追加によるモデル パフォーマンスの改善について説明します。長いため。このコースは、パフォーマンス チューニングの力を強調し、視聴者が必要に応じて支援を求めることを奨励することで締めくくります。00:00:00 - 01:00:00 「Python を使用した 5 時間での Tensorflow オブジェクト検出」チュートリアルでは、オブジェクト検出の初心者に熟練した実践者になる方法を教えています。この包括的なコースでは、TensorFlow オブジェクト検出 API のインストールとセットアップ、画像の収集とラベル付け、オブジェクト検出モデルのトレーニング、「凍結」と変換を使用した TensorFlow.js や TF Lite などのさまざまな形式へのエクスポートについて説明します。このコースは、Python や TensorFlow Object Detection などのオープンソース ツールを使用して実施され、コードを再利用してさまざまなオブジェクトを検出できます。実演されたプロジェクトには、USB 顕微鏡を使用した小さな部品の欠陥の検出、Web カメラを通過するオブジェクトの数のカウント、ビデオ ゲーム内のオブジェクトの検出などがあります。インストラクターは、TensorFlow オブジェクト検出用の仮想環境をセットアップし、さまざまな角度、照明条件、およびグリーン スクリーンのない適切な画像を収集してラベル付けすることの重要性を強調しています。
01:00:00 - 02:00:00 TensorFlow オブジェクト検出に関するこのビデオでは、TensorFlow を使用して画像データのプロトタイプ作成、ラベル付け、準備を迅速に行い、オブジェクト検出のモデルを選択するためのステップバイステップ ガイドを提供します。プレゼンターは、実現可能性を確立し、モデルに適したセンサーを決定するために、迅速にプロトタイプを作成することの重要性を強調しています。このビデオでは、Label Image パッケージと OpenCV Labeling ソフトウェアのほか、物体検出のために画像にラベルを付けるための注釈ファイルを作成するプロセスについて説明します。さらに、プレゼンターは、モデルのパフォーマンスを評価するために使用される評価指標と、速度と精度のトレードオフを考慮して各ユース ケースに適したモデル アーキテクチャを選択する方法について説明します。ビデオは、TensorFlow、CUDA、およびオブジェクト検出に必要なその他のパッケージをインストールする方法を示して締めくくります。 02:00:00 - 03:00:00 「Python を使用した 5 時間での Tensorflow オブジェクト検出 | 3 つのプロジェクトによるフル コース」では、オブジェクト検出のプロセス全体を段階的に説明しています。まず、Nvidia cuDNN、TensorFlow、事前トレーニング済みのモデル Zoo をインストールし、続いてラベル マップを作成して tf レコードを生成します。これに続いて、トレーニング用の構成ファイルのセットアップ、エラーのトラブルシューティング、TensorFlow オブジェクト検出ライブラリを使用したモデルの評価、評価スクリプトの実行によるパフォーマンス メトリックの生成が行われます。 TensorBoard は、トレーニングおよび評価中にメトリックを表示および追跡するために使用されます。最後に、トレーニング済みのモデルがチェックポイントから読み込まれ、画像に対してオブジェクト検出が実行された後、さまざまなプラットフォームで使用できるようにモデルが変換されます。パフォーマンス チューニングについて説明し、デモでは、パフォーマンスの低いクラスに対してより関連性の高いトレーニング イメージを収集してパフォーマンスを向上させる方法を示します。
03:00:00 - 04:00:00 ビデオ「Tensorflow Object Detection in 5 Hours with Python」では、TensorFlow でオブジェクト検出モデルを構築するための包括的なチュートリアルを提供しています。インストラクターは、画像にラベルを付ける方法、パイプラインを構成する方法、モデルをトレーニングおよび調整する方法、リアルタイムでモデルをテストする方法を示します。オブジェクト検出のための顕微鏡の使用、TensorFlow.js Web アプリの構築、および Raspberry Pi 感情検出の実行を含む 3 つのプロジェクトが示されています。このビデオでは、オブジェクト検出のパフォーマンスを向上させるための画質とチューニングのトレードオフの重要性を強調しています。視聴者は、コメント セクションまたは Discord サーバーで説明を求めるか、フィードバックを提供することをお勧めします。
04:00:00 - 05:00:00 このビデオ チュートリアルでは、ラベルの設定とリセット、モデルで使用する画像のラベル付け、ラベル マップの更新、モデルのトレーニング、評価と改善の方法など、Tensorflow オブジェクト検出のさまざまな側面について説明しますその精度、エクスポートして tensorflow.js に変換し、Raspberry Pi で実行します。インストラクターは、アプリのデバッグと結果配列の操作に関するガイダンスも提供します。チュートリアル全体を通して、講師は大文字と小文字の区別の重要性を強調し、画像ディレクトリの整理と移動、カスタム モデルの作成、収集した画像のラベル付けの方法を示します。チュートリアルは、さまざまなデバイスで複数のモデルを実行することについて、視聴者にアイデアを共有してもらうことで締めくくられています。
パート1
パート2
パート3
パート 4
パート5
両手を使ってさまざまな方向に移動し、モデルがどのように機能するかを確認します。次に、グラフをフリーズしてエクスポートし、tensorflow.js に変換します。また、モデルを IBM Cloud Object Store にアップロードする方法と、github リポジトリーで利用可能な手順を順を追って説明する方法についても説明しています。その後、講師はリポジトリのクローンを作成し、新しいコマンド プロンプトを開き、適切なフォルダーに移動する方法を示します。
パート6
Tensorflow と EasyOCR を使用した自動ナンバー プレート認識を 2 時間でフル コース |パイソン
最終ノート: https://github.com/nicknochnack/RealTimeAutomaticNumberPlateRecognition
ベースライン コード: https://github.com/nicknochnack/TFODCourse
Tensorflow と EasyOCR を使用した自動ナンバー プレート認識を 2 時間でフル コース |パイソン
「Tensorflow と EasyOCR を使用した自動ナンバー プレート認識 2 時間のフル コース | Python」というタイトルの YouTube ビデオは、Tensorflow と EasyOCR を使用して正確かつ効率的な自動ナンバー プレート認識 (ANPR) システムを構築するための包括的なガイドを提供します。 ANPR システムは、TensorFlow を使用してナンバー プレートの関心領域を検出し、EasyOCR は検出された領域からテキストを抽出する 2 部構成のシステムを利用します。このビデオでは、仮想環境のセットアップと必要な依存関係のインストールから、トレーニング用のデータの準備とトレーニング中に発生する可能性のあるエラーのトラブルシューティングまで、さまざまなトピックをカバーしています。全体として、視聴者は、リアルタイムまたは標準の画像検出機能を備えたプロダクション グレードの ANPR システムを構築する方法を詳細に理解できます。
TensorFlow と EasyOCR を使用した自動ナンバー プレート認識 (ANPR) に関する YouTube チュートリアルでは、オブジェクト検出を使用してナンバー プレートを正確に検出する方法と、OCR を使用してナンバー プレートを抽出する方法について説明しています。インストラクターは、サイズと座標に基づいてテキストをフィルタリングして、プレートから関連情報のみを抽出する方法について説明します。 GPU リソースを割り当てて TensorFlow のメモリ消費を制限し、検出しきい値を超える画像スコア、クラス、およびボックスを抽出し、EasyOCR を使用して OCR を適用する方法を示します。さらに、このビデオでは、リアルタイム結果と画像結果の両方について、出力結果を CSV ファイルとフォルダー パスに保存する方法について説明します。スピーカーは、視聴者がコードを利用できることを強調し、助けを求めてフィードバックを共有するよう奨励します。
3時間で強化学習 | Python を使用したフル コース
コード: https://github.com/nicknochnack/ReinforcementLearningCourse
3時間で強化学習 | Python を使用したフル コース
00:00:00 - 01:00:00 「3 時間で強化学習」ビデオ コースでは、実践的な実装や理論と実践のギャップの解消など、強化学習のさまざまなトピックを取り上げます。このコースでは、強化学習エージェントのトレーニングと、さまざまなアルゴリズムとアーキテクチャを使用したエージェントの評価に重点を置いて、RL 環境のセットアップからカスタム環境の構築まですべてをカバーしています。ロボット工学やゲームなどの一般的な RL アプリケーションについて説明するとともに、環境がマルコフであるという仮定や不安定なトレーニングの可能性などの RL の制限についても説明します。このコースでは、オープンソースの RL ライブラリである Stable Baselines と OpenAI Gym を使用して、シミュレートされた環境を構築します。インストラクターは、エージェントが環境で実行できるアクションと値を表すために使用されるさまざまなタイプのスペース、および A2C や PPO などのさまざまな RL アルゴリズムについて説明します。アルゴリズムを実装する前に環境を理解することの重要性が強調され、ユーザーは、強化学習用のコンピューティング プラットフォームのセットアップ、適切な RL アルゴリズムの選択、モデルのトレーニングとテストをガイドされます。
01:00:00 - 02:00:00 この YouTube ビデオでは、Python を使用した強化学習に関する 3 時間のコースを提供しています。インストラクターは、エージェント、環境、アクション、報酬など、強化学習のコア コンポーネントについて説明します。このセクションでは、環境を定義し、強化学習を使用してモデルをトレーニングし、TensorBoard を使用してトレーニング ログを表示してトレーニング プロセスを監視する方法について説明します。講師は、トレーニング済みモデルの保存と再読み込み、モデル パフォーマンスのテストと改善、ニューラル ネットワークでのカスタム アクターと値関数のネットワーク アーキテクチャの定義、強化学習を使用した Atari ゲーム ブレイクアウトのプレイなど、他のトピックについても説明します。さらに、このコースには、Atari でのブレイクアウト ゲーム、自動運転用のレーシング カーの構築、OpenAI ジム スペースを使用したカスタム環境の作成など、学習者が強化学習手法を使用して構築する 3 つのプロジェクトが含まれています。
02:00:00 - 03:00:00 「3 時間で強化学習 | Python を使用したフル コース」というタイトルのこの YouTube ビデオでは、強化学習に関連するさまざまなトピックが取り上げられています。インストラクターは、レーシングカー環境を使用して Atari ゲームと自動運転用の強化学習エージェントをトレーニングする方法を実演します。また、さまざまな OpenAI ジムの依存関係、ヘルパー、安定したベースライン、および強化学習用のさまざまなタイプのスペースも紹介します。さらに、このビデオでは、強化学習用のカスタム環境を作成する方法、環境の状態、その観察空間と行動空間を定義する方法、モデルのテストとトレーニング、学習後にトレーニング済みモデルを保存する方法についても説明します。インストラクターはまた、パフォーマンスを向上させるためにモデルを長期間トレーニングすることの重要性についても説明し、問題が発生した場合は視聴者に連絡するように勧めています.
パート2
パート3
Python での ACTION RECOGNITION を使用した手話検出 | LSTM 深層学習モデル
コード: https://github.com/nicknochnack/ActionDetectionforSignLanguage
Python での ACTION RECOGNITION を使用した手話検出 | LSTM 深層学習モデル
「Python で ACTION RECOGNITION を使用した手話検出 | LSTM 深層学習モデル」というタイトルのこの YouTube ビデオでは、プレゼンターは、アクション検出と主要モデルを使用してリアルタイムの手話検出フローを構築する方法を説明しています。プレゼンターは、OpenCV と MediaPipe Holistic を使用して、手、顔、体からキー ポイントを抽出し、TensorFlow と Keras を使用して、一連のフレームで示されるアクションを予測する LSTM モデルを構築します。プレゼンターは、Web カメラにアクセスしてキー ポイントを抽出するプロセスを実行し、Web カメラにアクセスするためのループを設定し、Web カメラから最後にキャプチャされたフレームにランドマークを適用することで、手話の検出を容易にします。また、欠落しているキー ポイントを処理するようにコードを変更し、姿勢モデルと顔ランドマーク検出にエラー処理を追加する方法も示します。最後に、Pythonによる行動認識を用いた手話検出のキーポイント抽出機能について発表者が解説します。
このビデオでは、Python で動作認識を使用して手話検出モデルを作成する方法について詳しく説明しています。データを収集するために、プレゼンターはアクションとシーケンスごとにフォルダーを作成し、MediaPipe ループを変更して、各アクションのビデオごとに 30 個のキー ポイント値を収集します。データは、LSTM 深層学習モデルのラベルと特徴を作成することによって前処理され、モデルは TensorFlow と Keras を使用してトレーニングされます。トレーニング済みモデルは、マルチラベル混同行列と精度スコア関数を使用して評価されます。最後に、検出用の新しい変数を作成し、フレームを連結し、予測ロジックを適用することにより、リアルタイム検出が確立されます。しきい値変数は、特定の信頼度メトリックを超える結果をレンダリングするために実装されています。
ビデオ チュートリアルでは、行動認識を使用した手話検出に Python と LSTM 深層学習モデルを使用する方法を紹介しています。講演者は予測ロジックを順を追って説明し、コードを説明して理解しやすくしました。また、append メソッドを使用してコードを調整し、検出しきい値を上げ、確率の視覚化を追加して検出を視覚的に説得力のあるものにする方法も視聴者に示しました。スピーカーは、結果がしきい値を超えているかどうかを確認する方法、確率を操作する方法、および追加のアクションまたは視覚化を追加してプロジェクトを拡張および変更する方法についても説明しました。最後に、スピーカーは、モデルの追加ロジックを提示しました。これにより、誤検出が最小限に抑えられ、モデルの精度が向上し、ビデオとチャンネルをサポートするよう招待されました。