00:10:00 在本节中,视频教程解释了如何通过计算轮廓的面积并删除面积小于 100 像素的任何轮廓来从蒙版中删除小元素。然后,本教程讨论了如何定义感兴趣区域 (ROI) 以提取图像的一部分以仅关注道路特定部分的车辆,从而使检测过程更加容易。本教程概述了如何通过指定包含我们要跟踪的车辆的部分的位置、高度和宽度来定义 ROI。本教程最后解释了如何将掩码应用于 ROI 以仅在该特定区域执行对象跟踪。
00:15:00 在视频的这一部分中,演讲者将对象检测算法应用于 ROI 而不是整个帧,并展示了检测是如何改进的。但是,误报和检测算法仍然存在问题。为了改进对象检测,说话者调整历史的大小和 var 阈值,这会影响误报的数量。然后说话者提取检测到的每个对象周围的矩形,并将其绘制在绿色的 ROI 上。最后,说话者通过使用阈值运算符仅保留图像中的白色元素来去除图像中的阴影,从而实现更准确的对象检测。
Sergio Canu Hi there, I’m the founder of Pysource. I’m a Computer Vision Consultant, developer and Course instructor. I help Companies and Freelancers to easily and efficiently build Computer Vision Software .
pysource.com
In this tutorial we will learn how to use Object Tracking with Opencv and Python. First of all it must be clear that what is the difference between object detection and object tracking: Object detection is the detection on every single frame and frame after frame. Object tracking does frame-by-frame tracking but keeps the history of where the...
00:00:00 在视频的这一部分,演讲者展示了计算机视觉路线图,其中涵盖了成为计算机视觉开发人员需要学习的所有内容。该路线图回答了三个主要问题:需要哪些技能,您可以从事哪些项目来获得这些技能,以及哪些大学学位可用于学习这些技能。该路线图分为四个模型,第一个模型涵盖了解决70%计算机视觉问题必不可少的Python和OpenCV。第二个模型是关于机器人和低级编程,包括使用 C++ 和电子学。第三和第四个模型分别涵盖人工智能和高级主题。演讲者为每个模型推荐了初学者项目,例如使用巡线机器人或二维码阅读器来积累知识和技能。
00:10:00 在本节中,演讲者展示了训练过程的结果所在的位置,并解释了 runs 文件夹中的文件夹结构。然后,他演示了如何使用特定实用程序和必要参数通过命令行使用 Yolov8 训练图像分类器。他继续通过仅训练一个时期的模型来展示这种方法的简单性,然后展示结果在标记为“trained 13”的新目录中的保存位置。最后,演讲者讨论了使用 Google Collab 训练模型的另一种方法,并简要说明了设置过程。
00:15:00 在本节中,演示者展示了一个名为“train.ipymb”的用于训练 Yolov8 模型的笔记本。将数据集上传到 Google Drive 是用户从 Google Collab 访问数据的重要步骤,因为该过程需要用户执行将 Google Collab 与 Google Drive 连接起来的单元格。了解 Google Drive 中用户数据集的路径至关重要,因为用户需要将此路径输入到他们的笔记本中才能正确使用他们的数据集。最后,presenter 提供了简单的命令,用户可以执行这些命令来安装训练 Yolov8 模型所需的必要库。
00:20:00 在这部分视频中,讲师演示了如何使用 YOLOv8 和自定义数据集训练图像分类器,以及如何将在 Google Colab 环境中获得的结果复制到 Google Drive。他们运行一个 epoch 的训练过程,将结果复制到 Google Drive,然后运行 20 个 epoch 的训练过程。最后,他们展示了如何分析训练过程是否产生了良好的图像分类器。讲师强调了正确设置数据目录变量的重要性,并建议将结果复制到 Google Drive 以简化下载和分析。
You can download the same dataset I use in the video here. Ajayi, Gbeminiyi (2018), “Multi-class Weather Dataset for Image Classification”, Mendeley Data, V1, doi: 10.17632/4drtyfjtfy.1
00:00:00 在视频的这一部分,演示者解释了在使用 YOLOv8 训练对象检测器时收集数据的重要性,以及收集数据的不同方式,例如拍摄自己的照片或使用公开可用的数据集像开放图像集。演示者使用羊驼数据集进行演示,并向观众展示数据集中包含的图像示例。此外,演示者提到他们可以为观众提供脚本,以按照教程所需的确切方式从 Open Images Set 下载和格式化数据。
00:40:00 在视频教程的这一部分中,演讲者展示了用于训练 YOLOv8 对象检测算法的图像批次,以及用于验证的相似图像。演讲者解释说,他们正在进行浅薄的虚拟培训,并展示了用于此目的的文件。然后,演讲者展示了如何使用终端从命令行以及 Google 协作笔记本中训练算法。该笔记本仅包含五个单元格,演讲者通过指定数据位置的相对路径来演示上传数据、安装 Google Drive 和训练算法是多么简单。
00:45:00 在本节中,视频教程展示了如何使用 Google Colab 在自定义数据集上训练 YOLOv8 对象检测器。该过程涉及保存特定变量并通过感叹号命令在Google Colab环境中执行“pip install ultralytics”命令。本教程展示了如何输入在本地环境中使用的相同代码行以及如何指定 Google Drive 目录的绝对路径。上传文件并执行命令后,训练过程与本地环境中的训练过程类似。该教程指示用户等待执行完成,并记住执行将结果目录复制到 Google Colab 中所选目录的命令。
In this video I show you a super comprehensive step by step tutorial on how to use yolov8 to train an object detector on your own custom dataset! dataset If you want to train yolov8 with the same dataset I use in the video, this is what you should do: Go to prepare_data directory. Execute...
Yolov8 object detection + deep sort object tracking ! requirements Deep Sort We are working on this fork from deep sort official implementation. You can download deep sort feature extraction model here. data You can download the same data I use in the video here.
04:00:00 - 05:00:00 本视频教程涵盖了 Tensorflow 对象检测的各个方面,包括如何设置和重置标签、为模型中使用的标签图像、更新标签图、训练模型、评估和改进它的准确性,将其导出并转换为 tensorflow.js,然后在 Raspberry Pi 上运行。讲师还提供有关调试应用程序和操作结果数组的指导。在整个教程中,讲师强调了区分大小写的重要性,并展示了如何组织和移动图像目录、创建自定义模型以及标记收集的图像。本教程最后鼓励观众分享他们在不同设备上运行多个模型的想法。
05:00:00 - 05:25:00 在这个关于使用 Python 进行 TensorFlow 对象检测的完整课程中,讲师讨论了在 GPU 机器上训练模型应用程序(如情感分析)时的常见错误和解决方案。该课程涵盖使用 TensorFlow 对象检测构建和安装 Raspberry Pi 检测模型、安装必要的依赖项(如 OpenCV Python、TensorFlow Lite 运行时)以及通过调整阈值来检测自定义对象并通过添加更多图像和训练来提高模型性能更长时间。该课程最后强调了性能调整的力量,并鼓励观众在需要时寻求帮助。
第1部分
00:00:00 在本节中,讲师介绍了目标检测课程,旨在将目标检测的完全初学者提升为从业者的熟练水平。该课程很全面,涵盖了 TensorFlow 对象检测 API 的安装和设置、图像的收集和标记、模型的训练、将检测模型导出为不同的格式,以及在各种用例上测试模型。该课程全部使用开源工具完成,主要是 Python 和 TensorFlow 对象检测,可以轻松地重新利用代码来检测各种对象。讲师还解释了使用 TensorFlow 对象检测 API 的好处,由于它提供的各种附加功能,它可以加快构建对象检测模型的过程。
00:05:00 在本节中,讲师解释了传统编程和机器学习之间的区别,机器学习不是定义明确的规则来检测对象,而是使用数据和答案来训练对象检测模型来学习规则。该模型可以检测静态图像和实时视频源中的对象,并且可以使用冻结和转换导出并转换为不同的格式,如 tensorflow.js 和 tf lite。性能调整对于提高模型的准确性至关重要,讲师在第六步中介绍了这个主题。最后,讲师演示了三个项目,包括使用 USB 显微镜检测小零件的缺陷、检测视频游戏中的物体以及计算通过网络摄像头的物体数量。
00:10:00 在本节中,讲师介绍了教程中将涵盖的三个项目,其中涉及训练对象检测模型以识别印刷电路板中的缺陷、检测手势并将模型集成到 Web 应用程序中,并使用 Raspberry Pi 进行实时对象检测。讲师在Github上为每个项目提供了三组代码,用于逐步构建模型。第一步是克隆代码并创建一个虚拟环境,这被解释为就像房子里的一个单独房间。本节还包括学习本教程的有用提示,例如在继续之前查看每个步骤、做笔记以及在需要时通过提供的 Discord 服务器寻求帮助。
00:15:00 在视频的这一部分,讲师解释了在使用 TensorFlow 对象检测模型时使用虚拟环境的重要性。他将其描述为在房屋中创建一个新房间,其中安装了所有对象检测依赖项,以确保它们不会与之前安装的库发生冲突。然后讲师介绍了使用 TensorFlow 所需的依赖项,包括 Visual C++ 构建工具,以及用于基于 GPU 的加速的 CUDA 和 CUDNN。他解释说,这些库对于更快地训练对象检测模型至关重要,并展示了如何下载和安装它们。总的来说,本节提供了必要的基础知识来设置用于创建 TensorFlow 对象检测模型的开发环境。
01:00:00 在本节中,演讲者强调了尽快为科学项目制作原型以确定项目的可行性和可能性的重要性。为了说明这一点,演讲者举了一个检测弯曲 LED 的示例,这需要超精确模型或传感器(例如显微镜)。使用移动网络模型和网络摄像头快速制作原型可能会表现不佳,这表明需要不同的技术或传感器。快速制作原型有助于建立改进基线,演讲者继续使用收集的图像训练模型以进行竖起大拇指检测,同时强调删除低质量图像并捕获更多高质量图像以进行更好检测的重要性。
03:20:00 在视频的这一部分中,讲师演示了如何使用经过训练的模型检测图像中的对象。加载最新的checkpoint,指定镜像名称运行检测脚本。讲师强调图像必须有效并且位于图像文件夹中。运行单元后,经过训练的对象检测模型会识别图像中的对象。讲师进一步解释了如何压缩和导出文件,并强调在本地运行代码时需要安装对象检测 API。本部分最后预览了接下来将介绍的三个项目,包括使用显微镜进行对象检测、构建 TensorFlow.js Web 应用程序以及执行 Raspberry Pi 情绪检测。
03:25:00 在本节中,讲师首先解释第一个项目,该项目涉及使用 USB 显微镜检测小型 LED 中的缺陷。显微镜像任何其他相机一样处理,视频源是使用 OpenCV 库获取的。讲师演示如何使用 Python 代码定位和缩放显微镜并显示视频源。然后使用视频馈送来收集用于对象检测的训练图像。该项目的目标是训练一个模型来检测 LED 中的缺陷并将它们分类为弯曲或未弯曲。
04:30:00 在本节中,视频演示了如何通过命令行界面安装 IBM Cloud CLI 和 IBM Cloud Object Storage CLI,从而启用跨源资源共享 (CORS),从而允许 Web 应用程序访问 URL从别的地方。该命令还会安装 IBM Cloud Storage Client 并使用配置文件对其进行配置。该视频展示了如何将用户存储桶的名称替换为将原因策略放入存储桶根文件夹的命令。最后,视频解释了原因策略包含在云配置文件中并且是克隆存储库的一部分,这意味着不需要创建文件。
04:35:00 在本节中,讲师解释了如何更新运行 TensorFlow.js 网络应用程序所需的文件。这些步骤包括设置 Google Cloud Storage 凭据、更新 app.js 中的模型 URL、更新 utilities.js 中的标签映射以及使用 npm start 启动应用程序。讲师还解释了如何调试应用程序(如果它不工作),包括更改置信度指标和检查检测结果数组中对象的顺序。总的来说,这些步骤允许用户根据他们的特定用例自定义 Web 应用程序并确保它正常运行。
05:05:00 在本节中,讲师解释了使用 TensorFlow 对象检测构建 Raspberry Pi 检测模型所需的步骤。第一步是通过学习 TensorFlow 对象检测课程来创建 TfLite 文件。接下来,用户应该克隆 Raspberry Pi 检测存储库,将其下载到他们的 PC,或从 Raspberry Pi 克隆它。一旦完成,用户应该安装所需的依赖项,复制他们转换后的模型,并使用现有的 detect.tf lite 模型运行它。讲师还演示了如何使用 xrdp 将远程桌面连接到 Raspberry Pi,从而使该过程更加简单。
05:10:00 在本节中,讲师将逐步介绍在 Raspberry Pi 上安装使用 TensorFlow 的对象检测 API 所需的所有依赖项的过程。讲师演示了如何安装 OpenCV Python,以及 OpenCV 在 Raspberry Pi 上工作所需的其他几个依赖项。之后,讲师安装 TensorFlow Lite 运行时,这是在 Raspberry Pi 上运行 TensorFlow Lite 模型所必需的。安装完所有依赖项后,他们将在 Raspberry Pi 上运行示例对象检测模型以展示其工作原理。最后,讲师解释了如何向系统添加自定义模型和标签。
This set of Notebooks provides a complete set of code to be able to train and leverage your own custom object detection model using the Tensorflow Object Detection API. This accompanies the Tensorflow Object Detection course on my YouTube channel. Steps Step 1. Clone this repository: https://github.com/nicknochnack/TFODCourse Step 2. Create a...
03:00:00 在本节中,讲师推荐用于进一步学习的其他资源,包括 David Silva 的强化学习课程,一本名为强化学习的书:Richard Sutton 和 Andrew Bartos 的介绍,以及探索超参数调优、构建自定义环境,并实施端到端解决方案,例如构建车杆机器人并在模拟环境中对其进行训练,然后再使用 Raspberry Pi 在真实环境中实施。讲师鼓励观众提出反馈和问题,并感谢他们收看。
A practical implementation of sign language estimation using an LSTM NN built on TF Keras. - GitHub - nicknochnack/ActionDetectionforSignLanguage: A practical implementation of sign language estim...
使用 Opencv 和 Python 进行对象跟踪
代码: https ://pysource.com/2021/01/28/object-tracking-with-opencv-and-python/
使用 Opencv 和 Python 进行对象跟踪
使用 OpenCV 和 Python 进行对象跟踪的视频教程解释了对象检测和对象跟踪之间的区别,并展示了如何创建对象跟踪器文件以进行高效跟踪。该视频概述了所需的必要文件,例如视频和对象跟踪器文件,并展示了如何对 main.py 文件进行编码以进行实时视频显示。本教程还介绍了如何从蒙版中移除小元素并定义感兴趣区域以提取图像的一部分以聚焦在车辆上。该视频最后解释了对象跟踪的过程,并为对象添加了唯一 ID 以正确计数。然而,该教程指出该方法并不完美,但可以很好地介绍对象跟踪,建议学习更深入的 OpenCV 和深度学习课程。
计算机视觉路线图 |如何成为一名计算机视觉工程师
计算机视觉路线图 |如何成为一名计算机视觉工程师
该视频提供了成为计算机视觉工程师的路线图,将学习过程分为四个模块:Python 和 OpenCV、机器人和低级编程、人工智能和高级主题。强调涉及机器人和 Arduinos 等物理设备的动手项目的重要性,以及对数学有基本了解的必要性。演讲者还讨论了可以帮助有抱负的计算机视觉工程师磨练技能的竞赛和项目。此外,还强调了软技能的重要性,例如 Git 和 Docker 等软件工具的文档和知识。最后,建议获得数学、数据科学、计算机科学或工程学位,尽管也可以通过项目和课程独立学习。
使用 Yolov8 自定义数据集进行图像分类 |计算机视觉教程
代码:https: //github.com/computervisioneng/image-classification-yolov8
使用 Yolov8 自定义数据集进行图像分类 |计算机视觉教程
在本节中,演示者解释了如何为项目选择最佳模型,并在选择训练过程中生成的最后一个模型或选择精度最高的模型之间提出建议。该决定取决于各种因素,包括数据、问题、用例和培训过程。演讲者还解释了如何通过导入 YOLO 并指定模型的绝对路径,使用本地计算机中的图像并显示结果来进行所有推理和预测新样本。结果提供了大量信息,包括概率和图像分类器训练类别的名称。
在自定义数据集上训练 Yolov8 对象检测 |分步指南 |计算机视觉教程
代码: https ://github.com/computervisioneng/train-yolov8-custom-dataset-step-by-step-guide
在自定义数据集上训练 Yolov8 对象检测 |分步指南 |计算机视觉教程
本视频教程提供了有关如何在计算机视觉应用程序的自定义数据集上使用 YOLOv8 训练对象检测器的分步指南。本教程涵盖数据收集、注释、格式化和训练等重要方面,以及分析损失函数图和真实示例以评估模型性能的重要性。本教程强调使用 CVAT 工具进行标注,遵守所需的 YOLOv8 数据格式,并创建配置 YAML 文件。本教程还演示了如何使用 Google Colab 和 PyCharm 来训练和测试对象检测器。
该视频演示了在羊驼数据集上训练的 YOLOv8 对象检测模型的性能。演讲者使用 Python 脚本加载视频并执行预测,在某些情况下显示几乎完美的检测,在其他情况下显示稳定的检测,在一个视频中有一些漏检。演讲者建议分析训练和验证损失函数,并在再次训练模型之前确定是否有改进的空间,以获得更强大、性能更好的模型。
Yolov8目标检测+深度排序目标跟踪|计算机视觉教程
代码:https: //github.com/computervisioneng/object-tracking-yolov8-deep-sort
Yolov8目标检测+深度排序目标跟踪|计算机视觉教程
本视频教程演示了如何使用 YOLOv8 和深度排序实现对象检测和跟踪系统。演示者逐步完成整个过程,从使用 YOLOv8 设置环境、加载和检测视频中的对象,到使用深度排序随时间跟踪检测到的对象。他们还解释了创建正确文件结构和安装必要依赖项的重要性。一旦从 YOLOv8 中提取了检测结果,就会应用深度排序对象跟踪来随着时间的推移跟踪检测到的对象。最后,演示者解释了如何将最终输出帧保存到视频文件中,并鼓励观众修改检测阈值以获得更高的准确性。
使用 Yolov8 自定义数据集进行图像分割 |计算机视觉教程
代码:https: //github.com/computervisioneng/image-segmentation-yolov8
数据: https://drive.google.com/drive/folders/1JvA2IvHBy2QOnAtPtoy4JbEEmtbz5dnK
使用 Yolov8 自定义数据集进行图像分割 |计算机视觉教程
本教程涵盖了注释图像和创建用于语义分割的二进制掩码、格式化和构建数据集以使用 YoloV8 进行训练、在 Google Collab 中训练模型、分析训练结果以及使用 Python 脚本进行预测的过程。演示者强调了构建文件系统以及分析损失函数和验证指标对于为 YoloV8 自定义数据集训练良好模型的重要性。他们还讨论了有缺陷的数据对预测质量的影响,并建议使用当前模型的预测来训练新的和改进的模型。总的来说,本教程提供了使用 YoloV8 自定义数据集进行图像分割的综合指南。
使用 Python 在 5 小时内进行 Tensorflow 对象检测 |包含 3 个项目的完整课程
获取代码Tensorflow对象检测Python课程代码: https ://github.com/nicknochnack/TFODCourse
Tensorflow 对象检测 React 应用程序: https ://github.com/nicknochnack/TFODApp
Raspberry Pi 的 Tensorflow 对象检测: https ://github.com/nicknochnack/TFODRPi
使用 Python 在 5 小时内进行 Tensorflow 对象检测 |包含 3 个项目的完整课程
05:00:00 - 05:25:00 在这个关于使用 Python 进行 TensorFlow 对象检测的完整课程中,讲师讨论了在 GPU 机器上训练模型应用程序(如情感分析)时的常见错误和解决方案。该课程涵盖使用 TensorFlow 对象检测构建和安装 Raspberry Pi 检测模型、安装必要的依赖项(如 OpenCV Python、TensorFlow Lite 运行时)以及通过调整阈值来检测自定义对象并通过添加更多图像和训练来提高模型性能更长时间。该课程最后强调了性能调整的力量,并鼓励观众在需要时寻求帮助。00:00:00 - 01:00:00 “使用 Python 在 5 小时内进行 Tensorflow 对象检测”教程向对象检测初学者教授如何成为熟练的从业者。综合课程涵盖了 TensorFlow 对象检测 API 的安装和设置、收集和标记图像、训练对象检测模型以及使用“冻结”和转换将其导出为 TensorFlow.js 和 TF Lite 等不同格式。该课程是使用 Python 和 TensorFlow 对象检测等开源工具进行的,这些工具可以重新利用代码来检测各种对象。展示的项目包括使用 USB 显微镜检测小零件的缺陷、计算通过网络摄像头的物体数量以及检测视频游戏中的物体。讲师强调了为 TensorFlow Object Detection 设置虚拟环境以及收集和标记具有不同角度、光照条件和无绿屏的良好图像的重要性。
01:00:00 - 02:00:00 这段关于 TensorFlow 对象检测的视频提供了一个分步指南,用于快速制作原型、标记和准备图像数据,并选择使用 TensorFlow 进行对象检测的模型。演示者强调了快速制作原型以建立可行性并为模型确定正确传感器的重要性。该视频介绍了标签图像包和 OpenCV 标签软件,以及创建注释文件来标记图像以进行对象检测的过程。此外,演示者还解释了用于评估模型性能的评估指标,以及如何通过考虑速度和准确性之间的权衡来为每个用例选择合适的模型架构。该视频最后演示了如何安装 TensorFlow、CUDA 和其他必要的对象检测包。 02:00:00 - 03:00:00 “Tensorflow Object Detection in 5 Hours with Python | Full Course with 3 Projects”循序渐进地涵盖了目标检测的整个过程。它首先安装 Nvidia cuDNN、TensorFlow 和预训练模型动物园,然后创建标签映射并生成 tf 记录。随后设置用于训练的配置文件、排除错误、使用 TensorFlow 对象检测库评估模型并运行评估脚本以生成性能指标。 TensorBoard 用于在训练和评估期间查看和跟踪指标。最后,从检查点加载训练好的模型并对图像进行对象检测,然后转换模型以用于各种平台。讨论了性能调整,并演示了如何通过为低性能类收集更多相关的训练图像来提高性能。
03:00:00 - 04:00:00 “使用 Python 在 5 小时内完成 Tensorflow 对象检测”视频提供了有关在 TensorFlow 中构建对象检测模型的综合教程。讲师演示如何实时标记图像、配置管道、训练和调整模型以及测试模型。演示了三个项目,包括使用显微镜进行对象检测、构建 TensorFlow.js 网络应用程序以及执行 Raspberry Pi 情绪检测。该视频强调了图像质量的重要性和调整权衡以提高目标检测性能。鼓励观众在评论部分或 Discord 服务器中要求澄清或提供反馈。
04:00:00 - 05:00:00 本视频教程涵盖了 Tensorflow 对象检测的各个方面,包括如何设置和重置标签、为模型中使用的标签图像、更新标签图、训练模型、评估和改进它的准确性,将其导出并转换为 tensorflow.js,然后在 Raspberry Pi 上运行。讲师还提供有关调试应用程序和操作结果数组的指导。在整个教程中,讲师强调了区分大小写的重要性,并展示了如何组织和移动图像目录、创建自定义模型以及标记收集的图像。本教程最后鼓励观众分享他们在不同设备上运行多个模型的想法。
第1部分
第2部分
第 3 部分
第 4 部分
第 5 部分
用双手向不同方向移动并查看模型的性能。然后他继续冻结图形,将其导出并将其转换为 tensorflow.js。他还解释了如何将模型上传到 IBM Cloud Object Store 并演练 github 存储库中可用的步骤。然后,讲师继续克隆存储库,打开一个新的命令提示符,并展示如何导航到正确的文件夹。
第 6 部分
使用 Tensorflow 和 EasyOCR 自动车牌识别 2 小时全程 | Python
最终笔记本:https: //github.com/nicknochnack/RealTimeAutomaticNumberPlateRecognition
基线代码:https: //github.com/nicknochnack/TFODCourse
使用 Tensorflow 和 EasyOCR 自动车牌识别 2 小时全程 | Python
名为“使用 Tensorflow 和 EasyOCR 自动车牌识别 2 小时完整课程 | Python”的 YouTube 视频提供了使用 Tensorflow 和 EasyOCR 构建准确高效的自动车牌识别 (ANPR) 系统的综合指南。 ANPR 系统采用两部分系统,TensorFlow 用于检测感兴趣的车牌区域,而 EasyOCR 从检测到的区域中提取文本。该视频涵盖了一系列主题,从设置虚拟环境和安装必要的依赖项,到准备训练数据和解决训练过程中可能出现的错误。总体而言,观众可以详细了解如何构建具有实时或标准图像检测功能的生产级 ANPR 系统。
关于使用 TensorFlow 和 EasyOCR 进行自动车牌识别 (ANPR) 的 YouTube 教程涵盖了如何使用对象检测准确检测车牌以及如何使用 OCR 提取车牌号。讲师讨论如何根据大小和坐标过滤文本以仅从盘子中提取相关信息。他们演示了如何为 TensorFlow 分配 GPU 资源和限制内存消耗,提取通过检测阈值的图像分数、类和框,以及使用 EasyOCR 应用 OCR。此外,该视频还介绍了如何将输出结果保存到 CSV 文件和文件夹路径以获取实时和图像结果。演讲者强调代码可供观众使用,并鼓励他们寻求帮助并分享他们的反馈。
3 小时强化学习 |使用 Python 的完整课程
代码:https: //github.com/nicknochnack/ReinforcementLearningCourse
3 小时强化学习 |使用 Python 的完整课程
00:00:00 - 01:00:00 “3 小时强化学习”视频课程涵盖强化学习的一系列主题,包括实际实施和弥补理论与实践之间的差距。该课程涵盖从设置 RL 环境到构建自定义环境的所有内容,重点是训练强化学习代理并使用不同的算法和架构对其进行评估。讨论了机器人和游戏等流行的 RL 应用,以及 RL 的局限性,例如环境是马尔可夫的假设和不稳定训练的可能性。该课程使用开源 RL 库 Stable Baselines 和 OpenAI Gym 来构建模拟环境。讲师解释了用于表示代理在环境中可以采取的行动和价值的不同类型的空间,以及不同的 RL 算法,例如 A2C 和 PPO。强调在实施算法之前了解环境的重要性,并指导用户建立强化学习的计算平台、选择合适的 RL 算法以及训练和测试模型。
01:00:00 - 02:00:00 这个 YouTube 视频提供了一个关于使用 Python 进行强化学习的三小时课程。讲师解释了强化学习的核心组成部分,包括代理、环境、行动和奖励。本节讨论如何定义环境、使用强化学习训练模型以及使用 TensorBoard 查看训练日志以监控训练过程。讲师还涵盖了其他主题,例如保存和重新加载经过训练的模型、测试和改进模型性能、为神经网络中的自定义参与者和价值函数定义网络架构,以及使用强化学习玩 Atari 游戏 Breakout。此外,该课程还包括学习者将使用强化学习技术构建的三个项目,包括 Atari 中的 Breakout 游戏、构建自动驾驶赛车以及使用 OpenAI Gym 空间创建自定义环境。
02:00:00 - 03:00:00 这段名为“3 小时强化学习 | 使用 Python 的完整课程”的 YouTube 视频涵盖了与强化学习相关的各种主题。讲师演示了如何使用赛车环境为 Atari 游戏和自动驾驶训练强化学习代理。他们还介绍了各种 OpenAI gym 依赖项、助手和稳定基线,以及用于强化学习的不同类型的空间。此外,该视频还介绍了如何为强化学习创建自定义环境、定义环境状态、观察和操作空间、测试和训练模型以及在学习后保存训练好的模型。讲师还讨论了长时间训练模型以获得更好性能的重要性,并鼓励观众在遇到任何困难时伸出援手。
第2部分
第 3 部分
使用 Python 的 ACTION RECOGNITION 进行手语检测 | LSTM 深度学习模型
代码:https: //github.com/nicknochnack/ActionDetectionforSignLanguage
使用 Python 的 ACTION RECOGNITION 进行手语检测 | LSTM 深度学习模型
在这个名为“使用 Python 动作识别 | LSTM 深度学习模型进行手语检测”的 YouTube 视频中,演示者解释了如何使用动作检测和关键模型构建实时手语检测流程。演示者使用 OpenCV 和 MediaPipe Holistic 从手、脸和身体中提取关键点,然后使用 TensorFlow 和 Keras 构建 LSTM 模型,预测在一系列帧中演示的动作。演示者完成从网络摄像头访问和提取关键点的过程,设置一个循环来访问网络摄像头,并通过将地标应用于网络摄像头最后捕获的帧来简化手语检测。他们还演示了如何修改代码以处理丢失的关键点,以及如何向姿势模型和面部标志检测添加错误处理。最后,演示者解释了使用 Python 进行动作识别的手语检测关键点提取功能。
该视频详细说明了如何使用 Python 使用动作识别创建手语检测模型。为了收集数据,演示者为每个动作和序列创建文件夹,并修改 MediaPipe 循环以收集每个视频每个动作的 30 个关键点值。通过为 LSTM 深度学习模型创建标签和特征来预处理数据,并使用 TensorFlow 和 Keras 训练模型。使用多标签混淆矩阵和准确度评分函数评估经过训练的模型。最后,通过创建用于检测的新变量、连接帧和应用预测逻辑来建立实时检测,并实施阈值变量以呈现高于特定置信度指标的结果。
该视频教程展示了如何使用 Python 和 LSTM 深度学习模型通过动作识别进行手语检测。讲者把预测逻辑演练了一遍,并解释了代码,很容易理解。他们还向观众展示了如何通过使用 append 方法调整代码,提高检测阈值,并添加概率可视化,使检测具有视觉吸引力。演讲者还介绍了如何检查结果是否高于阈值、如何操纵概率以及如何通过添加额外的操作或可视化来扩展和修改项目。最后,演讲者介绍了模型的附加逻辑,可最大限度地减少错误检测并提高模型的准确性,并邀请支持视频和频道。