机器学习和神经网络 - 页 39

 

在自定义数据集上训练 YOLOv8 |使用 YOLOv8 进行手语字母检测和识别



在自定义数据集上训练 YOLOv8 |使用 YOLOv8 进行手语字母检测和识别

该视频演示了 YOLOv8 在用于手语字母表检测和识别的自定义数据集上的实现。该过程包括下载数据集、训练模型 50 个时期,并使用混淆矩阵以及训练和验证损失评估其性能。演示者还讨论了如何验证模型对验证批次和未用于训练的图像的预测,以确定它在不同图像上的表现。然后在验证数据集图像上对经过训练的模型进行验证和测试,演示视频推理显示了良好的结果。总体而言,该视频重点介绍了 YOLOv8 在自定义数据集训练和对象检测方面的应用。

  • 00:00:00 在视频的这一部分,演示者介绍了在手语字母检测和识别的自定义数据上训练 YOLOv8 的主题。他们逐步解释了这个过程,并讨论了如何使用 YOLOv8 实现手语字母检测和识别系统。 Presenter 导入各种库,包括 OS、IPython 显示和 G-LOP,这些库是显示混淆矩阵、训练和验证损失以及测试图像所需的。然后演示者展示了如何检查 GPU 访问并定义了一个辅助变量,以便在包含数据集图像的不同文件夹之间轻松导航。最后,他们使用“pip install”安装 Ultra Analytics,并验证 YOLOv8 是否已安装且工作正常。

  • 00:05:00 在本节中,视频演示了在用于手语字母检测和识别的自定义数据集上实施 YOLOv8 的过程。数据集是从 Roboflow 下载的,YOLOv8 模型在其上训练了 50 个 epoch。混淆矩阵用于评估模型的性能,确定模型检测和分类不同类别的能力。结果表明,该模型能够在 60% 的时间内正确检测到字母 A,但有时会导致分类错误或无法检测到。总体而言,该视频重点介绍了 YOLOv8 在自定义数据集训练和对象检测方面的应用。

  • 00:10:00 在视频的这一部分,演示者讨论了混淆矩阵,它显示了模型处理不同类别的效果,以及训练和验证损失,其中重要的是框日志和分类损失。还显示了模型对验证批次的预测,并且验证了未用于训练的图像以确定模型在不同图像上的行为方式。然后在验证数据集图像上对自定义模型进行验证和测试,然后是演示视频推理,该模型显示了模型检测和识别手语字母表的良好结果。最后,鼓励观众使用提供的视频数据集测试自己的模型。
Train YOLOv8 on Custom Dataset | Sign Language Alphabets Detection and Recognition using YOLOv8
Train YOLOv8 on Custom Dataset | Sign Language Alphabets Detection and Recognition using YOLOv8
  • 2023.01.19
  • www.youtube.com
#yolo #yolov8 #objectdetection #opencvpython #opencv #computervision #machinelearning #artificialintelligence #deeplearning#artificialintelligence Sign Lan...
 

带对象跟踪的 YOLOv8 分割:分步代码实现 |谷歌实验室 |视窗



带对象跟踪的 YOLOv8 分割:分步代码实现 |谷歌实验室 |视窗

该视频教程提供了有关如何使用深度排序跟踪 ID 和轨迹实施 YOLOv8 分割的综合指南。演示者引导观众完成导入必要的脚本文件、安装依赖项以及设置深度分类分割和对象跟踪所需目录的过程。本教程包括使用唯一 ID 和移动轨迹进行对象跟踪的演示,以及对 GitHub 存储库的讨论,该存储库为 YOLOv8 分割和深度排序跟踪提供一键式解决方案代码。该教程还介绍了一个 patreon 的程序,可以独家访问不会上传到 YouTube 频道的视频教程。总的来说,本教程提供了对带有对象跟踪的 YOLOv8 分割代码实现的分步说明。

  • 00:00:00 在视频教程的这一部分中,将指导观众如何使用深度排序跟踪 ID 加轨迹来实现 YOLO V8 分割。本教程提供了代码的端到端解释,并演示了在 Google Colab 以及 Windows 和 Linux 上的实施过程。还向观众介绍了一个新的 patreon 计划,该计划每周提供对两到三个项目的独家访问权,包括不会上传到 YouTube 频道的视频教程。视频最后讨论了 GitHub repo,它提供了 YOLO V8 分割和深度排序跟踪的一键式解决方案代码,使其易于在自定义数据集或预训练的 MS Coco 数据集上实现。

  • 00:05:00 在本节中,演示者介绍了使用对象跟踪实现 YOLOv8 分割所涉及的初始步骤。第一步涉及克隆 GitHub 存储库并导入所有必要的脚本文件。使用 setup.py 文件安装依赖项,并设置所需的目录以执行深度排序的分割和对象跟踪。然后,演示者从 Google 云端硬盘下载用于测试的示例视频,并演示如何使用分配给每个对象的唯一 ID 执行对象跟踪,以及显示每个对象移动的轨迹。该视频最后解释了如何使用 PyCharm 在 Windows 系统上实现 YOLOv8。

  • 00:10:00 在本节中,演讲者提供了在 Windows 上的 Google Colab 中通过对象跟踪实现 YOLOv8 分割的分步指南。该过程包括克隆 GitHub 存储库、将当前目录设置为克隆文件夹、安装所有依赖项以及下载深度排序文件。使用深度排序算法实现对象跟踪需要深度排序文件。这些文件被下载并提取到分段教程文件夹中。演讲者还提到有多种可用的对象跟踪算法可以用来代替深度排序。

  • 00:15:00 在本节中,演讲者讨论了对象跟踪算法并指出,经过测试,他们发现深度排序算法的性能最好。他们解释说他们将使用 SORT 算法在脚本中进行跟踪。演讲者下载了演示视频并展示了代码,解释了用于对象跟踪的 YOLOv8-sec BT 预训练模型。他们还讨论了 YOLOv8 的各种模型以及它们在速度和准确性之间的权衡。最后,演讲者解释了 predict.5 脚本并强调了如何为检测到的对象定义边界框颜色。

  • 00:20:00 在本节中,演讲者演示了在检测到的对象周围创建矩形、分配唯一 ID 和标签以及创建边界框的功能。他们解释了如何使用 UI 触摸框函数来创建边界框和上面的矩形,而 CV 点两个矩形函数如何在检测到的对象周围创建矩形。演讲者还展示了 draw Dash boxing 函数如何找到边界框底部边缘的中心来绘制轨迹并为每个对象分配一个唯一的 ID。总的来说,演讲者逐步解释了使用对象跟踪进行 YOLOv8 分割的代码实现。

  • 00:25:00 在本节中,演讲者解释了使用双端队列 (DQ) 而不是列表来存储数据。 DQ 用于存储对象的值,并删除不在当前帧中的对象的 ID。这些数据用于使用 CV2 工具线绘制轨迹。执行分割,输出视频显示轨迹和检测到的对象,并分配了唯一 ID。演讲者指出,脚本在 CPU 上运行可能需要更长的时间,但可以在 GPU 上以相同的步骤运行。
YOLOv8 Segmentation with Object Tracking: Step-by-Step Code Implementation | Google Colab | Windows
YOLOv8 Segmentation with Object Tracking: Step-by-Step Code Implementation | Google Colab | Windows
  • 2023.01.14
  • www.youtube.com
#yolov8 #objectdetection #objectracking #objectsegmentation #opencv#yolo #opencvpython #computervision #segmentation #machinelearning #artificialintellige...
 

YOLOv8 |物体检测 |分割 |完整教程 Google Colab|单击解决方案



YOLOv8 |物体检测 |分割 |完整教程 Google Colab|单击解决方案

该视频教程演示了如何使用 Google Colab 实现 YOLOv8 进行对象检测和分割。引导用户完成克隆 GitHub 存储库、安装包、配置目录以及从 Google Drive 导入演示视频进行测试的步骤。还向用户展示了如何在演示视频上运行用于对象检测的 YOLOv8 模型、如何解决任何间距问题以及如何保存和下载输出视频。本教程还介绍了使用 YOLOv8 执行分割,并强调了在继续之前删除以前的压缩文件的重要性。提供了笔记本文件的下载链接,欢迎观众在评论区提问。

  • 00:00:00 在本节中,主持人讨论了使用 Google Colab 进行检测和分割的 YOLOv8 的实现。本教程首先克隆 YOLOv8 GitHub 存储库并安装所需的包。演示者演示了如何使用所需的目录配置系统以及从 Google Drive 导入演示视频以进行测试。通过执行这些步骤并运行提供的单元,用户可以在 Google Colab 中安装和实施 YOLOv8 以进行对象检测和分割。

  • 00:05:00 在本节中,视频教程讨论了在演示视频上运行用于对象检测的 YOLOv8 模型。视频导入到文件夹中,YOLOv8 GitHub 存储库添加到笔记本中。然后使用 YOLOv8 模型测试“测试 1”视频以进行检测,并在尝试“测试 2”视频之前修复任何间距问题。输出视频保存到一个路径,可以下载以查看结果,但教程还包括一个脚本,用于使用 HTML 和操作系统库在 Google Colab 中显示演示视频。

  • 00:10:00 这段摘录似乎是关于在 Google Colab 中使用 YOLOv8 创建对象检测模型的教程的延续。演讲者正在对代码进行一些调整并检查错误以确保输出视频的路径正确。他们提到缺少 RB.free 和间距问题的问题,他们在再次运行代码之前纠正了这些问题。该视频显示了对象检测模型的输出。

  • 00:15:00 在本节中,用户使用 YOLOv8 进行分割。他们复制必要的代码并运行它来执行分割,在输出视频中获得令人印象深刻的结果。用户强调在继续分割之前删除以前的压缩文件的重要性。他们还提供了一个下载笔记本文件的链接,并鼓励观众在评论部分提出他们可能有的任何问题。
YOLOv8 | Object Detection | Segmentation | Complete Tutorial Google Colab| Single Click Solution
YOLOv8 | Object Detection | Segmentation | Complete Tutorial Google Colab| Single Click Solution
  • 2023.01.10
  • www.youtube.com
#objectdetection #segmentation #yolov8 #yolo *Update*I have updated the Google Colab Notebook, Now you can do Detection, Segmentation and Export the Model in...
 

AI人脸情绪识别 |使用 V7 识别面部表情



AI人脸情绪识别 |使用 V7 识别面部表情

视频教程讨论了使用 V7 平台创建用于 AI 人脸情绪识别的注释数据集的过程。这些教程涵盖了该过程的各个方面,包括创建数据集、为情绪注释图像和视频、训练模型以及在示例图像和实时网络摄像头上对其进行测试。整个教程都强调了准确标记对于有效训练 AI 模型的重要性,并突出了 V7 平台的特性和多个模型。这些教程提供了使用 AI 识别面部表情的注释过程的端到端示例。

  • 00:00:00 在本节中,YouTuber 解释了如何使用 V7 平台创建面部表情检测器。他们经历了创建数据集、上传图像和视频以及标记数据集的步骤。 V7 平台允许用户训练他们的对象检测或分割和分类模型,并在样本图像、视频甚至网络摄像头上对其进行测试。 YouTuber 使用愤怒的面部表情示例并上传图像来训练模型。他们还提到 V7 提供了多种图像和视频格式,包括 PNG、JPG、JFIF、MP4 和 ABI 等。总体而言,该视频提供了有关如何使用 V7 平台实现面部表情检测器的端到端教程。

  • 00:05:00 在本节中,演示者将介绍使用 V7 实验室标注面部表情的过程。以愤怒类为例,演示者演示了如何在人脸周围绘制边界框,然后为愤怒情绪创建类标签。然后演示者继续注释数据集中包含的所有 50 张图像,并指出该过程也可以复制用于注释视频帧。总的来说,演讲者强调了准确标注对于有效训练 AI 人脸情绪识别模型的重要性。

  • 00:10:00 在视频的这一部分中,演示者展示了如何注释视频数据集中的帧以创建用于 AI 情感识别的视觉图像。演示者上传视频数据集并每秒提取一帧以创建单独的图像。然后分别对图像进行注释以识别所描绘的情绪。演示者指出,该过程非常耗时,但对于创建用于机器学习的综合数据集很重要。演示者还演示了为 AI 情感识别注释图像和视频的能力。总的来说,本节提供了一个有用的教程,用于创建用于 AI 情绪识别的注释数据集。

  • 00:15:00 在本节中,演讲者解释了使用 V7 技术为 AI 人脸情绪识别中的“快乐”类上传和标注数据集的过程。演讲者上传了 50 张图片,并用“快乐”标签一张一张地标注出来。他们提到到目前为止总共有 182 张图像被注释,其中 100 张用于“愤怒”类别。他们还讨论了上传视频并将其拆分为单独的帧以对每个帧进行面部表情注释。

  • 00:20:00 在本节中,视频教程演示了使用 AI 人脸情绪识别识别视频和图像中快乐和恐惧个体的标注过程。注释器上传 66 个快乐的人视频并使用 Envision 对其进行注释,旋转每一帧并标记快乐或中性的表情。接下来,注释器添加了一个新的恐惧类别并上传了 50 张图片,然后用适当的情感标签对每张图片进行了注释。完整的数据集包含 248 个图像和视频,教程提供了使用 AI 识别面部表情的注释过程的端到端示例。

  • 00:25:00 在本节中,YouTuber 讨论了他们在为 AI 面部情绪识别项目注释和动画图像方面取得的进展。他们已经成功标注了透明玻璃的全部 50 张图像,还完成了对恐惧人视频的逐帧标注。然后,YouTuber 继续为惊喜课程(这是他们的最后一堂课)的所有图像添加注释,并提到在完成所有注释后他们将转向视频的训练部分。该视频显示了该项目的工作流程图,YouTuber 澄清说他们将进行对象检测和创建边界框,而不是即时分割或分类。

  • 00:30:00 在本节中,视频教程演示了使用 V7 在面部表情和情绪数据集上训练 AI 模型的过程。本教程展示了如何安排和监控数据集的训练,并在完成后发送电子邮件通知。该视频还重点介绍了模型的性能指标,包括平均准确率和召回率,以及随着时间的推移不断下降的损失。本教程最后展示了如何使用 Python、shell、JavaScript 或 Elixir 将经过训练的模型部署到各种 API 中,以及如何在实时网络摄像头上测试该模型。

  • 00:35:00 在本节中,演讲者使用 V7 实验室演示 AI 面部情绪识别。该过程涉及收集和标记愤怒、快乐、恐惧、惊讶等情绪的图像数据集。演讲者训练模型并使用网络摄像头和图像样本对其进行测试,取得了良好的效果。 V7 实验室还为分割和文本扫描等任务提供多种模型,用户可以使用免费积分创建自己的模型。演讲者调侃了未来使用 V7 的项目,并鼓励观众分享和喜欢视频。
AI Face Emotion Recognition | Identifying Facial Expressions With V7
AI Face Emotion Recognition | Identifying Facial Expressions With V7
  • 2023.02.08
  • www.youtube.com
#objectdetection #videoannotation #computervision #expressionrecognition #facialemotiondetection #machinelearning ------------------------------------------...
 

使用 YOLOv8 Live 进行实时足球运动员和球检测和跟踪:对象跟踪 YOLOv8



使用 YOLOv8 Live 进行实时足球运动员和球检测和跟踪:对象跟踪 YOLOv8

在此 YouTube 视频教程中,演示者演示了使用 Roboflow 创建足球运动员和球检测和跟踪数据集的过程。演示者逐步完成了上传和注释图像、准备数据集、训练模型、测试示例视频和实时网络摄像头以及修改代码以改进跟踪的步骤。总体而言,YOLOv8 模型运行良好,但在某些情况下检测足球有一些局限性。

  • 00:00:00 在本教程的这一部分,演示者演示了使用 Roboflow 创建足球运动员和球检测数据集的过程。他们演示了如何注册帐户和创建新项目,以及如何从 YouTube 上传和处理视频以提取帧进行注释。演示者注意到这些帧尚未注释,并继续上传另一个视频进行注释。

  • 00:05:00 在本节中,视频创作者演示了为足球运动员和球检测与跟踪项目上传和注释图像的过程。创建者上传图像并从视频中提取帧,将注释图像的工作分配给自己。他们用足球或足球运动员的标签对每张图像进行注释,并演示在每张图像中注释不同的球员。最后,他们注意到他们已经为该项目总共注释了 1827 张图像。

  • 00:10:00 在视频的这一部分,演示者通过将所有图像的大小调整为 640x640、过滤掉未注释的图像以及生成增强数据以增加数据集来为足球运动员和球检测模型准备数据集尺寸。增强数据包括从单个图像生成的具有不同对比度和亮度级别的两个图像。演示者将数据集从 Roboflow 导出到 Google Colab 文件,并使用从 GitHub 存储库中提取的足球数据集来训练模型。他们还将 Google Drive 连接到 Colab 笔记本以保存训练模型的权重。

  • 00:15:00 在本节中,用户将他们当前的工作目录设置为他们的 GitHub 存储库并安装所有必要的依赖项以避免在运行检测或预测过程时出现任何错误。然后他们转向所需的目录,检测并将数据集从 roboflow 下载到他们的谷歌笔记本中。用户还可以下载 Deep Sort 文件并解压缩,以使用 Deep Sort 实现对象跟踪。最后,他们在足球运动员和足球数据集上训练 YOLOv8 的自定义模型并对其进行验证,以确保良好的均值。用户可以查看训练结果,包括 F1 曲线、Precision 曲线、Recall 曲线以及训练和验证库结果。

  • 00:20:00 在本节中,演讲者讨论了他们用于足球运动员和球检测和跟踪的 YOLOv8 模型的结果。他们报告了精确的结果,球员的平均精度为 0.63144 和 0.476,对足球的检测也很好。然后,演讲者演示了他们如何下载示例视频来测试他们的模型并显示结果,以及如何将模型置于实时网络摄像头测试中。总的来说,该模型在检测球员和分配唯一 ID 方面效果很好,但有一些足球漏检。

  • 00:25:00 在本节中,视频展示了如何在代码中删除分配给足球的唯一 ID 以简化跟踪过程。通过编辑 project.py 文件并删除分配给足球标签的唯一 ID 来修改代码。然后下载输出视频并在实时网络摄像头上进行测试,模型成功检测到足球但不能检测到球员,因为他们的穿着不像球员。总的来说,对代码所做的修改改进了跟踪过程并产生了令人满意的结果。

  • 00:30:00 在本节中,演示者演示了一个脚本,该脚本是为使用 YOLOv8 对实时网络摄像头进行预测而编写的。该脚本导入 YOLO,设置权重文件并执行预测,源设置为 0,显示设置为 true。置信度值设置为 0.15。当打扮成球员时,模型无法检测到主持人,但检测足球的结果是成功的。
Real Time Football Player and Ball Detection and Tracking using YOLOv8 Live :Object Tracking YOLOv8
Real Time Football Player and Ball Detection and Tracking using YOLOv8 Live :Object Tracking YOLOv8
  • 2023.02.13
  • www.youtube.com
#objectdetection #computervision #yolo #yolov8 #objecttracking #opencv #opencvpython #pytorch Real Time Football Player and Ball Detection and Tracking using...
 

YOLOv8 和 VGG16 用于人脸、性别检测、人脸计数和人员跟踪 |自定义数据集



YOLOv8 和 VGG16 用于人脸、性别检测、人脸计数和人员跟踪 |自定义数据集

视频教程讲解了使用 YOLOv8 和 VGG16 模型进行人脸检测、性别分类、人脸计数和人员跟踪的过程。本教程涵盖了实施和训练这些模型的各个方面,包括数据准备、数据扩充、微调预训练的 VGG16 模型、使用迁移学习以及训练 YOLOv8 模型进行人脸检测。演示者还解释了如何在 Google Colab 笔记本中安装 Google Drive、访问和转换图像数据集、下载所需的库以及使用深度排序集成对象跟踪。该教程提供了详细的代码解释,包括在检测到的对象周围绘制边界框、集成性别分类模型、计算帧中的人脸数量以及使用 deepsort.update 为每个检测到的人脸分配一个唯一 ID。

  • 00:00:00 在视频教程的这一部分中,解释了使用 YOLOv8 和 VGG16 进行性别分类的人脸检测和跟踪的人脸计数的工作流程。第一步是准备包含男性和女性面部图像的数据集,训练用于性别检测的 VGG16 模型,然后训练用于面部检测的 YOLOv8 模型。通过 YOLOv8 的人脸检测,使用经过训练的 VGG16 模型完成性别分类。然后使用 Deepsort 实现对象跟踪,为每个检测到的人脸或人分配一个唯一的 ID。笔记本分为九个步骤,包括导入所需的库、安装 Google Drive、加载数据集、将图像和标签转换为数组、应用数据增强、基于性别分类数据微调 VGG16 模型、绘制训练和验证损失以及使用示例图像进行测试。

  • 00:05:00 在本节中,演讲者讨论了可用于将图像转换为 numpy 数组的各种库和函数,反之亦然。他们还解释了两个破折号分类库的使用以及在神经网络中安排层的顺序和功能方法的概念。展平层用于将多维输入转换为一维,而密集层用于定义输出层大小。此外,他们还讨论了迁移学习与 VGG16 模型的使用以及训练测试拆分、numpy 和操作系统库的导入。最后,他们提到使用 gdob 库来访问文件夹中的所有文件,以及使用 random 库来洗牌图像数据集。

  • 00:10:00 在本节中,视频介绍了如何使用 Google Colab 笔记本安装 Google 云端硬盘以访问以 zip 格式上传的数据集。该数据集包括男性和女性面部图像,视频展示了如何解压缩和访问包含这些图像的文件夹。使用 glob 库,视频访问数据集文件夹中的所有图像文件,并将它们转换为数组格式,并带有指示图像是男人还是女人脸的标签。该视频显示了一个示例图像,并解释了图像文件变量如何包含 men 和 women 文件夹的所有图像文件路径,可以使用 cb2.im read 读取。

  • 00:15:00 在本节中,演讲者解释了他们如何准备用于面部和性别检测的数据集。他们创建了一个“男人”和“女人”文件夹,调整其中图像的大小,并将它们转换成数组,然后存储在数据列表中。他们将相应的标签值附加到标签列表中,女性为 1,男性为 0。然后使用 NumPy 将数据和标签列表转换为数组。演讲者还演示了使用图像数据生成器进行数据增强,通过应用各种变换从单个图像生成多个图像。然后,他们在性别分类数据集上微调预训练的 VGG16 模型,并实施 softmax 激活来定义输出层。输出大小设置为 2 以对男性或女性进行分类。

  • 00:20:00 在视频教程的这一部分中,演讲者演示了用于面部和性别检测的 VGG16 模型,并展示了如何在通用分类数据集上对其进行训练。模型保存为.H5格式,计算其准确率、验证准确率和损失部分。使用 cv2.dsize,将图像调整为 100x100 维度并转换为数组,模型预测图像中包含男性还是女性。在本教程的下一部分中,YOLOv8 模型将在人脸数据集上进行训练,以检测人脸并分配唯一 ID 进行跟踪。演讲者还提到,面部计数将使用添加到 predict.pi 文件的简单代码来实现。总的来说,本教程分为七个步骤。

  • 00:25:00 在本节中,演示者介绍了他们将使用深度排序实现对象跟踪的 GitHub 存储库,以及用于缩小面部的 YOLO V8 模型。他们讨论了在集成深度排序对象跟踪代码以为每个人分配一个唯一 ID 之前,他们将如何检测面部并执行性别分类。然后演示者将他们的当前目录设置为克隆存储库,并安装脚本所需的所有必需库和依赖项。他们还将 RoboFlow 的数据集下载到他们的 Google Colab 笔记本中,但由于拥有私人帐户而遇到问题。

  • 00:30:00 使用预训练的 YOLOv8 模型的权重进行人脸检测。数据集已下载并保存到我的 Google Drive 帐户中,我已经训练了一个 YOLOv8 模型 80 个 epochs 用于人脸检测。训练好的模型已经保存,权重也已经下载到Google Colab notebook中。深度排序文件也被下载到笔记本中,因为对象跟踪将使用深度排序来实现。此外,还训练了一个 VGG16 模型用于性别检测,模型的 .h5 文件已保存并下载到 Google Drive 帐户。示例视频是从 Google Drive 下载的,用于测试 predict.pi 脚本,其中包括性别分类器代码和面部计数。

  • 00:35:00 在本节中,演讲者解释了为使用深度排序实现对象跟踪而添加的代码。初始化深度排序对象跟踪端口,并定义一个函数来将从 YOLOv8 模型接收的输出转换为深度排序的兼容格式。 UI 框函数在检测到的对象周围创建边界框,而绘制框函数调用 UI 框和绘制边框函数为文本绘制圆角矩形。深度排序跟踪代码与绘制轨迹的能力集成在一起。然后演讲者解释了 Paint 文件中性别分类器和计数函数的代码。计数函数用于对每一帧中的每个对象进行计数。总体而言,该代码解释了如何将 YOLOv8 的 X1、Y1、X2 和 Y2 输出值转换为中心坐标、高度和宽度值,以使用深度排序进行对象跟踪,从而在实际应用中实现对象检测和对象跟踪。

  • 00:40:00 在本节中,演讲者讨论了将YOLOv8模型转换为边界框的xcyc中心坐标和边界框的宽度和高度,以使其兼容深度排序对象跟踪。他们还解释了标签功能的计算颜色如何为检测到的对象分配独特的颜色,以及绘制 Dash 边框功能如何在写入标签和置信度分数的边界框上方创建一个矩形。演讲者还谈到了性别分类器类,以及如何在视频的每一帧上加载和使用它来对检测到的对象进行性别分类。此外,他们还提到了 UI Dash boxes 函数和 draw Dash boxes 函数,用于创建边界框和调用性别分类器函数。

  • 00:45:00 在本节中,演示者解释了如何使用性别分类模型来检测人脸是男性还是女性。检测到人脸后,只有边界框坐标被传递给性别分类模型。然后模型会预测这张脸是属于男人还是女人,并相应地将标签添加到边界框上方。然后演示者解释了函数 count,它使用名为 Foundry-classes 的字典来存储在帧中检测到的人脸数量。计数显示在视频或图像顶部上方的 UI 中。

  • 00:50:00 在本节中,演讲者解释了在 FaceDetails 类中的 Foundry 类字典中存储了当前帧中检测到的人脸数量的计数。该字典包含两个值,包含“face”的键变量和包含在当前帧中检测到的人脸数量的值变量。说话者使用计数函数来显示每帧中检测到的人脸数量,并使用 deepsort.update 为每个检测到的人脸分配一个唯一的 ID。演讲者还创建了一个普通类、一个分类类和一个危险类。模型检测在多个演示视频上进行了测试,演讲者在每一帧中展示了检测结果。
YOLOv8 and VGG16 for Face, Gender Detection, Face Counting, and People Tracking | Custom Dataset
YOLOv8 and VGG16 for Face, Gender Detection, Face Counting, and People Tracking | Custom Dataset
  • 2023.03.05
  • www.youtube.com
#objectdetection #computervision #yolo #yolov8 #ultralytics #transferlearning #vgg16 #objecttracking #deepsort #facedetection #opencv #opencvpython #pytorc...
 

使用 YOLOv8 的交通灯检测和颜色识别 |自定义对象检测教程



使用 YOLOv8 的交通灯检测和颜色识别 |自定义对象检测教程

视频教程“使用 YOLOv8 进行交通灯检测和颜色识别”介绍了使用 Ultralytics YOLOv8 web pro 创建交通灯检测和颜色识别模型的步骤。它涵盖了交通灯数据集、数据扩充、安装必要的库、微调 YOLOv8 模型以及在多个视频上测试模型。演示者强调了安装所有必需库的重要性,视频测试模型的结果证明了其检测和识别各种颜色交通灯的准确性。

  • 00:00:00 部分,教程涵盖了他们将用于该项目的交通灯数据集,该数据集由大约 1000 张图像组成,具有三种不同类别的交通灯:绿色、红色和黄色。他们展示了每个标签的示例,并解释了他们如何应用数据增强来增加数据集的大小,因为他们的训练数据集中没有足够的图像。该视频继续展示了如何将数据集从 RoboFlow 导出到 Google Colab notebook 中,还介绍了新推出的产品 Expense,它可以帮助训练、部署和监控模型等功能。

  • 00:05:00 在本节中,YouTuber 解释了使用 ultralytics YOLOv8 web pro 创建交通灯检测和颜色识别模型的实施过程的初始步骤。第一步涉及导入所有必要的库,例如 OS 和 glob,它们用于导航不同的文件路径以及绘制输入和输出图像。接下来,他们检查是否存在 GPU 并使用 pip 安装所有必需的库。最后,他们克隆了 ultralytics GitHub 存储库并将其设置为当前目录,然后再安装任何剩余的必要库。该视频强调了安装所有必需的库以避免以后出现脚本错误的重要性。

  • 00:10:00 在视频的这一部分,演示者演示了使用 Google Colab 在交通灯数据集上训练和微调 YOLO V8 模型的步骤。将数据集文件夹设置为当前目录后,模型在Ade box上训练80个boxes,结果显示所有类的平均IOU50s精度为98.3%。然后显示混淆矩阵,显示该模型分别在 96.7%、97.4% 和 95.5% 的时间内准确地将绿色、红色和黄色灯分类。演示者还指出,损失在不断减少,并且可以通过在更多的 epoch 上训练它来进一步改进模型。最后,使用验证图像验证模型的最佳权重。

  • 00:15:00 在本节中,演讲者讨论了在多个视频(包括交通灯的演示视频)上测试 YOLOv8 模型的结果。该模型能够准确检测交通灯并根据灯的颜色分配标签,边界框颜色与灯的颜色相匹配。演讲者展示了模型检测红色、绿色和黄色交通信号灯的示例,每个信号灯都有相应的标签和边界框颜色。该模型在不同视频上的结果证明了它在检测和识别各种颜色的交通信号灯方面的准确性。
Traffic Lights Detection and Color Recognition using YOLOv8 | Custom Object Detection Tutorial
Traffic Lights Detection and Color Recognition using YOLOv8 | Custom Object Detection Tutorial
  • 2023.03.16
  • www.youtube.com
#yolo #yolov8 #objectdetection #computervision #opencv #pytorch #python #trafficlights #trafficlightsdetection #trafficanalysis A complete YOLOv8 custom o...
 

使用 ANN 进行客户流失分析和预测|深度学习教程(Tensorflow、Keras 和 Python)



使用 ANN 进行客户流失分析和预测|深度学习教程(Tensorflow、Keras 和 Python)

标题为“使用 ANN 进行客户流失分析和预测 | 深度学习教程(Tensorflow、Keras 和 Python)”的 YouTube 视频演示了如何使用人工神经网络使用 Kaggle 的数据集来预测客户流失。该视频涵盖了准备数据所涉及的各个步骤,例如数据清理、编码分类特征和缩放列中的值。然后,演讲者创建一个神经网络,该网络具有一个包含 20 个神经元的隐藏层和一个 sigmoid 激活函数,同时定义输入和输出层以及一个具有二元交叉熵损失函数的优化器。显示了使用 Scikit-learn 库实现的准确度和分类报告,预测值被转换为 0 或 1 形式以显示 0.78 的准确度。

  • 00:00:00 在本节中,YouTuber 介绍了客户流失这一主题,并解释了如何使用人工神经网络对其进行预测。他们将使用来自 Kaggle 和 Jupyter Notebook 的数据集来执行探索性数据分析和数据清理,然后进行数据整理、训练测试和拆分,并最终使用人工神经网络预测客户流失。他们首先导入必要的库,例如 Pandas 和 NumPy,然后继续加载和分析数据集,删除客户 ID 列,因为它对预测客户流失没有用。

  • 00:05:00 在视频的这一部分,演讲者讨论了检查数据类型和识别任何分类特征的过程。演讲者发现“总费用”列显示为分类变量,即使它应该是浮点数或整数值。为了解决这个问题,演讲者将列转换为整数。他们还在 488 位置遇到空格错误,并使用 errors = "coerce" 忽略错误来解决它。最后,说话者检查行中是否没有值,并计划根据需要删除它们。

  • 00:10:00 在本节中,演讲者讨论了使用 Python 从总费用列中删除空行的过程。最初,说话者识别总费用列中的空行数,然后应用 pd.notnull() 删除它们。删除行后,说话者检查剩余的行数以确保它与预期的数字相匹配。随后,演讲者使用 pd.to_numeric() 将总费用列转换为数字数据类型。议长识别出数据类型转换不保存的错误,并进行调整。

  • 00:15:00 在视频的这一部分中,演示者对客户流失数据进行了探索性数据分析。他们将“总费用”列转换为浮点类型并使用可视化检查值。然后,他们绘制了一个直方图,以查看有多少忠实客户在 10 个月的持续时间内停留(未流失),并对表示离开客户的数据点进行颜色编码,绿色表示离开客户,红色表示保留客户。

  • 00:20:00 在本节中,演讲者讨论了修改语句以查找每列中的唯一值并在唯一值之前添加列名。演讲者还谈到找到所有带有分类变量的列并将它们转换为整数或浮点数。然后他们定义了一个函数来将所有这些步骤放在一起,并能够打印出任何数据框中的分类值。

  • 00:25:00 在视频的这一部分,演讲者演示了如何使用函数打印出放入其中的任何数据框的分类值或对象数据类型值。然后,他们通过将列转换为浮点数据类型并将其删除来修改数据框。演讲者使用替换函数将“无互联网服务”和“无电话服务”替换为“否”,并定义了一个是-否列,他们分别将所有是和否变量替换为 1 和 0,以将分类值转换为数值,机器学习模型更容易理解。

  • 00:30:00 在本节中,演讲者讨论了为机器学习准备数据所涉及的步骤。他们演示了如何将数据集拆分为训练集和测试集,以及如何通过将“女性”替换为 1 并将“男性”替换为 0 来对分类特征进行编码。演讲者随后使用 TensorFlow 和 Keras 创建具有单个隐藏层的神经网络20 个神经元和一个 sigmoid 激活函数。输入层有27个特征,定义了输出层。

  • 00:35:00 在视频的这一部分,演示者讨论了如何使用 get dummies 将文本数据转换为整数值,以便为机器学习模型准备数据。演示者展示了如何为 internet service 和 contract 等变量生成虚拟值,然后使用 min max 标量在 0 和 1 之间缩放列中的值。缩放的目的是使列中的值介于 0 和 1 之间。 1 使机器学习模型能够准确理解和解释数据。

  • 00:40:00 在本节中,演讲者讨论了如何使用人工神经网络定义输入层、输出层和优化器以进行客户流失分析和预测。他删除了不必要的输入层,并定义了由 1 或 0 组成的输出层,并使用 sigmoid 激活函数。他指出,ReLU 函数可用于分类问题的隐藏层,但不能用于输出层。优化器使用二元交叉熵损失函数定义,并使用 100 个 epoch 模型编译检查准确性。最后,他展示了使用 Scikit-learn 库实现的准确度和分类报告。

  • 00:45:00 在本节中,演讲者解释了他们如何将二维数组中 0 到 1 范围内的预测值转换为 0 或 1 形式。他们使用 for 循环来做到这一点,说明如果一个值大于 0.5,它将被视为 1,如果小于 0.5,它将被视为 0。转换值后,演讲者打印分类报告,显示准确度为 0.78。教程以演讲者结束,感谢观众的收看并邀请他们订阅该频道。
Customer Churn Analysis and Prediction using ANN| Deep Learning Tutorial(Tensorflow, Keras & Python)
Customer Churn Analysis and Prediction using ANN| Deep Learning Tutorial(Tensorflow, Keras & Python)
  • 2021.08.10
  • www.youtube.com
deeplearning, neuralnetworks, neuralnetwork, deeplearningalgorithms, python3, python, ANN, dataanalysis, dataanalytics, machinelearning
 

车辆跟踪/交通监控 yolov5+deepsort



车辆跟踪/交通监控 yolov5+deepsort

对于每个从 youtube 来到这里或只是想使用我的 repo 进行推理的人。这是一个非常古老的项目,只是为了在我上学时学习 CV。已经很久了,所以我忘记了我在这个玩具项目中所做的一切。我已经从这个repo中进行了编辑,并为某些约束添加了一些代码行。你们可以使用该回购作为参考。谢谢。

YOLOv5生成的检测被传递给跟踪对象的深度排序算法

代码:https: //github.com/duongcongnha/Vehicle-tracking

Vehicle tracking / Traffic monitoring yolov5+deepsort
Vehicle tracking / Traffic monitoring yolov5+deepsort
  • 2022.01.21
  • www.youtube.com
Full 34 minutes of Tracking traffic using yolov5 + deepsortVideo: https://youtu.be/wqctLW0Hb_0My repo: https://github.com/duongcongnha/Vehicle-tracking
 

CVPR 2018第二届AI城市挑战赛车辆跟踪与测速演示



CVPR 2018第二届AI城市挑战赛车辆跟踪与测速演示

我们来自华盛顿大学的团队在 CVPR 2018 的第二届人工智能城市挑战研讨会上获得了 Track 1(交通流分析)的冠军。

第二届人工智能城市挑战赛 (2018) 的数据集不再向公众开放。但是,您仍然可以访问第三届 AI 城市挑战赛(2019)的数据集,或参加 CVPR 2020 最新的第四届 AI 城市挑战赛。

他们为多摄像头车辆跟踪和基于图像的重新识别提供了一个新的城市规模数据集。他们还有一个用于交通异常检测的新数据集。数据集的规模和用于评估的车辆数量都是前所未有的。人工智能城市挑战赛的网站是https://www.aicitychallenge.org/

代码:https: //github.com/zhengthomastang/2018AICity_TeamUW

Demo of vehicle tracking and speed estimation at the 2nd AI City Challenge Workshop in CVPR 2018
Demo of vehicle tracking and speed estimation at the 2nd AI City Challenge Workshop in CVPR 2018
  • 2018.04.09
  • www.youtube.com
In this demo video, the estimated speed of each vehicle is shown in miles/hour.Our team from the University of Washington is the winner of Track 1 (Traffic F...