Машинное обучение и нейронные сети - страница 39

 

Обучение YOLOv8 на пользовательском наборе данных | Обнаружение и распознавание алфавитов языка жестов с использованием YOLOv8



Обучение YOLOv8 на пользовательском наборе данных | Обнаружение и распознавание алфавитов языка жестов с использованием YOLOv8

Видео демонстрирует реализацию YOLOv8 в пользовательском наборе данных для обнаружения и распознавания алфавита жестового языка. Процесс включает в себя загрузку набора данных, обучение модели в течение 50 эпох и оценку ее производительности с использованием матрицы путаницы и потерь при обучении и проверке. Докладчик также обсуждает, как проверяются прогнозы модели для пакета проверки и изображений, не используемых для обучения, чтобы определить, как она ведет себя на разных изображениях. Затем обученная модель проверяется и тестируется на изображениях набора данных проверки, и демонстрационный видеовывод показывается с хорошими результатами. В целом, видео освещает применение YOLOv8 для обучения пользовательскому набору данных и обнаружения объектов.

  • 00:00:00 В этом разделе видео ведущий знакомит с темой обучения YOLOv8 на пользовательских данных для обнаружения и распознавания алфавитов жестового языка. Они шаг за шагом объясняют процесс и обсуждают, как с помощью YOLOv8 можно реализовать систему обнаружения и распознавания алфавита жестового языка. Презентатор импортирует различные библиотеки, включая ОС, дисплей IPython и G-LOP, которые необходимы для отображения матриц путаницы, потерь при обучении и проверке, а также тестовых изображений. Затем докладчик показывает, как проверить доступ к графическому процессору, и определяет вспомогательную переменную для удобной навигации между различными папками, содержащими изображения наборов данных. Наконец, они устанавливают Ultra Analytics с помощью «pip install» и проверяют, что YOLOv8 установлен и работает нормально.

  • 00:05:00 В этом разделе видео демонстрирует процесс реализации YOLOv8 в пользовательском наборе данных для обнаружения и распознавания алфавита жестового языка. Набор данных загружается из Roboflow, и модель YOLOv8 обучается на нем в течение 50 эпох. Матрица путаницы используется для оценки производительности модели, определяя, насколько хорошо модель может обнаруживать и классифицировать различные классы. Результаты показывают, что модель смогла правильно определить алфавит А в 60% случаев, но иногда это приводило к неправильной классификации или неспособности его обнаружить. В целом, видео освещает применение YOLOv8 для обучения пользовательскому набору данных и обнаружения объектов.

  • 00:10:00 В этом разделе видео ведущий обсуждает матрицу путаницы, которая показывает, насколько хорошо модель обрабатывала разные классы, а также потери при обучении и проверке, причем важными из них являются журналы блоков и потери классификации. Также показаны прогнозы модели в пакете проверки, а изображения, не используемые для обучения, проверяются, чтобы определить, как модель ведет себя на разных изображениях. Затем пользовательская модель проверяется и тестируется на изображениях набора данных проверки, после чего следует демо-видео, которое показывает, что модель обнаруживает и распознает алфавиты языка жестов с хорошими результатами. Наконец, зрителям предлагается протестировать свои собственные модели с предоставленным набором видеоданных.
Train YOLOv8 on Custom Dataset | Sign Language Alphabets Detection and Recognition using YOLOv8
Train YOLOv8 on Custom Dataset | Sign Language Alphabets Detection and Recognition using YOLOv8
  • 2023.01.19
  • www.youtube.com
#yolo #yolov8 #objectdetection #opencvpython #opencv #computervision #machinelearning #artificialintelligence #deeplearning#artificialintelligence Sign Lan...
 

Сегментация YOLOv8 с отслеживанием объектов: пошаговая реализация кода | Google Колаб | Windows



Сегментация YOLOv8 с отслеживанием объектов: пошаговая реализация кода | Google Колаб | Windows

В этом видеоруководстве представлено исчерпывающее руководство по реализации сегментации YOLOv8 с идентификатором отслеживания глубокой сортировки и трейлами. Ведущий знакомит зрителей с процессом импорта необходимых файлов сценариев, установки зависимостей и настройки требуемого каталога для сегментации и отслеживания объектов с помощью глубокой сортировки. Учебное пособие включает в себя демонстрацию отслеживания объектов с уникальными идентификаторами и следами движения, а также обсуждение репозитория GitHub, который предоставляет код решения одним щелчком мыши для сегментации YOLOv8 и отслеживания глубокой сортировки. В учебнике также представлена программа патреона с эксклюзивным доступом к видеоурокам, которые не будут загружены на канал YouTube. В целом, руководство предлагает пошаговое объяснение реализации кода для сегментации YOLOv8 с отслеживанием объектов.

  • 00:00:00 В этом разделе видеоурока зрители узнают, как реализовать сегментацию YOLO V8 с помощью идентификатора отслеживания глубокой сортировки и следов. Учебник предоставляет сквозное объяснение кода с демонстрацией процесса реализации в Google Colab, а также в Windows и Linux. Зрителей также знакомят с новой программой патреона, которая предлагает эксклюзивный доступ к двум-трем проектам в неделю, включая видеоуроки, которые не будут загружаться на канал YouTube. Видео завершается обсуждением репозитория GitHub, который предоставляет код решения одним щелчком мыши для сегментации YOLO V8 и отслеживания глубокой сортировки, что упрощает реализацию на пользовательских наборах данных или предварительно обученном наборе данных MS Coco.

  • 00:05:00 В этом разделе докладчик проходит начальные шаги, связанные с реализацией сегментации YOLOv8 с отслеживанием объектов. Первый шаг включает в себя клонирование репозитория GitHub и импорт всех необходимых файлов сценариев. Зависимости устанавливаются с помощью файла setup.py, а также задается необходимая директория для выполнения сегментации и отслеживания объектов с помощью глубокой сортировки. Затем докладчик загружает образец видео для тестирования с Google Диска и демонстрирует, как выполняется отслеживание объектов с помощью уникальных идентификаторов, присвоенных каждому объекту, и следов, показывающих движение каждого объекта. Видео завершается объяснением того, как реализовать YOLOv8 в системе Windows с помощью PyCharm.

  • 00:10:00 В этом разделе спикер предоставляет пошаговое руководство по реализации сегментации YOLOv8 с отслеживанием объектов в Google Colab для Windows. Процесс включает в себя клонирование репозитория GitHub, установку текущего каталога в качестве папки клонирования, установку всех зависимостей и загрузку файлов глубокой сортировки. Файлы глубокой сортировки необходимы для реализации отслеживания объектов с использованием алгоритма глубокой сортировки. Эти файлы загружаются и извлекаются в сегментированную папку учебника. Спикер также упоминает, что существует несколько доступных алгоритмов отслеживания объектов, которые можно использовать вместо глубокой сортировки.

  • 00:15:00 В этом разделе спикер обсуждает алгоритм отслеживания объектов и отмечает, что после тестирования они обнаружили, что алгоритм глубокой сортировки работает лучше всего. Они объясняют, что будут использовать алгоритм SORT для отслеживания в скрипте. Докладчик загружает демонстрационное видео и показывает код, объясняющий предварительно обученную модель YOLOv8-sec BT, используемую для отслеживания объектов. Они также обсуждают различные модели YOLOv8 и их компромиссы между скоростью и точностью. Наконец, спикер объясняет сценарий predict.5 и подчеркивает, как определяются цвета ограничивающей рамки для обнаруженных объектов.

  • 00:20:00 В этом разделе спикер демонстрирует функцию, которая создает прямоугольник вокруг обнаруженного объекта, присваивает уникальный идентификатор и метку и создает ограничивающую рамку. Они объясняют, как функция сенсорного поля пользовательского интерфейса используется для создания ограничивающей рамки и прямоугольника выше, в то время как функция CV точка два прямоугольника создает прямоугольник вокруг обнаруженного объекта. Докладчик также показывает, как функция рисования Dash Boxing находит центр нижнего края ограничивающей рамки для рисования траекторий и присваивает каждому объекту уникальный идентификатор. В целом докладчик предоставляет пошаговое объяснение реализации кода для сегментации YOLOv8 с отслеживанием объектов.

  • 00:25:00 В этом разделе спикер объясняет использование двусторонней очереди (DQ) вместо списка для хранения данных. DQ используется для хранения значений объектов и удаления идентификатора объекта, которого нет в текущем кадре. Данные используются для рисования следов с помощью инструментальной линии CV2. Выполняется сегментация, и выходное видео показывает следы и обнаруженные объекты с присвоенным уникальным идентификатором. Спикер отмечает, что запуск скрипта на процессоре может занять больше времени, но его можно запустить на графическом процессоре с теми же шагами.
YOLOv8 Segmentation with Object Tracking: Step-by-Step Code Implementation | Google Colab | Windows
YOLOv8 Segmentation with Object Tracking: Step-by-Step Code Implementation | Google Colab | Windows
  • 2023.01.14
  • www.youtube.com
#yolov8 #objectdetection #objectracking #objectsegmentation #opencv#yolo #opencvpython #computervision #segmentation #machinelearning #artificialintellige...
 

YOLOV8 | Обнаружение объектов | Сегментация | Полное руководство Google Colab| Решение в один клик



YOLOV8 | Обнаружение объектов | Сегментация | Полное руководство Google Colab| Решение в один клик

В видеоуроке показано, как реализовать YOLOv8 с помощью Google Colab для обнаружения и сегментации объектов. Пользователи проходят этапы клонирования репозитория GitHub, установки пакетов, настройки каталогов и импорта демо-видео с Google Диска для тестирования. Пользователю также показано, как запустить модель YOLOv8 для обнаружения объектов в демонстрационном видео, как исправить любые проблемы с интервалами, а также как сохранить и загрузить выходное видео. В руководстве также рассматривается выполнение сегментации с помощью YOLOv8 и подчеркивается важность удаления предыдущих сжатых файлов перед продолжением. Предоставляется ссылка для загрузки файла записной книжки, и зрителям предлагается задавать вопросы в разделе комментариев.

  • 00:00:00 В этом разделе ведущий обсуждает реализацию YOLOv8 с использованием Google Colab для обнаружения и сегментации. Учебник начинается с клонирования репозитория YOLOv8 GitHub и установки необходимых пакетов. Ведущий демонстрирует, как настроить систему с необходимыми каталогами и импортировать демонстрационные видеоролики с Google Диска для тестирования. Выполнив эти шаги и запустив предоставленные ячейки, пользователи могут установить и внедрить YOLOv8 в Google Colab для обнаружения и сегментации объектов.

  • 00:05:00 В этом разделе видеоруководства обсуждается запуск модели YOLOv8 для обнаружения объектов в демонстрационном видео. Видео импортируется в папку, а репозиторий YOLOv8 GitHub добавляется в блокнот. Затем видео «тест 1» проверяется на обнаружение с помощью модели YOLOv8, и любые проблемы с интервалами исправляются перед попыткой видео «тест 2». Выходное видео сохраняется по пути и может быть загружено для просмотра результатов, но учебник также включает сценарий для показа демонстрационного видео в Google Colab с использованием библиотек HTML и ОС.

  • 00:10:00 Этот отрывок кажется продолжением туториала по созданию модели обнаружения объектов с помощью YOLOv8 в Google Colab. Спикер вносит некоторые коррективы в код и проверяет наличие ошибок, чтобы убедиться, что путь для выходного видео правильный. Они упоминают проблему с отсутствующим RB.free и проблемой пробелов, которую они исправляют перед повторным запуском кода. На видео показаны выходные данные модели обнаружения объектов.

  • 00:15:00 В этом разделе пользователь выполняет сегментацию с помощью YOLOv8. Они копируют необходимый код и запускают его для выполнения сегментации, получая впечатляющие результаты на выходе видео. Пользователь подчеркивает важность удаления предыдущего сжатого файла перед продолжением сегментации. Они также предоставляют ссылку для загрузки файла блокнота и призывают зрителей задавать любые вопросы, которые у них могут возникнуть, в разделе комментариев.
YOLOv8 | Object Detection | Segmentation | Complete Tutorial Google Colab| Single Click Solution
YOLOv8 | Object Detection | Segmentation | Complete Tutorial Google Colab| Single Click Solution
  • 2023.01.10
  • www.youtube.com
#objectdetection #segmentation #yolov8 #yolo *Update*I have updated the Google Colab Notebook, Now you can do Detection, Segmentation and Export the Model in...
 

Распознавание эмоций лица AI | Идентификация выражений лица с помощью V7



Распознавание эмоций лица AI | Идентификация выражений лица с помощью V7

В видеоуроках обсуждается процесс использования платформы V7 для создания аннотированных наборов данных для распознавания эмоций лиц с помощью ИИ. Учебники охватывают различные аспекты процесса, включая создание набора данных, аннотирование изображений и видео для эмоций, обучение модели и ее тестирование на образцах изображений и веб-камер в реальном времени. В учебных пособиях подчеркивается важность точной маркировки для эффективного обучения моделей ИИ, а также выделяются функции платформы V7 и несколько моделей. В учебных пособиях представлены сквозные примеры процесса аннотирования для определения выражений лица с помощью ИИ.

  • 00:00:00 В этом разделе ютубер объясняет, как использовать платформу V7 для создания детектора выражения лица. Они проходят этапы создания набора данных, загрузки изображений и видео и маркировки набора данных. Платформа V7 позволяет пользователю обучать свою модель обнаружению, сегментации и классификации объектов, а также тестировать ее на образцах изображений, видео или даже на веб-камере. YouTuber использует пример сердитого выражения лица и загружает изображения для обучения модели. Они также упоминают, что V7 предлагает различные форматы для изображений и видео, в том числе PNG, JPG, JFIF, MP4 и ABI. В целом, это видео представляет собой комплексное руководство по реализации детектора выражения лица с помощью платформы V7.

  • 00:05:00 В этом разделе ведущий рассказывает о процессе аннотирования выражений лица с помощью лабораторных работ V7. На примере класса гнева ведущий демонстрирует, как нарисовать ограничивающую рамку вокруг лица человека, а затем создать метку класса для эмоций гнева. Затем ведущий аннотирует все 50 изображений, включенных в набор данных, отмечая, что этот процесс можно воспроизвести и для аннотирования видеокадров. В целом докладчик подчеркивает важность точной маркировки для эффективного обучения моделей распознавания эмоций на лицах ИИ.

  • 00:10:00 В этом разделе видео ведущий показывает, как аннотировать кадры из набора видеоданных для создания визуальных изображений для распознавания эмоций ИИ. Ведущий загружает набор видеоданных и извлекает один кадр в секунду для создания отдельных изображений. Затем изображения аннотируются отдельно, чтобы определить изображенную эмоцию. Докладчик отмечает, что процесс занимает много времени, но важен для создания комплексного набора данных для машинного обучения. Ведущий также демонстрирует возможность аннотировать изображения и видео для распознавания эмоций ИИ. В целом, в этом разделе представлено полезное руководство по созданию аннотированных наборов данных для распознавания эмоций ИИ.

  • 00:15:00 В этом разделе спикер объясняет процесс загрузки и аннотирования набора данных для «счастливого» класса в распознавании эмоций лица ИИ с использованием технологии V7. Спикер загружает 50 изображений и помечает их одно за другим меткой «счастливый». Они упоминают, что на данный момент было аннотировано в общей сложности 182 изображения, в том числе 100 для класса «сердитый». Они также обсуждают загрузку видео и разделение его на отдельные кадры, чтобы аннотировать каждое выражение лица.

  • 00:20:00 В этом разделе видеоруководство демонстрирует процесс аннотирования для определения счастливых и напуганных людей в видео и изображениях с использованием распознавания эмоций по лицу ИИ. Аннотатор загружает 66 видео счастливых людей и аннотирует их с помощью Envision, просматривая каждый кадр и помечая счастливые или нейтральные выражения. Затем аннотатор добавляет новый класс для страха и загружает 50 изображений, а затем аннотирует каждое изображение соответствующей меткой эмоции. Завершенный набор данных содержит 248 изображений и видео, а в учебном пособии представлен сквозной пример процесса аннотирования для определения выражений лица с помощью ИИ.

  • 00:25:00 В этом разделе ютубер обсуждает свой прогресс в аннотировании и анимации изображений для своего проекта распознавания эмоций ИИ. Они успешно аннотировали все 50 изображений прозрачного стекла, а также завершили покадровую аннотацию видео о человеке, который боится. Затем ютубер продолжает аннотировать все изображения для урока-сюрприза, который является их последним уроком, и упоминает, что они перейдут к обучающей части видео после завершения всех аннотаций. В видео показана схема рабочего процесса для проекта, и YouTuber поясняет, что они будут выполнять обнаружение объектов и создание ограничивающих рамок, а не мгновенную сегментацию или классификацию.

  • 00:30:00 В этом разделе видеоруководство демонстрирует процесс обучения модели ИИ на наборе данных выражений лица и эмоций с использованием V7. В этом руководстве показано, как запланировать и отслеживать обучение набора данных с уведомлением по электронной почте, отправленным после завершения. В видео также показаны показатели производительности модели, в том числе средняя точность и полнота, а также потери, которые со временем постоянно снижались. В завершение учебника показано, как обученную модель можно развернуть для использования в различных API-интерфейсах с использованием Python, оболочки, JavaScript или Elixir, а также как модель можно также протестировать на веб-камерах в режиме реального времени.

  • 00:35:00 В этом разделе спикер демонстрирует распознавание эмоций лица ИИ с использованием лабораторий V7. Процесс включает в себя сбор и маркировку наборов данных изображений для эмоций гнева, счастья, страха, удивления и т. д. Спикер обучает модель и тестирует ее с помощью веб-камеры и образцов изображений, добиваясь прекрасных результатов. Лаборатории V7 также предлагают несколько моделей для таких задач, как сегментация и сканирование текста, и пользователи могут создавать свои собственные модели с бесплатными кредитами. Спикер дразнит будущие проекты с использованием V7 и призывает зрителей делиться видео и лайкать его.
AI Face Emotion Recognition | Identifying Facial Expressions With V7
AI Face Emotion Recognition | Identifying Facial Expressions With V7
  • 2023.02.08
  • www.youtube.com
#objectdetection #videoannotation #computervision #expressionrecognition #facialemotiondetection #machinelearning ------------------------------------------...
 

Обнаружение и отслеживание футболистов и мячей в реальном времени с использованием YOLOv8 Live: отслеживание объектов YOLOv8



Обнаружение и отслеживание футболистов и мячей в реальном времени с использованием YOLOv8 Live: отслеживание объектов YOLOv8

В этом видеоруководстве на YouTube ведущий демонстрирует процесс создания набора данных для обнаружения и отслеживания футболиста и мяча с помощью Roboflow. Докладчик проходит этапы загрузки и аннотирования изображений, подготовки набора данных, обучения модели, тестирования образцов видео и прямой трансляции с веб-камеры, а также изменения кода для улучшения отслеживания. В целом модель YOLOv8 работает хорошо, но имеет некоторые ограничения при обнаружении футбола в определенных сценариях.

  • 00:00:00 В этом разделе руководства докладчик рассказывает о процессе создания набора данных для обнаружения футболиста и мяча с помощью Roboflow. Они демонстрируют, как зарегистрировать учетную запись и создать новый проект, а также как загружать и обрабатывать видео с YouTube для извлечения кадров для аннотации. Ведущий отмечает, что кадры еще не аннотированы, и продолжает загружать еще одно видео для аннотирования.

  • 00:05:00 В этом разделе создатель видео демонстрирует процесс загрузки и аннотирования изображений для проекта по обнаружению и отслеживанию футболиста и мяча. Создатель загружает изображения и извлекает кадры из видео, поручая себе аннотировать изображения. Они аннотируют каждое изображение метками для футбола или футболиста и демонстрируют аннотирование разных игроков на каждом изображении. Наконец, они отмечают, что аннотировали в общей сложности 1827 изображений для проекта.

  • 00:10:00 В этом разделе видео ведущий рассказывает о подготовке набора данных для модели обнаружения футболиста и мяча путем изменения размера всех изображений до 640x640, фильтрации неаннотированных изображений и создания дополненных данных для увеличения набора данных. размер. Дополненные данные включают два изображения с разными уровнями контрастности и яркости, сгенерированные из одного изображения. Ведущий экспортирует набор данных из Roboflow в файл Google Colab и обучает модель, используя набор футбольных данных, извлеченный из репозитория GitHub. Они также подключают свой Google Диск к ноутбуку Colab, чтобы сохранить веса обученной модели.

  • 00:15:00 В этом разделе пользователь устанавливает свой текущий рабочий каталог в качестве своего репозитория GitHub и устанавливает все необходимые зависимости, чтобы избежать ошибок при выполнении процесса обнаружения или прогнозирования. Затем они переходят к нужному каталогу, обнаруживают и загружают набор данных из roboflow в свой блокнот Google. Пользователь также загружает файлы Deep Sort и распаковывает их, чтобы реализовать отслеживание объектов с помощью Deep Sort. Наконец, они обучают пользовательскую модель YOLOv8 на футбольном игроке и наборе футбольных данных и проверяют ее, обеспечивая хорошее среднее значение. Пользователь может просмотреть результаты обучения, включая кривую F1, кривую точности, кривую отзыва, а также результаты банка тренировок и проверки.

  • 00:20:00 В этом разделе спикер обсуждает результаты своей модели YOLOv8 для обнаружения и отслеживания футболистов и мячей. Они сообщают о точных результатах со средней точностью 0,63144 и 0,476 для игроков и хорошим обнаружением футбола. Затем спикер демонстрирует, как они загрузили образец видео для тестирования своей модели, и показывает результаты, а также размещает модель в тесте веб-камеры в реальном времени. В целом, модель хорошо работала с обнаружением игроков и назначением уникальных идентификаторов, но были некоторые пропуски обнаружения футбола.

  • 00:25:00 В этом разделе видео показано, как убрать уникальный идентификатор, присвоенный футбольному мячу в коде, чтобы упростить процесс отслеживания. Модификации кода вносятся путем редактирования файла project.py и удаления уникального идентификатора, присвоенного футбольному ярлыку. Затем выходное видео загружается и тестируется на веб-камере в реальном времени, где модель успешно может обнаружить футбол, но не игрока, поскольку он не одет как игрок. В целом изменения, внесенные в код, улучшили процесс отслеживания и дали удовлетворительные результаты.

  • 00:30:00 В этом разделе ведущий демонстрирует скрипт, который был написан для выполнения прогнозов на веб-камеру в прямом эфире с использованием YOLOv8. Сценарий импортирует YOLO, устанавливает файл весов и выполняет прогнозы с источником, установленным на 0, и показом, установленным на true. Значение достоверности установлено равным 0,15. Будучи одетой как игрок, модель не смогла обнаружить ведущего, но результаты обнаружения футбольного мяча оказались успешными.
Real Time Football Player and Ball Detection and Tracking using YOLOv8 Live :Object Tracking YOLOv8
Real Time Football Player and Ball Detection and Tracking using YOLOv8 Live :Object Tracking YOLOv8
  • 2023.02.13
  • www.youtube.com
#objectdetection #computervision #yolo #yolov8 #objecttracking #opencv #opencvpython #pytorch Real Time Football Player and Ball Detection and Tracking using...
 

YOLOv8 и VGG16 для распознавания лиц, определения пола, подсчета лиц и отслеживания людей | Пользовательский набор данных



YOLOv8 и VGG16 для распознавания лиц, определения пола, подсчета лиц и отслеживания людей | Пользовательский набор данных

В видеоуроке объясняется процесс обнаружения лиц, классификации по полу, подсчета лиц и отслеживания людей с использованием моделей YOLOv8 и VGG16. Учебное пособие охватывает различные аспекты реализации и обучения этих моделей, включая подготовку данных, увеличение данных, тонкую настройку предварительно обученной модели VGG16, использование трансферного обучения и обучение модели YOLOv8 распознаванию лиц. Докладчик также объясняет, как подключить Google Диск к блокноту Google Colab, получить доступ к наборам данных изображений и преобразовать их, загрузить необходимые библиотеки и интегрировать отслеживание объектов с помощью глубокой сортировки. В руководстве представлены подробные объяснения кода для рисования ограничивающих рамок вокруг обнаруженных объектов, интеграции модели классификации по полу, подсчета количества лиц в кадре и присвоения каждому обнаруженному лицу уникального идентификатора с помощью deepsort.update.

  • 00:00:00 В этом разделе видеоурока объясняется рабочий процесс обнаружения лиц с классификацией по полу и подсчета лиц с отслеживанием с использованием YOLOv8 и VGG16. Первый шаг — подготовить набор данных с изображениями лиц мужчин и женщин, обучить модель VGG16 распознаванию пола, а затем обучить модель YOLOv8 распознаванию лиц. При обнаружении лиц от YOLOv8 классификация по полу выполняется с использованием обученной модели VGG16. Затем отслеживание объектов реализуется с помощью Deepsort, присваивая уникальный идентификатор каждому обнаруженному лицу или человеку. Записная книжка разделена на девять шагов, включая импорт необходимых библиотек, подключение Google Диска, загрузку набора данных, преобразование изображений и меток в массивы, применение дополнения к данным, тонкую настройку модели VGG16 для данных гендерной классификации, построение графика обучения и потери проверки, а также тестирование с образцом изображения.

  • 00:05:00 В этом разделе спикер обсуждает различные библиотеки и функции, которые можно использовать для преобразования изображений в массивы numpy и наоборот. Они также объясняют использование двухуровневой категориальной библиотеки и концепцию последовательного и функционального подходов к организации слоев в нейронной сети. Сглаженный слой используется для преобразования многомерных входных данных в одномерные, а плотный слой используется для определения размера выходного слоя. Кроме того, они обсуждают использование трансферного обучения с моделью VGG16 и импорт разделенных тестов поездов, numpy и библиотек ОС. Наконец, упоминается использование библиотеки gdob для доступа ко всем файлам в папке и библиотеки random для перетасовки наборов данных изображений.

  • 00:10:00 В этом разделе видео объясняется, как подключить Google Диск к блокноту Google Colab для доступа к набору данных, загруженному в формате zip. Набор данных включает изображения лиц мужчин и женщин, а в видео показано, как распаковать и получить доступ к папке, содержащей эти изображения. Используя библиотеку glob, видео получает доступ ко всем файлам изображений в папках набора данных и преобразует их в формат массива с метками, указывающими, является ли изображение лицом мужчины или женщины. В видео показан пример изображения и объясняется, как переменная файлов изображений содержит все пути к файлам изображений папки мужчин и женщин, которые можно прочитать с помощью cb2.im read.

  • 00:15:00 В этом разделе спикер объясняет, как они подготовили свой набор данных для определения лица и пола. Они создали папки «мужчины» и «женщины», изменили размеры изображений внутри них и преобразовали их в массивы, которые затем были сохранены в списке данных. Они добавили соответствующие значения меток в список меток, с 1 для женщин и 0 для мужчин. Затем списки данных и меток были преобразованы в массивы с помощью NumPy. Докладчик также демонстрирует аугментацию данных с помощью генератора данных изображения, генерирующего несколько изображений из одного изображения путем применения различных преобразований. Затем они настроили предварительно обученную модель VGG16 в своем наборе данных гендерной классификации и внедрили активацию softmax для определения выходного слоя. Размер вывода был установлен равным 2, чтобы классифицировать мужчин или женщин.

  • 00:20:00 В этом разделе видеоурока спикер демонстрирует модель VGG16 для определения лица и пола и показывает, как ее обучить на наборе данных общей классификации. Модель сохраняется в формате .H5, и вычисляются ее точность, точность проверки и части потерь. Используя cv2.dsize, размер изображения изменяется до размеров 100x100 и преобразуется в массив, а модель предсказывает, содержит ли изображение мужчину или женщину. В следующей части руководства модель YOLOv8 будет обучена набору данных лиц для обнаружения лиц и присвоения уникального идентификатора для отслеживания. Спикер также упоминает, что подсчет лиц будет реализован с помощью простого кода, добавленного в файл predict.pi. В целом, учебник разделен на семь шагов.

  • 00:25:00 В этом разделе докладчик представляет репозиторий GitHub, который они будут использовать для реализации отслеживания объектов с помощью глубокой сортировки, а также модель YOLO V8 для уменьшения лиц. Они обсуждают, как они будут обнаруживать лица и выполнять гендерную классификацию, прежде чем интегрировать код отслеживания объектов глубокой сортировки, чтобы присвоить каждому человеку уникальный идентификатор. Затем ведущий устанавливает свой текущий каталог в качестве репозитория клонирования и устанавливает все необходимые библиотеки и зависимости, необходимые для сценария. Они также загружают набор данных из RoboFlow в свою записную книжку Google Colab, но сталкиваются с проблемами из-за наличия закрытой учетной записи.

  • 00:30:00 использовать веса предварительно обученной модели YOLOv8 для распознавания лиц. Набор данных загружается и сохраняется в моей учетной записи Google Диска, и я уже обучил модель YOLOv8 на 80 эпох для распознавания лиц. Обученная модель уже сохранена, а веса загружены в блокнот Google Colab. Файлы глубокой сортировки также загружаются в блокнот, так как отслеживание объектов будет реализовано с помощью глубокой сортировки. Кроме того, модель VGG16 была обучена определению пола, а файл модели .h5 был сохранен и загружен в учетную запись Google Диска. Образцы видео загружаются с Google Диска для тестирования скрипта predict.pi, который включает в себя код классификатора пола и подсчет лиц.

  • 00:35:00 В этом разделе спикер объясняет код, который был добавлен для реализации отслеживания объектов с помощью глубокой сортировки. Инициализируется порт отслеживания объектов глубокой сортировки и определяется функция для преобразования вывода, полученного от модели YOLOv8, в формат, совместимый для глубокой сортировки. Функция поля пользовательского интерфейса создает ограничивающие рамки вокруг обнаруженных объектов, а функция рисования поля вызывает функции поля пользовательского интерфейса и рисования границы, чтобы нарисовать прямоугольник со скругленными углами для текста. Код отслеживания глубокой сортировки интегрирован вместе с возможностью рисовать следы. Затем спикер объясняет код классификатора пола и функции подсчета в файле Paint. Функция подсчета используется для подсчета каждого объекта в каждом кадре. В целом код объясняет, как преобразовать выходные значения X1, Y1, X2 и Y2 из YOLOv8 в значения координат центра, высоты и ширины для отслеживания объектов с использованием глубокой сортировки, реализации обнаружения и отслеживания объектов в реальном приложении.

  • 00:40:00 В этом разделе спикер обсуждает преобразование модели YOLOv8 в координаты центра xcyc ограничивающей рамки, а также ширину и высоту ограничивающей рамки, чтобы сделать ее совместимой с отслеживанием объектов глубокой сортировки. Они также объясняют, как функция вычисления цвета для метки назначает уникальные цвета обнаруженным объектам, а функция рисования штриховой границы создает прямоугольник над ограничительной рамкой, где записываются метка и показатель достоверности. Спикер также рассказывает о классе классификатора пола и о том, как он загружается и используется на каждом кадре видео для классификации пола обнаруженных объектов. Кроме того, они упоминают функцию UI Dash box и функцию draw Dash box, которые используются для создания ограничительных рамок и вызова функции классификатора пола.

  • 00:45:00 В этом разделе ведущий объясняет, как использовать модель гендерной классификации, чтобы определить, принадлежит ли лицо мужчине или женщине. После обнаружения лица в модель классификации пола передаются только координаты ограничивающей рамки. Затем модель предсказывает, принадлежит ли лицо мужчине или женщине, и соответственно добавляется метка над ограничивающей рамкой. Затем докладчик объясняет функцию count, которая использует словарь под названием Foundry-classes для хранения количества лиц, обнаруженных в кадре. Счетчик отображается в пользовательском интерфейсе над видео или изображением.

  • 00:50:00 В этом разделе спикер объясняет, что количество лиц, обнаруженных в текущем кадре, хранится в словаре класса Foundry в классе FaceDetails. Словарь содержит два значения: ключевую переменную, которая содержит «лицо», и переменную-значение, которая содержит количество лиц, обнаруженных в текущем кадре. Динамик использует функцию подсчета, чтобы показать, сколько лиц было обнаружено в каждом кадре, и присваивает уникальный идентификатор каждому обнаруженному лицу с помощью deepsort.update. Спикер также создает общий класс, класс классификации и класс опасности. Обнаружения модели тестируются на нескольких демонстрационных видеороликах, и докладчик показывает результаты обнаружения в каждом кадре.
YOLOv8 and VGG16 for Face, Gender Detection, Face Counting, and People Tracking | Custom Dataset
YOLOv8 and VGG16 for Face, Gender Detection, Face Counting, and People Tracking | Custom Dataset
  • 2023.03.05
  • www.youtube.com
#objectdetection #computervision #yolo #yolov8 #ultralytics #transferlearning #vgg16 #objecttracking #deepsort #facedetection #opencv #opencvpython #pytorc...
 

Обнаружение светофора и распознавание цвета с использованием YOLOv8 | Учебное пособие по обнаружению пользовательских объектов



Обнаружение светофора и распознавание цвета с использованием YOLOv8 | Учебное пособие по обнаружению пользовательских объектов

Видеоруководство «Обнаружение светофора и распознавание цвета с использованием YOLOv8» объясняет шаги по созданию модели обнаружения светофора и распознавания цвета с помощью веб-программы Ultralytics YOLOv8. Он охватывает набор данных светофора, увеличение данных, установку необходимых библиотек, тонкую настройку модели YOLOv8 и тестирование модели на нескольких видео. Ведущий подчеркивает важность установки всех требуемых библиотек, а результаты тестирования модели на видеороликах демонстрируют ее точность в обнаружении и распознавании светофоров различных цветов.

  • В разделе 00:00:00 учебник охватывает набор данных светофора, который они будут использовать для проекта, который состоит из около 1000 изображений с тремя разными классами светофоров: зеленым, красным и желтым. Они показывают примеры каждой метки и объясняют, как они применяли аугментацию данных для увеличения размера своего набора данных, поскольку в их наборе обучающих данных не было достаточно изображений. Далее в видео показано, как экспортировать набор данных из RoboFlow в блокнот Google Colab, а также представлен недавно выпущенный продукт Expense, который, среди прочего, может помочь в обучении, развертывании и мониторинге моделей.

  • 00:05:00 В этом разделе ютубер объясняет начальные шаги в процессе реализации для создания модели обнаружения светофора и распознавания цвета с помощью веб-профи Ultralytics YOLOv8. Первый шаг включает в себя импорт всех необходимых библиотек, таких как ОС и glob, которые используются для навигации по различным путям к файлам и построения входных и выходных изображений. Далее они проверяют наличие GPU и устанавливают все необходимые библиотеки с помощью pip. Наконец, они клонируют репозиторий Ultralytics GitHub и устанавливают его в качестве текущего каталога перед установкой любых оставшихся необходимых библиотек. В видео подчеркивается важность установки всех необходимых библиотек, чтобы избежать ошибок скрипта в дальнейшем.

  • 00:10:00 В этом разделе видео ведущий демонстрирует шаги по обучению и тонкой настройке модели YOLO V8 на наборе данных светофора с помощью Google Colab. После установки папки набора данных в качестве текущего каталога модель обучается на блоке Ade для 80 блоков, и результаты показывают, что средняя точность с IOU50 для всех классов составляет 98,3%. Затем представлена матрица путаницы, показывающая, что модель правильно классифицировала зеленый, красный и желтый свет в 96,7%, 97,4% и 95,5% времени соответственно. Докладчик также отмечает, что потери постоянно уменьшаются, и модель можно улучшить, обучая ее на большем количестве эпох. Наконец, лучшие веса модели проверяются с помощью проверочных изображений.

  • 00:15:00 В этом разделе спикер обсуждает результаты тестирования модели YOLOv8 на нескольких видеороликах, в том числе на демо-видео светофоров. Модель способна точно обнаруживать светофоры и назначать метки на основе цвета света с цветом ограничивающей рамки, который соответствует цвету света. Докладчик показывает примеры модели, обнаруживающей красный, зеленый и желтый светофоры, с соответствующей меткой и цветом ограничивающей рамки для каждого из них. Результаты работы модели на разных видео демонстрируют ее точность в обнаружении и распознавании светофоров различных цветов.
Traffic Lights Detection and Color Recognition using YOLOv8 | Custom Object Detection Tutorial
Traffic Lights Detection and Color Recognition using YOLOv8 | Custom Object Detection Tutorial
  • 2023.03.16
  • www.youtube.com
#yolo #yolov8 #objectdetection #computervision #opencv #pytorch #python #trafficlights #trafficlightsdetection #trafficanalysis A complete YOLOv8 custom o...
 

Анализ и прогнозирование оттока клиентов с использованием ANN | Учебник по глубокому обучению (Tensorflow, Keras и Python)



Анализ и прогнозирование оттока клиентов с использованием ANN | Учебник по глубокому обучению (Tensorflow, Keras и Python)

Видео на YouTube под названием «Анализ и прогнозирование оттока клиентов с использованием ANN | Учебное пособие по глубокому обучению (Tensorflow, Keras и Python)» демонстрирует использование искусственных нейронных сетей для прогнозирования оттока клиентов с использованием набора данных из Kaggle. Видео охватывает различные этапы подготовки данных, такие как очистка данных, кодирование категориальных признаков и масштабирование значений в столбцах. Затем спикер создает нейронную сеть с одним скрытым слоем из 20 нейронов и сигмовидной функцией активации, определяя входной и выходной слои и оптимизатор с бинарной функцией кросс-энтропийных потерь. Отображается достигнутая точность и отчет о классификации с использованием библиотеки Scikit-learn, при этом прогнозируемые значения преобразуются в форму 0 или 1, чтобы показать точность 0,78.

  • 00:00:00 В этом разделе ютубер представляет тему оттока клиентов и объясняет, как можно использовать искусственные нейронные сети для его прогнозирования. Они будут использовать набор данных из Kaggle и Jupyter Notebook для проведения исследовательского анализа данных и очистки данных с последующей обработкой данных, тестированием и разделением данных и, в конечном итоге, прогнозированием оттока клиентов с использованием искусственной нейронной сети. Они начинают с импорта необходимых библиотек, таких как Pandas и NumPy, а затем переходят к загрузке и анализу набора данных, удаляя столбец идентификатора клиента, поскольку он бесполезен для прогнозирования оттока клиентов.

  • 00:05:00 В этом разделе видео спикер обсуждает процесс проверки типов данных и выявления каких-либо категориальных признаков. Выступающий обнаруживает, что столбец «Общие расходы» отображается как категориальная переменная, хотя это должно быть значение с плавающей запятой или целое число. Чтобы решить эту проблему, динамик преобразует столбец в целое число. Они также сталкиваются с ошибкой пустого пространства в позиции 488 и решают ее, используя error="coerce" для игнорирования ошибки. Наконец, говорящий проверяет отсутствие значений в строках и планирует удалить их по мере необходимости.

  • 00:10:00 В этом разделе спикер обсуждает процесс удаления пустых строк из столбцов общей суммы расходов с помощью Python. Сначала спикер определяет количество пустых строк в столбце общих расходов, а затем применяет pd.notnull() для их удаления. После удаления строк говорящий проверяет количество оставшихся строк, чтобы убедиться, что оно соответствует ожидаемому количеству. Позже спикер преобразует столбец общих расходов в числовой тип данных, используя pd.to_numeric(). Спикер выявляет ошибку несохранения преобразования типа данных и корректирует ее.

  • 00:15:00 В этом разделе видео ведущий проводит исследовательский анализ данных об оттоке клиентов. Они преобразуют столбец «общие расходы» в тип с плавающей запятой и проверяют значения с помощью визуализаций. Затем они строят гистограмму, чтобы увидеть, сколько лояльных клиентов остаются (а не уходят) на основе 10-месячной продолжительности, и окрашивают точки данных, которые указывают на уход клиентов, зеленым цветом, а тех, кто остается, - красным.

  • 00:20:00 В этом разделе докладчик обсуждает изменение инструкций для поиска уникальных значений в каждом столбце и добавление имен столбцов перед уникальными значениями. Спикер также рассказывает о том, как найти все столбцы с категориальными переменными и преобразовать их в целые числа или числа с плавающей запятой. Затем они определяют функцию, которая объединяет все эти шаги и позволяет распечатать категориальные значения в любом фрейме данных.

  • 00:25:00 В этом разделе видео спикер демонстрирует, как использовать функцию для вывода категориальных значений или значений типа данных объекта для любого фрейма данных, который в нее помещен. Затем они изменяют свой фрейм данных, преобразуя столбец в тип данных с плавающей запятой и удаляя его. Спикер заменяет «нет интернет-услуги» и «нет телефонной связи» на «нет» с помощью функции замены и определяет столбец «да-нет», где они заменяют все переменные «да» и «нет» на 1 и 0, соответственно, чтобы преобразовать категориальные значения в числовые значения, которые легче понять моделям машинного обучения.

  • 00:30:00 В этом разделе спикер обсуждает этапы подготовки данных для машинного обучения. Они демонстрируют, как разделить набор данных на наборы для обучения и тестирования и как кодировать категориальные признаки, заменив «женский» на 1 и «мужской» на 0. Затем спикер использует TensorFlow и Keras для создания нейронной сети с одним скрытым слоем. из 20 нейронов и сигмовидной функции активации. Входной слой имеет 27 объектов, а выходной слой определен.

  • 00:35:00 В этом разделе видео ведущий обсуждает, как преобразовать текстовые данные в целые значения с помощью манекенов get, чтобы подготовить данные для моделей машинного обучения. Докладчик показывает, как сгенерировать фиктивные значения для таких переменных, как интернет-услуги и контракт, а затем использует скаляр минимального максимума для масштабирования значений в столбцах от 0 до 1. Цель масштабирования — привести значения в столбцах между 0 и 1, чтобы модель машинного обучения могла точно понимать и интерпретировать данные.

  • 00:40:00 В этом разделе спикер обсуждает, как определить входной слой, выходной слой и оптимизатор для анализа и прогнозирования оттока клиентов с использованием искусственной нейронной сети. Он удаляет ненужный входной слой и определяет выходной слой, состоящий из единицы или нуля, с помощью сигмовидной функции активации. Он отмечает, что функцию ReLU можно использовать в скрытом слое для задач классификации, но не в выходном слое. Оптимизатор определяется с помощью бинарной функции кросс-энтропийных потерь, а точность проверяется с помощью компиляции модели из 100 эпох. Наконец, он отображает достигнутую точность и отчет о классификации, используя библиотеку Scikit-learn.

  • 00:45:00 В этом разделе спикер объясняет, как они преобразовали предсказанные значения, которые были в двумерном массиве и находились в диапазоне от 0 до 1, в форму 0 или 1. Они сделали это с помощью цикла for, заявив, что если значение больше 0,5, оно будет считаться 1, а если оно меньше 0,5, оно будет считаться 0. После преобразования значений докладчик распечатал классификацию. отчет, который показывает точность 0,78. Учебник завершается тем, что спикер благодарит зрителей за просмотр и предлагает им подписаться на канал.
Customer Churn Analysis and Prediction using ANN| Deep Learning Tutorial(Tensorflow, Keras & Python)
Customer Churn Analysis and Prediction using ANN| Deep Learning Tutorial(Tensorflow, Keras & Python)
  • 2021.08.10
  • www.youtube.com
deeplearning, neuralnetworks, neuralnetwork, deeplearningalgorithms, python3, python, ANN, dataanalysis, dataanalytics, machinelearning
 

Отслеживание транспортных средств / Мониторинг трафика yolov5+deepsort



Отслеживание транспортных средств / Мониторинг трафика yolov5+deepsort

Для всех, кто приходит сюда с YouTube или просто хочет использовать мой репо для вывода. Это очень старый проект, предназначенный только для изучения резюме, когда я учился в школе. Прошло много времени, поэтому я забыл все, что делал в этом игрушечном проекте. Я отредактировал этот репозиторий и добавил несколько строк кода для некоторых ограничений. Вы, ребята, можете использовать это репо для ссылок. Спасибо.

Обнаружения, генерируемые YOLOv5, передаются алгоритму Deep Sort , который отслеживает объекты.

Код: https://github.com/duongcongnha/Vehicle-tracking

Vehicle tracking / Traffic monitoring yolov5+deepsort
Vehicle tracking / Traffic monitoring yolov5+deepsort
  • 2022.01.21
  • www.youtube.com
Full 34 minutes of Tracking traffic using yolov5 + deepsortVideo: https://youtu.be/wqctLW0Hb_0My repo: https://github.com/duongcongnha/Vehicle-tracking
 

Демонстрация отслеживания транспортных средств и оценки скорости на 2-м семинаре AI City Challenge в CVPR 2018



Демонстрация отслеживания транспортных средств и оценки скорости на 2-м семинаре AI City Challenge в CVPR 2018

Наша команда из Вашингтонского университета стала победителем Трека 1 (Анализ транспортных потоков) на 2-м семинаре AI City Challenge в рамках CVPR 2018.

Наборы данных для 2-го AI City Challenge (2018 г.) больше не доступны для общественности. Тем не менее, вы по-прежнему можете получить доступ к наборам данных 3-го конкурса AI City Challenge (2019 г.) или принять участие в последнем 4-м конкурсе AI City Challenge в рамках CVPR 2020.

Они предоставили новый набор данных в масштабе города для многокамерного отслеживания транспортных средств, а также для повторной идентификации на основе изображений. У них также был новый набор данных для обнаружения аномалий трафика. Масштабы наборов данных и количество транспортных средств, которые используются для оценки, беспрецедентны. Веб-сайт AI City Challenges находится по адресу https://www.aicitychallenge.org/ .

Код: https://github.com/zhengthomastang/2018AICity_TeamUW

Demo of vehicle tracking and speed estimation at the 2nd AI City Challenge Workshop in CVPR 2018
Demo of vehicle tracking and speed estimation at the 2nd AI City Challenge Workshop in CVPR 2018
  • 2018.04.09
  • www.youtube.com
In this demo video, the estimated speed of each vehicle is shown in miles/hour.Our team from the University of Washington is the winner of Track 1 (Traffic F...