머신 러닝 및 신경망 - 페이지 39

 

YOLOv8 및 개체 추적을 사용하는 인원 계수기 | 인원 계수(출입 및 퇴장)



YOLOv8 및 개체 추적을 사용하는 인원 계수기 | 인원 계수(출입 및 퇴장)

이 비디오는 YOLOv8 및 개체 추적을 사용하여 인원 계수기를 만드는 방법을 설명합니다. 프로세스는 고유 ID로 물체를 감지하고 감지된 물체의 중심 좌표를 찾고 Deep SORT로 물체를 추적하고 물체가 특정 라인을 통과할 때 감지하여 특정 영역에 출입하는 사람의 수를 계산합니다. 고유 ID는 해당 지역에 들어오고 나가는 사람들을 계산하기 위해 목록에 저장되며 숫자는 녹색 및 빨간색 원으로 그래픽으로 표시됩니다. 비디오는 또한 프로젝트에 대한 코드를 제공하고 시스템의 출력을 실시간으로 보여줍니다.

  • 00:00:00 비디오 자습서의 이 섹션에서 발표자는 YOLO V8 및 개체 추적을 사용하여 인원 계수기를 만드는 방법을 설명합니다. 프로세스 흐름은 사람을 감지하고 감지된 각 객체에 고유 ID를 할당하기 위해 YOLO V8 객체 감지를 구현하는 것으로 시작합니다. 그런 다음 감지된 객체의 중심 좌표를 찾은 다음 감지된 각 객체에 고유 ID를 할당하는 Deep SORT를 사용하여 객체 추적을 수행합니다. 그런 다음 사람이 지나갈 때를 감지하기 위해 선이 그려지고 고유 ID가 목록에 추가됩니다. 마지막으로 목록의 길이를 찾아 각 줄을 넘는 사람의 총 수를 구합니다.

  • 00:05:00 이 섹션에서는 비디오에서 YOLOv8 및 개체 추적을 사용하여 사람 수를 세는 과정을 설명합니다. 이 방법은 개체 경계 상자의 중심 좌표를 추적하고 녹색 선을 교차할 때 감지하는 것과 관련됩니다. 그런 다음 객체의 고유 ID가 목록에 추가되어 라인을 통과한 총 객체 수를 계산하는 데 사용됩니다. 이 프로세스는 프레임 단위로 반복되며 개체가 선을 통과할 때마다 카운트가 증가합니다. 비디오는 또한 이 프로젝트에 사용된 코드를 보여줍니다. 여기에는 종속성 설치 및 심층 정렬 객체 추적 방법 사용이 포함됩니다.

  • 00:10:00 비디오의 이 섹션에서 발표자는 Deep Sort 파일을 다운로드하고 예측 스크립트를 열어 프로젝트 요구 사항에 필요한 변경을 수행합니다. 발표자는 흔적과 불필요한 데이터를 제거하고 비디오 입력을 사용하여 업 및 다운 카운트를 위한 두 개의 라인을 만듭니다. 그들은 각 선의 좌표점을 찾아 각 선을 넘은 사람의 수와 총 수를 추적할 수 있습니다. 발표자는 화면을 공유하여 좌표를 찾는 방법을 시연하고 올바른 영역에 초점을 맞추는 것의 중요성을 강조합니다.

  • 00:15:00 이 섹션에서 발표자는 선의 좌표를 정의하고 빈 목록을 만드는 방법을 설명합니다. 선의 좌표는 이전 단계에서 복사되며 빈 목록에는 교차하는 객체의 고유 ID가 저장됩니다. 스크립트는 또한 경계 상자의 너비와 높이를 계산하고 사람이 올라가는지 내려가는지에 따라 적절한 목록에 고유 ID를 저장합니다. 화자는 이 섹션에서 사용되는 점과 좌표를 시각적으로 표현합니다.

  • 00:20:00 비디오의 이 섹션에서 연사는 YOLOv8 및 개체 추적을 사용하여 People Counter 프로젝트의 코드를 설명합니다. 경계 상자의 중심 좌표를 나타내는 CX 및 CY 좌표와 감지된 개체 주위에 원과 사각형을 그리는 데 어떻게 사용되는지 살펴봅니다. 발표자는 또한 cv2.puttext 함수를 사용하여 각 개체의 고유 ID와 레이블이 사각형에 추가되는 방법을 설명합니다. 마지막으로 객체의 CX 좌표가 진입 또는 퇴장을 나타내는 특정 선을 넘어갈 때 고유 ID가 빈 목록에 저장되는 방법을 설명합니다.

  • 00:25:00 이 섹션에서 발표자는 올라가는 사람과 내려가는 사람의 총 카운트 목록에 고유 ID가 추가되는 방법을 설명합니다. 중심 좌표가 선 위 또는 아래를 통과하면 개수에 따라 해당 목록에 추가됩니다. 각 목록의 길이는 올라가고 내려가는 사람의 수를 나타내며, 녹색은 올라가는 사람을 나타내고 빨간색은 내려가는 사람을 나타내는 두 개의 원을 사용하여 그래픽으로 표시됩니다. 발표자는 글로벌 총 카운트 및 총 다운 변수를 정의하고 cb2.9를 사용하여 라인을 생성하는 것을 강조합니다. 이 코드는 CPU/DPM 원을 사용하여 카운트의 원형 표현을 만듭니다. 발표자는 시청자에게 런타임이 GPU로 설정되어 있는지 확인하고 세션에서 필요한 파일을 다운로드하는 데 몇 초가 걸릴 수 있음을 상기시킵니다.

  • 00:30:00 이 섹션에서 발표자는 YOLOv8 및 객체 추적을 사용하여 비디오의 특정 영역에 들어오고 나가는 사람의 수를 세는 스크립트를 다운로드하고 실행하는 방법을 시연합니다. 대본은 영상을 프레임으로 나누고 하나씩 처리해 사람들의 동선을 추적하고 특정 선을 넘으면 카운트한다. 출력은 해당 지역에 출입하는 사람들의 수를 실시간으로 보여주는 주석이 달린 비디오입니다. 발표자는 또한 출력 비디오를 보여주고 스크립트가 사람들의 움직임을 성공적으로 계산하는 방법을 설명합니다.

  • 00:35:00 이 섹션에서 비디오 자습서는 YOLOv8 및 개체 추적을 사용하여 특정 영역에 들어오고 나가는 사람들을 계산하는 방법을 보여줍니다. 시스템은 이미지에서 선을 넘는 개인을 세고 이동 방향에 따라 카운트를 업 카운트 또는 다운 카운트로 표시합니다. 시스템에 대한 스크립트 파일도 공유되며 시청자는 채널을 구독하고 엄지 손가락을 남길 것을 권장합니다.
 

YOLOv8을 사용한 실시간 객체 감지, 추적, 블러링 및 카운팅: 단계별 자습서



YOLOv8을 사용한 실시간 객체 감지, 추적, 블러링 및 카운팅: 단계별 자습서

이 튜토리얼은 YOLOv8을 사용하여 실시간 개체 감지 및 추적으로 개체 블러링 및 계산을 구현하는 데 중점을 둡니다. 이 자습서에서는 개체 추적을 위한 심층 정렬 파일과 테스트를 위한 샘플 비디오를 포함하여 필요한 파일을 다운로드하는 단계를 제공합니다. 이 자습서에서는 감지된 개체를 흐리게 처리하기 위해 OpenCV의 CV2 라이브러리를 사용하고 개체 감지, 추적 및 흐리게 처리를 위한 코드를 제공합니다. 화자는 경계 상자의 좌표를 결정하고 이미지를 자르고 흐림 기능을 적용하는 과정을 시연합니다. 또한 발표자는 사전을 사용하여 각 프레임의 총 개체 수를 계산하는 코드를 설명하고 코드가 각 프레임의 총 개체 수를 표시하면서 개체를 감지, 추적 및 흐리게 처리하는 방법을 보여줍니다. 전반적으로 결과는 좋았고 프로젝트에 대한 GitHub 리포지토리가 설명에 제공됩니다.

  • 00:00:00 튜토리얼의 이 섹션에서는 감지된 개체를 흐리게 처리하고 각 프레임의 개체 수를 세는 데 중점을 둡니다. 이 자습서에서는 추적 ID 및 트레일을 사용하여 개체 감지에 YOLOv8을 사용합니다. 이 자습서는 GPU 런타임 선택부터 개체 추적을 위한 심층 정렬 파일 및 테스트를 위한 샘플 비디오를 포함하여 필요한 파일을 다운로드하기 위한 스크립트 실행에 이르기까지 단계별 가이드를 제공합니다. 이 자습서는 또한 감지된 개체를 흐리게 처리하기 위한 OpenCV의 CV2 라이브러리 사용을 강조하고 개체 감지, 추적 및 흐리게 처리를 구현하기 위한 코드를 제공합니다.

  • 00:05:00 이 섹션에서는 YOLOv8을 사용하여 실시간 개체 감지 및 추적에서 감지된 개체를 흐리게 처리하는 방법을 비디오 자습서에서 설명합니다. 이를 구현하려면 왼쪽 상단 꼭지점과 오른쪽 하단 꼭짓점을 포함하는 경계 상자의 좌표를 알아야 하며 이 경계 상자 내부의 개체를 흐리게 처리해야 합니다. 좌표는 "predict.pi" 파일에 저장되며 개체를 흐리게 처리하기 위해 이러한 값을 얻을 수 있습니다.

  • 00:10:00 비디오의 이 섹션에서 화자는 감지된 개체의 경계 상자 내부에 있는 개체를 흐리게 처리하는 방법을 설명합니다. 경계 상자가 있는 영역만 포함하도록 이미지를 자르기 전에 먼저 경계 상자의 좌표를 결정합니다. 그런 다음 CV2 도트 블러를 사용하여 블러 기능을 적용하고 해당 영역의 블러를 결정하는 혈액 비율을 설정합니다. 연사는 스크립트를 작성하고 실행하여 프로세스를 시연합니다.

  • 00:15:00 비디오의 이 섹션에서 발표자는 실시간 개체 감지, 추적 및 계산을 위해 YOLOv8을 사용하여 개체 블러링을 구현하는 방법을 시연합니다. 약간의 수정을 하고 스크립트를 실행한 후 발표자는 잘 작동하는 개체 흐림 기능의 결과를 보여줍니다. 다음으로 발표자는 각 프레임의 총 개체 수를 계산하는 코드를 설명합니다. 여기에는 개체 이름과 현재 프레임에 나타나는 횟수를 포함하는 사전을 만드는 작업이 포함됩니다. 발표자는 비디오가 너무 길어지는 것을 방지하기 위해 이 부분에 대한 코드를 표시하지 않습니다.

  • 00:20:00 이 섹션에서 발표자는 객체 이름과 개수(현재 전면 프레임에 나타나는 횟수)가 포함된 사전에서 키와 값을 추출하는 count 함수를 설명합니다. 이 기능은 사각형을 만들고 개체가 나타난 횟수를 표시하는 텍스트로 오버레이합니다. 발표자는 또한 코드가 개체를 감지 및 추적하고, 흐리게 처리하고, 각 프레임의 총 개체 수를 표시하는 방법을 보여줍니다. 결과는 좋았고 프로젝트에 대한 GitHub 리포지토리가 설명에 제공됩니다.
 

사용자 지정 데이터 세트에서 YOLOv8 교육 | YOLOv8을 이용한 수화 알파벳 감지 및 인식



사용자 지정 데이터 세트에서 YOLOv8 교육 | YOLOv8을 이용한 수화 알파벳 감지 및 인식

이 비디오는 수화 알파벳 감지 및 인식을 위한 사용자 지정 데이터 세트에 YOLOv8을 구현하는 방법을 보여줍니다. 이 프로세스에는 데이터 세트 다운로드, 50 에포크 동안 모델 교육, 혼란 행렬과 교육 및 검증 손실을 사용하여 성능 평가가 포함됩니다. 발표자는 또한 유효성 검사 배치에 대한 모델의 예측과 교육에 사용되지 않는 이미지가 어떻게 다른 이미지에서 작동하는지 확인하기 위해 유효성을 검사하는 방법에 대해 설명합니다. 훈련된 모델은 검증 데이터 세트 이미지에서 검증되고 테스트되며 데모 비디오 추론이 좋은 결과로 표시됩니다. 전반적으로 비디오는 맞춤형 데이터 세트 교육 및 개체 감지를 위한 YOLOv8의 적용을 강조합니다.

  • 00:00:00 비디오의 이 섹션에서 발표자는 수화 알파벳 감지 및 인식을 위한 사용자 지정 데이터에 대한 YOLOv8 교육 주제를 소개합니다. 프로세스를 단계별로 설명하고 YOLOv8을 사용하여 수화 알파벳 감지 및 인식 시스템을 구현하는 방법에 대해 논의합니다. 프리젠터는 OS, IPython 디스플레이, G-LOP 등 다양한 라이브러리를 가져옵니다. 이들은 혼동 행렬, 교육 및 검증 손실, 테스트 이미지를 표시하는 데 필요합니다. 그런 다음 발표자는 GPU 액세스를 확인하는 방법을 보여주고 데이터세트 이미지가 포함된 여러 폴더 사이를 쉽게 탐색할 수 있도록 도우미 변수를 정의합니다. 마지막으로 "pip install"을 사용하여 Ultra Analytics를 설치하고 YOLOv8이 설치되고 제대로 작동하는지 확인합니다.

  • 00:05:00 이 섹션에서 비디오는 수화 알파벳 감지 및 인식을 위해 사용자 지정 데이터 세트에 YOLOv8을 구현하는 프로세스를 보여줍니다. 데이터 세트는 Roboflow에서 다운로드되고 YOLOv8 모델은 50 에포크 동안 학습됩니다. Confusion Matrix는 모델의 성능을 평가하는 데 사용되며 모델이 서로 다른 클래스를 얼마나 잘 감지하고 분류할 수 있는지 식별합니다. 결과는 모델이 알파벳 A를 60%의 시간 동안 정확하게 감지할 수 있었지만 때때로 잘못된 분류를 초래하거나 감지하지 못하는 결과를 낳았음을 보여줍니다. 전반적으로 비디오는 맞춤형 데이터 세트 교육 및 개체 감지를 위한 YOLOv8의 적용을 강조합니다.

  • 00:10:00 비디오의 이 섹션에서 발표자는 모델이 다양한 클래스를 얼마나 잘 처리했는지 보여주는 혼동 행렬과 교육 및 유효성 검사 손실(중요한 상자 로그 및 분류 손실)에 대해 논의합니다. 유효성 검사 배치에 대한 모델의 예측도 표시되며 교육에 사용되지 않는 이미지는 유효성을 검사하여 모델이 다른 이미지에서 어떻게 작동하는지 확인합니다. 그런 다음 사용자 지정 모델을 유효성 검사 데이터 세트 이미지에서 유효성 검사 및 테스트한 다음 데모 비디오 추론을 통해 수화 알파벳을 감지하고 인식하는 모델이 좋은 결과를 나타내는 것을 보여줍니다. 마지막으로 시청자는 제공된 비디오 데이터 세트로 자신의 모델을 테스트하도록 권장됩니다.
 

개체 추적을 통한 YOLOv8 세분화: 단계별 코드 구현 | 구글 코랩 | 윈도우



개체 추적을 통한 YOLOv8 세분화: 단계별 코드 구현 | 구글 코랩 | 윈도우

이 비디오 자습서는 심층 정렬 추적 ID와 트레일을 사용하여 YOLOv8 세분화를 구현하는 방법에 대한 포괄적인 가이드를 제공합니다. 발표자는 필요한 스크립트 파일 가져오기, 종속성 설치, 심층 정렬을 통한 세분화 및 개체 추적에 필요한 디렉터리 설정 과정을 시청자에게 안내합니다. 이 자습서에는 고유 ID 및 이동 흔적을 사용한 개체 추적 데모와 YOLOv8 세분화 및 심층 정렬 추적을 위한 원클릭 솔루션 코드를 제공하는 GitHub 리포지토리에 대한 토론이 포함되어 있습니다. 튜토리얼은 또한 YouTube 채널에 업로드되지 않는 비디오 튜토리얼에 대한 독점 액세스 권한이 있는 Patreon의 프로그램을 소개합니다. 전반적으로 이 튜토리얼은 객체 추적을 통한 YOLOv8 분할을 위한 코드 구현에 대한 단계별 설명을 제공합니다.

  • 00:00:00 비디오 자습서의 이 섹션에서는 시청자가 딥 정렬 추적 ID와 트레일을 사용하여 YOLO V8 세분화를 구현하는 방법을 안내합니다. 이 튜토리얼은 Google Colab과 Windows 및 Linux에서의 구현 프로세스 데모와 함께 코드에 대한 종단 간 설명을 제공합니다. 시청자는 또한 YouTube 채널에 업로드되지 않는 비디오 자습서를 포함하여 매주 2~3개의 프로젝트에 대한 독점 액세스를 제공하는 새로운 Patreon의 프로그램을 소개받습니다. 비디오는 YOLO V8 세분화 및 심층 정렬 추적을 위한 원클릭 솔루션 코드를 제공하여 사용자 지정 데이터 세트 또는 사전 훈련된 MS Coco 데이터 세트에서 쉽게 구현할 수 있는 GitHub 저장소에 대한 논의로 마무리됩니다.

  • 00:05:00 이 섹션에서 발표자는 개체 추적을 사용하여 YOLOv8 세분화를 구현하는 것과 관련된 초기 단계를 거칩니다. 첫 번째 단계는 GitHub 리포지토리를 복제하고 필요한 모든 스크립트 파일을 가져오는 것입니다. 종속성은 setup.py 파일을 사용하여 설치되며 필요한 디렉터리는 심층 정렬로 세분화 및 개체 추적을 수행하기 위해 설정됩니다. 그런 다음 발표자는 Google 드라이브에서 테스트용 샘플 비디오를 다운로드하고 각 개체에 할당된 고유 ID와 각 개체의 움직임을 보여주는 트레일을 사용하여 개체 추적이 수행되는 방법을 시연합니다. 비디오는 PyCharm을 사용하여 Windows 시스템에서 YOLOv8을 구현하는 방법에 대한 설명으로 끝납니다.

  • 00:10:00 이 섹션에서 발표자는 Windows의 Google Colab에서 개체 추적을 사용하여 YOLOv8 세분화를 구현하는 단계별 가이드를 제공합니다. 이 프로세스에는 GitHub 리포지토리 복제, 현재 디렉터리를 복제 폴더로 설정, 모든 종속성 설치 및 심층 정렬 파일 다운로드가 포함됩니다. 심층 정렬 알고리즘을 사용하여 객체 추적을 구현하려면 심층 정렬 파일이 필요합니다. 이러한 파일은 세그먼트화된 자습서 폴더에 다운로드 및 추출됩니다. 발표자는 또한 딥 정렬 대신 사용할 수 있는 여러 객체 추적 알고리즘이 있다고 언급합니다.

  • 00:15:00 이 섹션에서 발표자는 개체 추적 알고리즘에 대해 논의하고 테스트 후 딥 정렬 알고리즘이 가장 잘 수행된다는 것을 발견했다고 언급합니다. 그들은 스크립트에서 추적을 위해 SORT 알고리즘을 사용할 것이라고 설명합니다. 발표자는 데모 비디오를 다운로드하고 코드를 보여주며 물체 추적에 사용되는 YOLOv8-sec BT 사전 훈련 모델을 설명합니다. 또한 YOLOv8의 다양한 모델과 속도와 정확성 사이의 장단점에 대해 논의합니다. 마지막으로 스피커는 predict.5 스크립트를 설명하고 경계 상자 색상이 감지된 객체에 대해 어떻게 정의되는지 강조합니다.

  • 00:20:00 이 섹션에서 화자는 감지된 개체 주위에 사각형을 만들고 고유 ID 및 레이블을 할당하고 경계 상자를 만드는 기능을 시연합니다. UI 터치 상자 기능을 사용하여 경계 상자와 위의 사각형을 만드는 방법과 CV 도트 두 개의 사각형 기능을 사용하여 감지된 개체 주위에 사각형을 만드는 방법을 설명합니다. 스피커는 또한 Draw Dash boxing 기능이 경계 상자의 아래쪽 가장자리 중심을 찾아 궤적을 그리고 각 개체에 고유한 ID를 할당하는 방법을 보여줍니다. 전반적으로 스피커는 개체 추적을 사용하여 YOLOv8 분할을 위한 코드 구현에 대한 단계별 설명을 제공합니다.

  • 00:25:00 이 섹션에서 발표자는 데이터를 저장하기 위해 목록 대신 DQ(양단 대기열)를 사용하는 방법을 설명합니다. DQ는 객체의 값을 저장하고 현재 프레임에 없는 객체의 ID를 제거하는 데 사용됩니다. 데이터는 CV2 도구 라인을 사용하여 트레일을 그리는 데 사용됩니다. 분할이 수행되고 출력 비디오에는 고유 ID가 할당된 트레일과 감지된 개체가 표시됩니다. 연사는 스크립트를 CPU에서 실행하는 데 시간이 더 오래 걸릴 수 있지만 동일한 단계로 GPU에서 실행할 수 있다고 말합니다.
 

욜로v8 | 개체 감지 | 세분화 | 전체 자습서 Google Colab| 단일 클릭 솔루션



욜로v8 | 개체 감지 | 세분화 | 전체 자습서 Google Colab| 단일 클릭 솔루션

비디오 자습서는 객체 감지 및 세분화를 위해 Google Colab을 사용하여 YOLOv8을 구현하는 방법을 보여줍니다. 사용자는 GitHub 리포지토리 복제, 패키지 설치, 디렉터리 구성 및 테스트를 위해 Google 드라이브에서 데모 비디오 가져오기 단계를 안내받습니다. 또한 사용자는 데모 비디오에서 객체 감지를 위해 YOLOv8 모델을 실행하는 방법, 간격 문제를 수정하는 방법, 출력 비디오를 저장하고 다운로드하는 방법을 보여줍니다. 이 자습서는 또한 YOLOv8을 사용하여 분할을 수행하는 방법을 다루고 진행하기 전에 이전 압축 파일을 제거하는 것의 중요성을 강조합니다. 노트북 파일을 다운로드할 수 있는 링크가 제공되며 시청자는 댓글 섹션에서 질문할 수 있습니다.

  • 00:00:00 이 섹션에서 발표자는 감지 및 세분화를 위해 Google Colab을 사용하는 YOLOv8 구현에 대해 논의합니다. 튜토리얼은 YOLOv8 GitHub 리포지토리를 복제하고 필요한 패키지를 설치하는 것으로 시작합니다. 발표자는 필요한 디렉터리로 시스템을 구성하고 테스트를 위해 Google 드라이브에서 데모 비디오를 가져오는 방법을 시연합니다. 이 단계를 따르고 제공된 셀을 실행하면 사용자는 객체 감지 및 분할을 위해 Google Colab에 YOLOv8을 설치하고 구현할 수 있습니다.

  • 00:05:00 이 섹션에서 비디오 자습서는 데모 비디오에서 개체 감지를 위한 YOLOv8 모델 실행에 대해 설명합니다. 비디오를 폴더로 가져오고 YOLOv8 GitHub 리포지토리가 노트북에 추가됩니다. 그런 다음 '테스트 1' 비디오는 YOLOv8 모델로 감지 테스트를 거쳤으며 간격 문제는 '테스트 2' 비디오를 시도하기 전에 수정되었습니다. 출력 비디오는 경로에 저장되며 다운로드하여 결과를 검토할 수 있지만 튜토리얼에는 HTML 및 OS 라이브러리를 사용하여 Google Colab 내에서 데모 비디오를 표시하는 스크립트도 포함되어 있습니다.

  • 00:10:00 이 발췌문은 Google Colab에서 YOLOv8을 사용하여 개체 감지 모델을 만드는 방법에 대한 자습서의 연속으로 보입니다. 스피커는 코드를 약간 조정하고 오류를 확인하여 경로가 출력 비디오에 대해 올바른지 확인합니다. 그들은 RB.free 누락 문제와 코드를 다시 실행하기 전에 수정하는 간격 문제를 언급합니다. 비디오는 객체 감지 모델의 출력을 보여줍니다.

  • 00:15:00 이 섹션에서 사용자는 YOLOv8을 사용하여 세분화를 수행합니다. 필요한 코드를 복사하고 실행하여 분할을 수행하여 출력 비디오에서 인상적인 결과를 얻습니다. 사용자는 분할을 진행하기 전에 이전 압축 파일을 제거하는 것의 중요성을 강조합니다. 또한 노트북 파일을 다운로드할 수 있는 링크를 제공하고 시청자가 댓글 섹션에서 질문할 수 있도록 권장합니다.
 

AI 얼굴 감정 인식 | V7으로 얼굴 표정 식별하기



AI 얼굴 감정 인식 | V7으로 얼굴 표정 식별하기

비디오 자습서는 V7 플랫폼을 사용하여 AI 얼굴 감정 인식을 위한 주석이 달린 데이터 세트를 만드는 과정에 대해 설명합니다. 튜토리얼은 데이터 세트 생성, 감정에 대한 이미지 및 비디오 주석 달기, 모델 훈련, 샘플 이미지 및 라이브 웹캠에서 테스트를 포함하여 프로세스의 다양한 측면을 다룹니다. AI 모델의 효과적인 훈련을 위한 정확한 라벨링의 중요성은 튜토리얼 전반에 걸쳐 강조되며 V7 플랫폼의 기능과 여러 모델이 강조됩니다. 튜토리얼은 AI를 사용하여 얼굴 표정을 식별하기 위한 주석 프로세스의 종단 간 예를 제공합니다.

  • 00:00:00 이 섹션에서는 유튜버가 V7 플랫폼을 사용하여 얼굴 표정 감지기를 만드는 방법을 설명합니다. 데이터 세트 생성, 이미지 및 비디오 업로드, 데이터 세트 레이블 지정 단계를 거칩니다. V7 플랫폼을 통해 사용자는 객체 감지 또는 분할 및 분류를 위해 모델을 훈련하고 샘플 이미지, 비디오 또는 웹캠에서 테스트할 수 있습니다. YouTuber는 화난 표정의 예를 사용하고 이미지를 업로드하여 모델을 훈련시킵니다. 그들은 또한 V7이 PNG, JPG, JFIF, MP4 및 ABI를 포함하여 이미지 및 비디오에 대한 다양한 형식을 제공한다고 언급합니다. 전반적으로 이 비디오는 V7 플랫폼을 사용하여 얼굴 표정 감지기를 구현하는 방법에 대한 종단 간 자습서를 제공합니다.

  • 00:05:00 이 섹션에서는 발표자가 V7 랩으로 얼굴 표정에 주석을 다는 과정을 안내합니다. 화난 클래스의 예를 사용하여 발표자는 사람의 얼굴 주위에 경계 상자를 그린 다음 화난 감정에 대한 클래스 레이블을 만드는 방법을 시연합니다. 그런 다음 발표자는 데이터 세트에 포함된 50개의 이미지 모두에 주석을 달고 비디오 프레임에 주석을 달기 위해 프로세스를 복제할 수 있다는 점에 주목합니다. 전반적으로 발표자는 AI 얼굴 감정 인식 모델의 효과적인 훈련을 위한 정확한 라벨링의 중요성을 강조합니다.

  • 00:10:00 비디오의 이 섹션에서 발표자는 비디오 데이터 세트의 프레임에 주석을 달아 AI 감정 인식을 위한 시각적 이미지를 만드는 방법을 보여줍니다. 발표자는 비디오 데이터 세트를 업로드하고 초당 하나의 프레임을 추출하여 개별 이미지를 만듭니다. 그런 다음 묘사된 감정을 식별하기 위해 이미지에 별도로 주석이 추가됩니다. 발표자는 프로세스가 시간이 많이 걸리지만 기계 학습을 위한 포괄적인 데이터 세트를 만드는 데 중요하다고 말합니다. 발표자는 또한 AI 감정 인식을 위해 이미지와 비디오 모두에 주석을 달 수 있는 능력을 시연합니다. 전반적으로 이 섹션은 AI 감정 인식을 위한 주석이 달린 데이터 세트를 만드는 데 유용한 자습서를 제공합니다.

  • 00:15:00 이 섹션에서는 화자가 V7 기술을 사용하여 AI 얼굴 감정 인식에서 "행복한" 클래스에 대한 데이터 세트를 업로드하고 주석을 다는 과정을 설명합니다. 화자는 50개의 이미지를 업로드하고 "행복" 레이블로 하나씩 주석을 답니다. 그들은 "화난" 클래스에 대한 100개를 포함하여 지금까지 총 182개의 이미지에 주석이 달렸다고 언급합니다. 또한 비디오를 업로드하고 이를 별도의 프레임으로 분할하여 각 프레임에 얼굴 표정에 대한 주석을 추가하는 방법에 대해 논의합니다.

  • 00:20:00 이 섹션에서 비디오 자습서는 AI 얼굴 감정 인식을 사용하여 비디오 및 이미지에서 행복하고 두려운 개인을 식별하는 주석 프로세스를 보여줍니다. 주석 작성자는 66개의 행복한 사람 비디오를 업로드하고 Envision으로 주석을 달고 각 프레임을 순환하며 행복하거나 중립적인 표현에 레이블을 지정합니다. 다음으로 애노테이터는 공포에 대한 새 클래스를 추가하고 50개의 이미지를 업로드한 다음 각 이미지에 적절한 감정 레이블을 추가합니다. 완성된 데이터 세트에는 248개의 이미지와 비디오가 포함되어 있으며 자습서는 AI를 사용하여 얼굴 표정을 식별하기 위한 주석 프로세스의 엔드 투 엔드 예제를 제공합니다.

  • 00:25:00 이 섹션에서는 YouTube 사용자가 AI 얼굴 감정 인식 프로젝트를 위해 이미지에 주석을 달고 애니메이션을 적용하는 과정에 대해 설명합니다. 그들은 투명 유리의 50개 이미지 모두에 성공적으로 주석을 달았으며 공포 인물 비디오의 프레임 단위 주석도 완료했습니다. 그런 다음 유튜버는 마지막 수업인 서프라이즈 클래스의 모든 이미지에 주석을 달고 모든 주석을 완료한 후 동영상의 교육 부분으로 이동할 것이라고 언급합니다. 비디오는 프로젝트의 워크플로우 다이어그램을 보여주고 YouTuber는 즉각적인 분할이나 분류가 아닌 객체 감지 및 경계 상자 생성을 수행할 것임을 분명히 합니다.

  • 00:30:00 이 섹션에서 비디오 자습서는 V7을 사용하여 얼굴 표정 및 감정 데이터 세트에서 AI 모델을 교육하는 프로세스를 보여줍니다. 튜토리얼은 완료 후 전송되는 이메일 알림과 함께 데이터 세트의 교육을 예약하고 모니터링하는 방법을 보여줍니다. 이 비디오는 또한 시간이 지남에 따라 지속적으로 감소하는 손실뿐만 아니라 평균 정밀도 및 재현율을 포함한 모델의 성능 지표를 강조합니다. 자습서는 Python, 셸, JavaScript 또는 Elixir를 사용하여 다양한 API에서 사용하기 위해 훈련된 모델을 배포하는 방법과 라이브 웹캠에서 모델을 테스트하는 방법을 보여줌으로써 끝납니다.

  • 00:35:00 이 섹션에서는 화자가 V7 랩을 사용하여 AI 얼굴 감정 인식을 시연합니다. 이 프로세스에는 분노, 행복, 두려움, 놀라움 등의 감정에 대한 이미지 데이터 세트를 수집하고 레이블을 지정하는 작업이 포함됩니다. 스피커는 모델을 훈련하고 웹캠과 이미지 샘플을 사용하여 테스트하여 훌륭한 결과를 얻습니다. V7 랩은 또한 분할 및 텍스트 스캔과 같은 작업을 위한 여러 모델을 제공하며 사용자는 무료 크레딧으로 자신의 모델을 만들 수 있습니다. 연사는 V7을 사용하여 향후 프로젝트를 예고하고 시청자가 비디오를 공유하고 좋아요를 누르도록 권장합니다.
 

YOLOv8 Live를 사용한 실시간 축구 선수 및 볼 감지 및 추적 :Object Tracking YOLOv8



YOLOv8 Live를 사용한 실시간 축구 선수 및 볼 감지 및 추적 :Object Tracking YOLOv8

이 YouTube 비디오 자습서에서 발표자는 Roboflow를 사용하여 축구 선수와 공 감지 및 추적 데이터 세트를 만드는 과정을 시연합니다. 발표자는 이미지 업로드 및 주석 달기, 데이터 세트 준비, 모델 교육, 샘플 비디오 및 라이브 웹캠 테스트, 추적 개선을 위한 코드 수정 단계를 안내합니다. 전반적으로 YOLOv8 모델은 잘 작동하지만 특정 시나리오에서 축구를 감지하는 데 몇 가지 제한이 있습니다.

  • 00:00:00 튜토리얼의 이 섹션에서 발표자는 Roboflow를 사용하여 축구 선수 및 공 감지 데이터 세트를 만드는 과정을 안내합니다. 계정에 가입하고 새 프로젝트를 만드는 방법과 YouTube에서 동영상을 업로드하고 처리하여 주석을 추가할 프레임을 추출하는 방법을 보여줍니다. 발표자는 프레임에 아직 주석이 달리지 않았음을 확인하고 주석을 추가할 다른 비디오를 업로드합니다.

  • 00:05:00 이 섹션에서는 비디오 제작자가 축구 선수와 공 감지 및 추적 프로젝트를 위해 이미지를 업로드하고 주석을 다는 과정을 시연합니다. 제작자는 이미지를 업로드하고 비디오에서 프레임을 추출하여 이미지에 주석을 다는 작업을 자신에게 할당합니다. 각 이미지에 축구 또는 축구 선수에 대한 레이블로 주석을 달고 각 이미지에서 다른 선수에 주석을 추가하는 방법을 보여줍니다. 마지막으로 프로젝트에 대해 총 1827개의 이미지에 주석을 달았다고 합니다.

  • 00:10:00 비디오의 이 섹션에서 발표자는 모든 이미지의 크기를 640x640으로 조정하고, 주석이 없는 이미지를 필터링하고, 데이터 집합을 늘리기 위해 증강 데이터를 생성하여 축구 선수 및 공 감지 모델을 위한 데이터 집합을 준비하는 방법에 대해 이야기합니다. 크기. 증강 데이터에는 단일 이미지에서 생성된 대비와 밝기 수준이 다른 두 개의 이미지가 포함됩니다. 발표자는 Roboflow의 데이터 세트를 Google Colab 파일로 내보내고 GitHub 리포지토리에서 추출한 축구 데이터 세트를 사용하여 모델을 교육합니다. 또한 학습된 모델의 가중치를 저장하기 위해 Google 드라이브를 Colab 노트북에 연결합니다.

  • 00:15:00 이 섹션에서 사용자는 현재 작업 디렉터리를 GitHub 리포지토리로 설정하고 감지 또는 예측 프로세스를 실행하는 동안 오류를 방지하기 위해 필요한 모든 종속성을 설치합니다. 그런 다음 필요한 디렉터리로 이동하여 roboflow에서 Google 노트북으로 데이터 세트를 감지하고 다운로드합니다. 사용자는 또한 Deep Sort 파일을 다운로드하고 압축을 풀고 Deep Sort를 사용하여 개체 추적을 구현합니다. 마지막으로 그들은 축구 선수 및 축구 데이터 세트에서 YOLOv8의 사용자 지정 모델을 훈련하고 이를 검증하여 좋은 평균 평균을 보장합니다. 사용자는 F1 곡선, 정밀도 곡선, 리콜 곡선, 교육 및 검증 뱅크 결과를 포함한 교육 결과를 검토할 수 있습니다.

  • 00:20:00 이 섹션에서 연사는 축구 선수와 공 감지 및 추적을 위한 YOLOv8 모델의 결과에 대해 논의합니다. 선수에 대한 평균 정밀도 0.63144 및 0.476과 축구에 대한 우수한 감지로 정확한 결과를 보고합니다. 그런 다음 연사는 모델을 테스트하기 위해 샘플 비디오를 다운로드한 방법을 시연하고 결과를 보여주며 모델을 라이브 웹캠 테스트에 배치합니다. 전반적으로 이 모델은 선수를 감지하고 고유 ID를 할당하는 데 잘 작동했지만 일부 축구 감지가 누락되었습니다.

  • 00:25:00 이 섹션에서 비디오는 추적 프로세스를 단순화하기 위해 코드에서 축구에 할당된 고유 ID를 제거하는 방법을 보여줍니다. 코드 수정은 project.py 파일을 편집하고 축구 레이블에 할당된 고유 ID를 제거하여 이루어집니다. 그런 다음 출력 비디오를 다운로드하고 라이브 웹캠에서 테스트합니다. 여기에서 모델은 선수처럼 옷을 입지 않았기 때문에 모델이 축구를 성공적으로 감지할 수 있지만 선수는 감지할 수 없습니다. 전반적으로 코드 수정으로 추적 프로세스가 개선되었고 만족스러운 결과가 생성되었습니다.

  • 00:30:00 이 섹션에서 발표자는 YOLOv8을 사용하여 라이브 웹캠에서 예측을 수행하도록 작성된 스크립트를 시연합니다. 스크립트는 YOLO를 가져오고, 가중치 파일을 설정하고 소스를 0으로 설정하고 쇼를 true로 설정하여 예측을 수행합니다. 신뢰도 값은 0.15로 설정됩니다. 선수로 분장한 동안 모델은 발표자를 감지할 수 없었지만 축구를 감지한 결과는 성공적이었습니다.
 

얼굴, 성별 감지, 얼굴 계산 및 사람 추적을 위한 YOLOv8 및 VGG16 | 커스텀 데이터세트



얼굴, 성별 감지, 얼굴 계산 및 사람 추적을 위한 YOLOv8 및 VGG16 | 커스텀 데이터세트

비디오 자습서는 YOLOv8 및 VGG16 모델을 사용하여 얼굴 감지, 성별 분류, 얼굴 계산 및 사람 추적 프로세스를 설명합니다. 이 자습서에서는 데이터 준비, 데이터 증강, 사전 훈련된 VGG16 모델 미세 조정, 전이 학습 사용, 얼굴 감지를 위한 YOLOv8 모델 훈련을 포함하여 이러한 모델을 구현하고 훈련하는 다양한 측면을 다룹니다. 발표자는 또한 Google Colab 노트북에 Google 드라이브를 마운트하는 방법, 이미지 데이터 세트에 액세스 및 변환하는 방법, 필요한 라이브러리를 다운로드하는 방법, 딥소트를 사용하여 개체 추적을 통합하는 방법을 설명합니다. 이 자습서에서는 감지된 개체 주위에 경계 상자 그리기, 성별 분류 모델 통합, 프레임의 얼굴 수 계산, deepsort.update를 사용하여 감지된 각 얼굴에 고유한 ID 할당에 대한 자세한 코드 설명을 제공합니다.

  • 00:00:00 비디오 자습서의 이 섹션에서는 YOLOv8 및 VGG16을 사용하여 추적을 통해 성별 분류 및 얼굴 계산을 통한 얼굴 감지 작업 흐름에 대해 설명합니다. 첫 번째 단계는 남성과 여성의 얼굴 이미지로 데이터 세트를 준비하고 성별 감지를 위해 VGG16 모델을 훈련한 다음 얼굴 감지를 위해 YOLOv8 모델을 훈련하는 것입니다. YOLOv8의 얼굴 감지를 통해 훈련된 VGG16 모델을 사용하여 성별 분류가 수행됩니다. 그런 다음 감지된 각 얼굴이나 사람에 고유 ID를 할당하는 Deepsort를 사용하여 개체 추적이 구현됩니다. 노트북은 필수 라이브러리 가져오기, Google 드라이브 마운트, 데이터 세트 로드, 이미지 및 레이블을 배열로 변환, 데이터 확대 적용, 성별 분류 데이터에 대한 VGG16 모델 미세 조정, 훈련 및 검증 손실 플로팅, 샘플 이미지로 테스트합니다.

  • 00:05:00 이 섹션에서 발표자는 이미지를 numpy 배열로 또는 그 반대로 변환하는 데 사용할 수 있는 다양한 라이브러리 및 기능에 대해 설명합니다. 또한 두 개의 대시 범주형 라이브러리의 사용과 신경망에서 계층을 배열하기 위한 순차적이고 기능적인 접근 방식의 개념을 설명합니다. 평면화 계층은 다차원 입력을 1차원으로 변환하는 데 사용되는 반면, 조밀 계층은 출력 계층 크기를 정의하는 데 사용됩니다. 또한 VGG16 모델을 사용한 전이 학습 사용과 훈련 테스트 분할, numpy 및 OS 라이브러리 가져오기에 대해 논의합니다. 마지막으로 그들은 폴더의 모든 파일에 액세스하기 위한 gdob 라이브러리와 이미지 데이터 세트 섞기 위한 임의 라이브러리의 사용에 대해 언급합니다.

  • 00:10:00 이 섹션에서는 zip 형식으로 업로드된 데이터 세트에 액세스하기 위해 Google Colab 노트북으로 Google 드라이브를 마운트하는 방법을 설명하는 동영상입니다. 데이터 세트에는 남성과 여성의 얼굴 이미지가 포함되어 있으며 비디오는 이러한 이미지가 포함된 폴더의 압축을 풀고 액세스하는 방법을 보여줍니다. glob 라이브러리를 사용하여 비디오는 데이터 세트 폴더의 모든 이미지 파일에 액세스하고 이미지가 남자 얼굴인지 여자 얼굴인지를 나타내는 레이블이 있는 배열 형식으로 변환합니다. 비디오는 샘플 이미지를 보여주고 이미지 파일 변수에 어떻게 cb2.im read를 사용하여 읽을 수 있는 men and women 폴더의 모든 이미지 파일 경로가 포함되어 있는지 설명합니다.

  • 00:15:00 이 섹션에서 발표자는 얼굴 및 성별 감지를 위해 데이터 세트를 어떻게 준비했는지 설명합니다. 그들은 'men' 및 'women' 폴더를 만들고 그 안의 이미지 크기를 조정한 다음 배열로 변환하여 데이터 목록에 저장했습니다. 여성은 1, 남성은 0으로 해당 레이블 값을 레이블 목록에 추가했습니다. 그런 다음 데이터 및 레이블 목록을 NumPy를 사용하여 배열로 변환했습니다. 발표자는 또한 다양한 변환을 적용하여 단일 이미지에서 여러 이미지를 생성하는 이미지 데이터 생성기를 사용하여 데이터 증대를 시연합니다. 그런 다음 성별 분류 데이터 세트에서 사전 훈련된 VGG16 모델을 미세 조정하고 소프트맥스 활성화를 구현하여 출력 계층을 정의했습니다. 출력 크기는 남성 또는 여성을 분류하기 위해 2로 설정되었습니다.

  • 00:20:00 비디오 자습서의 이 섹션에서 화자는 얼굴 및 성별 감지를 위한 VGG16 모델을 시연하고 일반 분류 데이터 세트에서 훈련하는 방법을 보여줍니다. 모델은 .H5 형식으로 저장되며 정확도, 검증 정확도 및 손실 부분이 계산됩니다. cv2.dsize를 사용하여 이미지의 크기가 100x100 크기로 조정되고 배열로 변환되며 모델은 이미지에 남자가 있는지 여자가 있는지 예측합니다. 튜토리얼의 다음 부분에서 YOLOv8 모델은 얼굴을 감지하고 추적을 위한 고유 ID를 할당하기 위해 얼굴 데이터 세트에서 훈련됩니다. 발표자는 또한 predict.pi 파일에 추가된 간단한 코드를 사용하여 얼굴 카운팅이 구현될 것이라고 언급합니다. 전반적으로 튜토리얼은 7단계로 나뉩니다.

  • 00:25:00 이 섹션에서 발표자는 심층 정렬을 사용하여 개체 추적을 구현하는 데 사용할 GitHub 저장소와 얼굴 축소를 위한 YOLO V8 모델을 소개합니다. 각 사람에게 고유한 ID를 할당하기 위해 심층 정렬 개체 추적 코드를 통합하기 전에 얼굴을 감지하고 성별 분류를 수행하는 방법에 대해 논의합니다. 그런 다음 발표자는 현재 디렉토리를 복제 저장소로 설정하고 스크립트에 필요한 모든 필수 라이브러리와 종속성을 설치합니다. 또한 RoboFlow에서 Google Colab 노트북으로 데이터 세트를 다운로드하지만 개인 계정이 있어 문제가 발생합니다.

  • 00:30:00 얼굴 감지를 위해 사전 훈련된 YOLOv8 모델의 가중치를 사용합니다. 데이터 세트가 다운로드되어 내 Google 드라이브 계정에 저장되며 얼굴 감지를 위해 이미 80 epoch 동안 YOLOv8 모델을 교육했습니다. 학습된 모델은 이미 저장되었으며 가중치는 Google Colab 노트북에 다운로드되었습니다. 심층 정렬을 사용하여 개체 추적이 구현되므로 심층 정렬 파일도 노트북에 다운로드됩니다. 또한 VGG16 모델은 성별 감지를 위해 훈련되었으며 모델의 .h5 파일은 Google 드라이브 계정에 저장 및 다운로드되었습니다. Google 드라이브에서 샘플 비디오를 다운로드하여 성별 분류 코드와 얼굴 계수를 포함하는 predict.pi 스크립트를 테스트합니다.

  • 00:35:00 이 섹션에서는 심층 정렬을 사용하여 객체 추적을 구현하기 위해 추가된 코드에 대해 발표자가 설명합니다. 심층 정렬 개체 추적 포트가 초기화되고 YOLOv8 모델에서 수신된 출력을 심층 정렬에 호환되는 형식으로 변환하는 함수가 정의됩니다. UI 상자 기능은 감지된 개체 주위에 경계 상자를 만드는 반면, 그리기 상자 기능은 UI 상자를 호출하고 테두리 기능을 그려 텍스트에 대해 둥근 사각형을 그립니다. 심층 정렬 추적 코드는 트레일을 그리는 기능과 함께 통합됩니다. 그런 다음 화자는 그림판 파일의 성별 분류 및 계수 기능에 대한 코드를 설명합니다. count 함수는 각 프레임의 각 개체를 계산하는 데 사용됩니다. 전반적으로 이 코드는 YOLOv8의 X1, Y1, X2 및 Y2 출력 값을 심층 정렬을 사용하여 객체 추적을 위한 중심 좌표, 높이 및 너비 값으로 변환하고 실제 애플리케이션에서 객체 감지 및 객체 추적을 구현하는 방법을 설명합니다.

  • 00:40:00 이 섹션에서 발표자는 YOLOv8 모델을 바운딩 박스의 xcyc 중심 좌표와 바운딩 박스의 너비 및 높이로 변환하여 심층 정렬 개체 추적과 호환되도록 하는 방법에 대해 설명합니다. 또한 레이블에 대한 색상 계산 기능이 감지된 개체에 고유한 색상을 할당하는 방법과 대시 테두리 그리기 기능이 레이블과 신뢰도 점수가 기록되는 경계 상자 위에 사각형을 만드는 방법을 설명합니다. 또한 화자는 성별 분류기 클래스와 감지된 개체의 성별을 분류하기 위해 비디오의 각 프레임에 로드되고 사용되는 방법에 대해 이야기합니다. 또한 경계 상자를 생성하고 성별 분류 기능을 호출하는 데 사용되는 UI 대시 상자 기능과 그리기 대시 상자 기능을 언급합니다.

  • 00:45:00 이 섹션에서 발표자는 성별 분류 모델을 사용하여 얼굴이 남성인지 여성인지 감지하는 방법을 설명합니다. 얼굴을 감지한 후 경계 상자 좌표만 성별 분류 모델에 전달됩니다. 그런 다음 모델은 얼굴이 남자인지 여자인지 예측하고 그에 따라 경계 상자 위에 레이블을 추가합니다. 발표자는 프레임에서 감지된 얼굴의 수를 저장하기 위해 Foundry-classes라는 사전을 사용하는 count 함수에 대해 설명합니다. 카운트는 비디오 또는 이미지 상단의 UI에 표시됩니다.

  • 00:50:00 이 섹션에서 발표자는 현재 프레임에서 감지된 얼굴 수의 카운트가 FaceDetails 클래스의 Foundry 클래스 사전에 저장되어 있다고 설명합니다. 사전에는 "얼굴"을 포함하는 키 변수와 현재 프레임에서 감지된 얼굴 수를 포함하는 값 변수의 두 가지 값이 포함되어 있습니다. 화자는 카운트 기능을 사용하여 각 프레임에서 감지된 얼굴 수를 표시하고 deepsort.update를 사용하여 감지된 각 얼굴에 고유 ID를 할당합니다. 화자는 또한 일반 클래스, 분류 클래스 및 위험 클래스를 만듭니다. 모델 감지는 여러 데모 비디오에서 테스트되며 화자는 각 프레임의 감지 결과를 보여줍니다.
 

YOLOv8을 이용한 신호등 감지 및 색상 인식 | 사용자 지정 개체 감지 자습서



YOLOv8을 이용한 신호등 감지 및 색상 인식 | 사용자 지정 개체 감지 자습서

비디오 자습서 "YOLOv8을 사용한 신호등 감지 및 색상 인식"에서는 Ultralytics YOLOv8 web pro를 사용하여 신호등 감지 및 색상 인식 모델을 만드는 단계를 설명합니다. 신호등 데이터 세트, 데이터 확대, 필요한 라이브러리 설치, YOLOv8 모델 미세 조정 및 여러 비디오에서 모델 테스트를 다룹니다. 발표자는 필요한 라이브러리를 모두 설치하는 것이 중요하다고 강조하고, 모델을 동영상으로 테스트한 결과 다양한 색상의 신호등을 감지하고 인식하는 정확도를 입증했습니다.

  • 00:00:00 섹션에서 튜토리얼은 녹색, 빨간색 및 노란색의 세 가지 신호등 클래스가 있는 약 1000개의 이미지로 구성된 프로젝트에 사용할 신호등 데이터 세트를 다룹니다. 그들은 각 레이블의 예를 보여주고 훈련 데이터 세트에 이미지가 충분하지 않았기 때문에 데이터 증가를 적용하여 데이터 세트의 크기를 늘리는 방법을 설명합니다. 이 비디오는 계속해서 RoboFlow에서 Google Colab 노트북으로 데이터 세트를 내보내는 방법을 보여주고 다른 기능 중에서 모델을 교육, 배포 및 모니터링하는 데 도움이 되는 새로 출시된 제품인 Expense를 소개합니다.

  • 00:05:00 이 섹션에서 YouTube 사용자는 ultralytics YOLOv8 web pro를 사용하여 신호등 감지 및 색상 인식 모델을 만들기 위한 구현 프로세스의 초기 단계를 설명합니다. 첫 번째 단계는 다른 파일 경로를 탐색하고 입력 및 출력 이미지를 플로팅하는 데 사용되는 OS 및 glob과 같은 필요한 모든 라이브러리를 가져오는 것입니다. 다음으로 GPU가 있는지 확인하고 pip를 사용하여 필요한 모든 라이브러리를 설치합니다. 마지막으로 ultralytics GitHub 리포지토리를 복제하고 필요한 나머지 라이브러리를 설치하기 전에 현재 디렉터리로 설정합니다. 비디오는 나중에 스크립트 오류를 방지하기 위해 필요한 모든 라이브러리를 설치하는 것의 중요성을 강조합니다.

  • 00:10:00 비디오의 이 섹션에서 발표자는 Google Colab을 사용하여 신호등 데이터 세트에서 YOLO V8 모델을 훈련하고 미세 조정하는 단계를 시연합니다. 데이터 세트 폴더를 현재 디렉터리로 설정한 후, 모델은 80개의 상자에 대해 Ade 상자에서 훈련되었으며 결과는 모든 클래스에 대해 IOU50의 평균 평균 정밀도가 98.3%임을 보여줍니다. 그런 다음 모델이 녹색, 빨간색 및 노란색 조명을 각각 96.7%, 97.4% 및 95.5%의 시간 동안 정확하게 분류했음을 보여주는 혼동 행렬이 표시됩니다. 또한 발표자는 손실이 지속적으로 감소하고 있으며 더 많은 에포크에서 모델을 교육함으로써 모델을 더욱 개선할 수 있다고 언급합니다. 마지막으로 검증 이미지를 사용하여 모델의 최상의 가중치를 검증합니다.

  • 00:15:00 이 섹션에서 발표자는 신호등 데모 비디오를 포함하여 여러 비디오에서 YOLOv8 모델을 테스트한 결과에 대해 논의합니다. 이 모델은 신호등을 정확하게 감지하고 빛의 색상과 일치하는 경계 상자 색상을 사용하여 빛의 색상을 기반으로 레이블을 할당할 수 있습니다. 화자는 빨간색, 녹색 및 노란색 신호등을 감지하는 모델의 예를 각각에 대해 적절한 레이블 및 경계 상자 색상과 함께 보여줍니다. 다양한 비디오에 대한 모델의 결과는 다양한 색상의 신호등을 감지하고 인식하는 정확도를 보여줍니다.
 

ANN을 이용한 고객 이탈 분석 및 예측| 딥러닝 튜토리얼(Tensorflow, Keras & Python)



ANN을 이용한 고객 이탈 분석 및 예측| 딥러닝 튜토리얼(Tensorflow, Keras & Python)

"ANN을 사용한 고객 이탈 분석 및 예측 | Deep Learning Tutorial(Tensorflow, Keras & Python)"이라는 제목의 YouTube 비디오는 인공 신경망을 사용하여 Kaggle의 데이터 세트를 사용하여 고객 이탈을 예측하는 방법을 보여줍니다. 비디오는 데이터 정리, 범주 기능 인코딩, 열의 값 크기 조정과 같은 데이터 준비와 관련된 다양한 단계를 다룹니다. 그런 다음 스피커는 입력 및 출력 레이어를 정의하고 이진 교차 엔트로피 손실 함수가 있는 최적화 프로그램을 정의하면서 20개 뉴런의 단일 숨겨진 레이어와 시그모이드 활성화 함수로 신경망을 생성합니다. 달성된 정확도와 Scikit-learn 라이브러리를 사용한 분류 보고서가 표시되며 예측 값은 0.78의 정확도를 표시하기 위해 0 또는 1 형식으로 변환됩니다.

  • 00:00:00 이 섹션에서는 YouTube 사용자가 고객 이탈이라는 주제를 소개하고 인공 신경망을 사용하여 이를 예측하는 방법을 설명합니다. 그들은 Kaggle 및 Jupyter Notebook의 데이터 세트를 사용하여 탐색적 데이터 분석 및 데이터 정리를 수행한 다음 데이터 랭글링, 학습 테스트 및 분할을 수행하고 결국에는 인공 신경망을 사용하여 고객 이탈을 예측합니다. 그들은 Pandas 및 NumPy와 같은 필요한 라이브러리를 가져오는 것으로 시작한 다음 데이터 세트를 로드 및 분석하고 고객 이탈을 예측하는 데 유용하지 않기 때문에 고객 ID 열을 삭제합니다.

  • 00:05:00 비디오의 이 섹션에서 발표자는 데이터 유형을 확인하고 범주 기능을 식별하는 프로세스에 대해 설명합니다. 발표자는 "총 요금" 열이 부동 또는 정수 값이어야 함에도 불구하고 범주형 변수로 나타나는 것을 발견합니다. 이 문제를 해결하기 위해 화자는 열을 정수로 변환합니다. 그들은 또한 위치 488에서 빈 공간 오류를 발견하고 오류를 무시하기 위해 오류 = "강제"를 사용하여 해결합니다. 마지막으로 화자는 행에서 값이 없는지 확인하고 필요에 따라 값을 삭제할 계획입니다.

  • 00:10:00 이 섹션에서 발표자는 Python을 사용하여 총 요금 열에서 빈 행을 삭제하는 프로세스에 대해 설명합니다. 처음에 화자는 총 요금 열에서 빈 행의 수를 식별한 다음 pd.notnull()을 적용하여 제거합니다. 행을 삭제한 후 화자는 남은 행 수를 확인하여 예상 수와 일치하는지 확인합니다. 나중에 화자는 pd.to_numeric()을 사용하여 총 요금 열을 숫자 데이터 유형으로 변환합니다. 화자는 데이터 유형 변환을 저장하지 않는 오류를 식별하고 이를 조정합니다.

  • 00:15:00 비디오의 이 섹션에서 발표자는 고객 이탈 데이터에 대한 탐색적 데이터 분석을 수행합니다. "총 요금" 열을 float 유형으로 변환하고 시각화를 사용하여 값을 확인합니다. 그런 다음 히스토그램을 작성하여 10개월 기간을 기준으로 얼마나 많은 충성 고객이 머무르고 있는지(이탈하지 않음) 확인하고 고객을 떠나는 고객을 녹색으로 표시하고 고객을 빨간색으로 표시하는 데이터 포인트를 색상으로 구분합니다.

  • 00:20:00 이 섹션에서 발표자는 각 열에서 고유한 값을 찾기 위해 문을 수정하고 고유한 값 앞에 열 이름을 추가하는 방법에 대해 설명합니다. 화자는 또한 범주형 변수가 있는 모든 열을 찾아 정수 또는 부동 소수점으로 변환하는 방법에 대해 이야기합니다. 그런 다음 이러한 모든 단계를 함께 넣고 모든 데이터 프레임에서 범주 값을 인쇄할 수 있는 함수를 정의합니다.

  • 00:25:00 비디오의 이 섹션에서 발표자는 함수를 사용하여 포함된 모든 데이터 프레임에 대한 범주 값 또는 개체 데이터 유형 값을 인쇄하는 방법을 보여줍니다. 그런 다음 열을 부동 데이터 유형으로 변환하고 제거하여 데이터 프레임을 수정합니다. 화자는 replace 함수를 사용하여 "no internet service" 및 "no phone service"를 "no"로 바꾸고 yes 및 no 변수를 각각 1 및 0으로 대체하여 범주 값을 다음으로 변환하는 yes-no 열을 정의합니다. 기계 학습 모델이 이해하기 쉬운 숫자 값입니다.

  • 00:30:00 이 섹션에서는 연사가 기계 학습을 위한 데이터 준비와 관련된 단계에 대해 설명합니다. 그들은 데이터 세트를 교육 및 테스트 세트로 분할하는 방법과 "여성"을 1로, "남성"을 0으로 대체하여 범주 기능을 인코딩하는 방법을 시연합니다. 그런 다음 발표자는 TensorFlow 및 Keras를 사용하여 단일 히든 레이어가 있는 신경망을 생성합니다. 20개의 뉴런과 시그모이드 활성화 함수. 입력 레이어에는 27개의 기능이 있으며 출력 레이어는 정의되어 있습니다.

  • 00:35:00 비디오의 이 섹션에서 발표자는 기계 학습 모델용 데이터를 준비하기 위해 get dummies를 사용하여 텍스트 데이터를 정수 값으로 변환하는 방법에 대해 설명합니다. 발표자는 인터넷 서비스 및 계약과 같은 변수에 대한 더미 값을 생성하는 방법을 보여주고 min max scalar를 사용하여 0과 1 사이의 열 값을 스케일링합니다. 스케일링의 목적은 0과 1 사이의 열 값을 가져 오는 것입니다. 1 기계 학습 모델이 데이터를 정확하게 이해하고 해석할 수 있도록 합니다.

  • 00:40:00 이 섹션에서 발표자는 인공 신경망을 사용하여 고객 이탈 분석 및 예측을 위한 입력 레이어, 출력 레이어 및 옵티마이저를 정의하는 방법에 대해 설명합니다. 그는 불필요한 입력 레이어를 제거하고 시그모이드 활성화 함수로 1 또는 0으로 구성된 출력 레이어를 정의합니다. 그는 ReLU 기능이 분류 문제를 위해 숨겨진 계층에서 사용될 수 있지만 출력 계층에서는 사용할 수 없다고 지적합니다. 옵티마이저는 이진 교차 엔트로피 손실 함수로 정의되며 정확도는 100 에포크 모델 컴파일로 확인됩니다. 마지막으로 Scikit-learn 라이브러리를 사용하여 달성한 정확도와 분류 보고서를 표시합니다.

  • 00:45:00 이 섹션에서 발표자는 2차원 배열에 있고 범위가 0에서 1인 예측 값을 0 또는 1 형식으로 어떻게 변환했는지 설명합니다. 그들은 값이 0.5보다 크면 1로 간주되고 0.5보다 작으면 0으로 간주된다는 for 루프를 사용하여 이를 수행했습니다. 화자는 값을 변환한 후 분류를 인쇄했습니다. 0.78의 정확도를 보여주는 보고서입니다. 튜토리얼은 연사가 시청자에게 시청에 감사하고 채널을 구독하도록 초대하는 것으로 끝납니다.