Apprendimento automatico e Reti Neurali - pagina 38

 

Tracciamento di oggetti con YOLOv8: tracciamento dei veicoli, conteggio (in entrata e in uscita) e stima della velocità



Tracciamento di oggetti con YOLOv8: tracciamento dei veicoli, conteggio (in entrata e in uscita) e stima della velocità

Il video tutorial descrive come implementare il tracciamento degli oggetti, il conteggio dei veicoli e la stima della velocità utilizzando YOLOv8 e DeepSORT. Il relatore condivide un collegamento al repository GitHub contenente il codice e segue il processo di clonazione del repository, download di file DeepSORT, importazione di librerie pertinenti e definizione di un elenco DQ di dati per tenere traccia degli oggetti. Spiegano anche come determinare la direzione del veicolo e incrementare il conteggio di conseguenza. Inoltre, il presentatore mostra come stimare la velocità dei veicoli implementando la formula della distanza euclidea basata sulle coordinate X e Y degli oggetti tracciati e impostare uno spazio per la visualizzazione del conteggio. In definitiva, l'output dello script mostra i conteggi e le velocità degli oggetti, indicando così che l'implementazione ha avuto successo.

  • 00:00:00 In questa sezione del tutorial, il relatore spiega come implementare il tracciamento del rilevamento degli oggetti e la stima della velocità utilizzando YOLOv8. Per iniziare, il relatore fornisce un collegamento al repository YOLOv8 di monitoraggio degli oggetti con Deep Sort GitHub, che contiene un file Google Colab e istruzioni dettagliate per eseguire il codice su Windows. Il presentatore esegue quindi i passaggi necessari per clonare il repository, impostare la directory corrente e installare tutte le librerie necessarie. Successivamente, il relatore passa alla cartella di rilevamento e scarica i file Deep Sort dal collegamento Google Drive fornito.

  • 00:05:00 In questa sezione, il relatore spiega i passaggi per scaricare e implementare il tracciamento degli oggetti con YOLOv8 utilizzando DeepSORT. Guidano gli spettatori a scaricare la cartella DeepSORT decomprimendo la cartella e posizionandola nella cartella principale del progetto. Spiegano anche le importazioni di librerie utilizzate nel file predict.py e descrivono il concetto di coda a doppia estremità (DQ) utilizzata per memorizzare ID univoci per gli oggetti che entrano ed escono dal frame. L'oratore menziona anche il download del video di esempio da Google Drive e l'attesa per alcuni secondi per l'output, poiché utilizzano la CPU anziché la GPU per l'elaborazione.

  • 00:10:00 In questa sezione, il relatore spiega varie funzioni utilizzate nel deep sort tracker, un algoritmo di tracciamento per il tracciamento degli oggetti. Includono la funzione dot append, utilizzata per aggiungere valori all'estremità destra di una deque, un tipo di dati contenitore utilizzato per archiviare oggetti e la funzione dot append left utilizzata per inserire valori all'estremità sinistra di una deque. Il relatore discute anche della funzione di calcolo delle etichette colorate, che assegna colori diversi agli oggetti in base al loro tipo. Inoltre, le funzioni Disegna bordo trattino e Disegna caselle trattino sono spiegate in dettaglio, in cui creano un'interfaccia utente con un rettangolo arrotondato che visualizza l'ID e il nome univoci dell'oggetto e una linea di traccia creata utilizzando CB2.9.

  • 00:15:00 In questa sezione, il relatore spiega come creano una Trail Line e implementano il concetto di data DQ per tracciare gli oggetti. Inizializzano un elenco DQ e vi aggiungono le coordinate inferiori di ciascun oggetto rilevato. Quando un oggetto esce dall'inquadratura, i suoi punti vengono rimossi dall'elenco DQ dei dati. Creano anche un predittore di rilevamento delle classi, utilizzano l'algoritmo Deep Sort per assegnare ID univoci a ciascun oggetto e ottengono i loro nomi. Chiamano una funzione draw-box ed eseguono le previsioni. Inoltre, implementano il conteggio dei veicoli scaricando e incollando un file e definendo la direzione come nord, sud, est o ovest. Se un oggetto entra o esce in una direzione specifica, incrementano il conteggio.

  • 00:20:00 In questa sezione, il relatore spiega come hanno implementato il conteggio degli oggetti nel loro script di tracciamento degli oggetti YOLOv8. Hanno definito una direzione per gli oggetti che entrano o escono in base al loro movimento attraverso linee designate. Hanno anche mostrato il conteggio degli oggetti in entrata o in uscita e hanno impostato lo spazio in cui deve essere visualizzato il conteggio. L'oratore ha quindi aggiunto la stima della velocità implementando la formula della distanza euclidea, utilizzando le coordinate X e Y degli oggetti tracciati per calcolare le loro velocità. Hanno utilizzato un valore pixel per metro per effettuare il calcolo, che può essere reso dinamico in base alla posizione della telecamera. L'output dello script mostrava i conteggi e le velocità degli oggetti, indicando che lo script funzionava correttamente.

  • 00:25:00 In questa sezione, il relatore spiega la formula utilizzata per calcolare la velocità dei veicoli in metri all'ora, che consiste nel dividere la distanza in pixel per il valore pixel per metro (PPM) e moltiplicare il risultato per una costante di tempo . Quando un veicolo attraversa una linea impostata dall'area di rilevamento definita dall'utente, lo script incrementerà il conteggio dei veicoli e discernerà se il veicolo sta entrando o uscendo dall'area, in base alla direzione in cui sta viaggiando. Infine, le stime di velocità e numero di veicoli vengono aggiunte all'elenco di output e l'utente può implementare questo progetto seguendo i passaggi del tutorial.
 

Riconoscimento automatico della targa utilizzando YOLOV8 e EasyOCR (immagini e video)



Riconoscimento automatico della targa utilizzando YOLOV8 e EasyOCR (immagini e video)

In questo video di YouTube, il presentatore spiega come implementare il riconoscimento automatico delle targhe utilizzando YOLOV8 e EasyOCR. Guidano gli spettatori attraverso il processo di implementazione utilizzando un notebook Google Colab e un repository GitHub, fornendo istruzioni dettagliate e spiegando come installare le dipendenze e scaricare il set di dati necessario. Il presentatore dimostra la percentuale di successo del modello e il processo di convalida e spiega anche come utilizzare EasyOCR per leggere i numeri di targa. Eseguono le fasi finali dell'esecuzione dello script e incontrano alcuni errori che correggono, ottenendo risultati impressionanti. Sebbene lo script di riconoscimento della targa verrà fornito solo sul repository GitHub del presentatore per i sostenitori di Patreon, gli spettatori possono conoscere le modifiche apportate al file predict.py per risultati simili.

  • 00:00:00 In questa sezione del video, il presentatore mostra come implementare il rilevamento e il riconoscimento delle targhe utilizzando YOLOV8 e EasyOCR. Il relatore utilizza un taccuino Google Colab e un repository GitHub per guidare gli spettatori attraverso il processo di implementazione. Il taccuino contiene istruzioni dettagliate per l'esecuzione del codice e il repository GitHub fornisce l'accesso a più progetti esclusivi per i sostenitori di Patreon che contribuiscono con cinque dollari al mese. Il relatore spiega anche come installare le dipendenze necessarie e scaricare il set di dati richiesto da Roboflow per addestrare un modello personalizzato per il rilevamento delle targhe. Infine, il presentatore mostra la matrice di confusione che rivela quanto bene il modello ha gestito le diverse classi, con un tasso di successo dell'84% per il rilevamento delle targhe.

  • 00:05:00 In questa sezione, il relatore discute i risultati del modello sul set di convalida, che mostra una diminuzione della perdita e un aumento della precisione media media e del punteggio di richiamo all'aumentare del numero di epoche. Il relatore mostra anche come scaricare il modello salvato da Google Drive e convalidarlo su un video personalizzato, raggiungendo una precisione media media di 0,926 con un IOU di 50. Tuttavia, il focus di questa sezione è sull'implementazione di EasyOCR per la lettura del i numeri di targa dalle targhe rilevate e le modifiche apportate al file predict.py per includere il lettore OCR e le coordinate dell'immagine.

  • 00:10:00 In questa sezione, vediamo una spiegazione su come implementare il riconoscimento automatico delle targhe utilizzando YOLOv8 e EasyOCR. Il video illustra il processo di ritaglio e conversione dell'immagine della targa in scala di grigi per facilitare la lettura del testo della targa. Mostrano come utilizzare EasyOCR per leggere il testo dall'immagine in scala di grigi della targa scrivendo "reader. read_text(gray)." Alla fine testano lo script per vedere se si verificano errori.

  • 00:15:00 In questa sezione, il relatore illustra i passaggi finali dell'esecuzione dello script di riconoscimento della targa utilizzando i modelli YOLOv8 e EasyOCR. Incontrano un paio di errori nel codice ma riescono a risolverli ed eseguire correttamente lo script. Il video di output mostra risultati impressionanti, con il modello che rileva le targhe e legge il testo utilizzando EasyOCR. Lo script di riconoscimento della targa verrà fornito sul repository GitHub dell'oratore per i sostenitori di Patreon, ma gli spettatori possono comunque conoscere le modifiche apportate al file predict.pi nel video per ottenere risultati simili.
 

Rilevamento e tracciamento di oggetti in tempo reale utilizzando YOLOv8 su set di dati personalizzati: tutorial completo



Rilevamento e tracciamento di oggetti in tempo reale utilizzando YOLOv8 su set di dati personalizzati: tutorial completo

In questo tutorial video, il relatore introduce un set di dati personalizzato contenente immagini di automobili, camion, motociclette, pick-up, aerei e camper, che viene utilizzato per dimostrare l'implementazione di YOLOv8 con rilevamento e tracciamento. Spiegano l'importanza di un set di dati bilanciato e forniscono istruzioni dettagliate per navigare nel repository GitHub, configurare l'ambiente richiesto e implementare il tracciamento degli oggetti utilizzando l'algoritmo di ordinamento profondo. Il relatore discute anche la matrice di confusione e l'importanza delle perdite di addestramento e convalida durante il test dell'accuratezza del modello eseguendo l'inferenza con un video dimostrativo scaricato da Google Drive. Concludono condividendo il file del quaderno collaborativo per gli interessati.

  • 00:00:00 In questa sezione del video tutorial, il presentatore presenta un set di dati multiclasse pubblicamente disponibile che contiene circa 4680 immagini di automobili, camion, motociclette, pick-up, aerei e camper. Il set di dati non è bilanciato in quanto è sovrarappresentato dalle annotazioni di auto con circa 8.389 annotazioni mentre le altre annotazioni sono molto basse. Tuttavia, il set di dati viene utilizzato per questa esercitazione, ma quando si implementa un progetto o si utilizza un set di dati disponibile pubblicamente, è importante assicurarsi che il set di dati sia bilanciato. Il video introduce anche un repository GitHub utilizzato per il progetto e fornisce le istruzioni dettagliate per implementare YOLO V8 con rilevamento e tracciamento su qualsiasi set di dati personalizzato. Le istruzioni includono la clonazione del repository, l'installazione delle dipendenze, l'implementazione del tracciamento degli oggetti utilizzando deep sort e il download di un video di esempio per il test.

  • 00:05:00 In questa sezione del video, il relatore spiega le librerie utilizzate per la visualizzazione di immagini e informazioni sulla formazione e mostra come configurare l'ambiente richiesto per YOLOv8 utilizzando Google Colab. Il relatore clona il repository GitHub per YOLOv8, installa le librerie necessarie e passa alla cartella di rilevamento. Il presentatore mostra quindi come scaricare il set di dati personalizzato richiesto da Roboflow e lo decomprime per ottenere le cartelle di addestramento, test e convalida.

  • 00:10:00 In questa sezione del video, il relatore discute l'implementazione del tracciamento degli oggetti utilizzando l'algoritmo di ordinamento profondo. Scaricano i file di ordinamento profondo e li decomprimono prima di mostrare la matrice di confusione, che è un grafico che mostra quanto bene un modello gestisce classi diverse. Spiegano che la matrice di confusione indica che il modello rileva correttamente i camper il 67% delle volte, ma a volte li classifica come semplici auto. Discutono anche dell'importanza delle perdite di addestramento e convalida e di come controllano la previsione del modello sui batch di convalida. Infine, scaricano i pesi per il modello personalizzato da Google Drive e lo convalidano, dimostrando che la precisione media media è elevata quando il pagherò è al 50%.

  • 00:15:00 In questa sezione, il relatore verifica l'accuratezza del modello eseguendo l'inferenza con il modello costruito utilizzando un video dimostrativo scaricato dal proprio Google Drive. Il video mostra auto e camion su una strada autostradale e i risultati mostrano che il modello sta funzionando correttamente con un ID univoco assegnato a ciascun oggetto ed è possibile anche il tracciamento. Il file di collaborazione utilizzato in questo tutorial è disponibile nel relativo repository GitHub. Viene testato anche un altro video e i risultati sono altrettanto soddisfacenti, con alcuni casi che richiedono miglioramenti. Il relatore condivide di aver implementato il tracciamento del rilevamento degli oggetti utilizzando YOLOv8 su un set di dati personalizzato e condivide il file del notebook collaborativo per gli interessati.
 

Tracciamento di oggetti con Opencv e Python

Codice: https://pysource.com/2021/01/28/object-tracking-with-opencv-and-python/



Tracciamento di oggetti con Opencv e Python

Il video tutorial sul tracciamento degli oggetti con OpenCV e Python spiega la differenza tra il rilevamento degli oggetti e il tracciamento degli oggetti e mostra come creare un file di tracciamento degli oggetti per un tracciamento efficiente. Il video delinea i file necessari richiesti, come un video e un file tracker oggetto, e mostra come codificare il file main.py per la visualizzazione video in tempo reale. Il tutorial spiega anche come rimuovere piccoli elementi dalla maschera e definire una regione di interesse per estrarre una porzione dell'immagine da mettere a fuoco sui veicoli. Il video si conclude spiegando il processo di tracciamento degli oggetti e aggiungendo ID univoci agli oggetti per contarli correttamente. Tuttavia, il tutorial afferma che il metodo non è perfetto ma funge da eccellente introduzione al tracciamento degli oggetti e si consiglia un corso più approfondito su OpenCV e deep learning.

  • 00:00:00 In questa sezione, l'oratore introduce la differenza tra rilevamento di oggetti e tracciamento di oggetti. Il primo rileva gli oggetti fotogramma dopo fotogramma mentre il secondo tiene traccia degli oggetti attraverso i fotogrammi per tracciarne la storia. Il tracciamento degli oggetti è fondamentale in varie applicazioni come il conteggio delle persone, il tracciamento delle traiettorie degli oggetti e il conteggio delle auto che transitano sulle autostrade. L'oratore introduce quindi i file necessari per avviare il progetto, inclusi un video e un file di tracciamento di oggetti. Successivamente, il relatore inizia a codificare il file main.py, iniziando con l'importazione della libreria OpenCV e creando un oggetto di acquisizione per leggere i fotogrammi dal video. Infine, il relatore mostra come visualizzare il video in tempo reale e creare un evento chiave per chiudere il video.

  • 00:05:00 In questa sezione, il relatore discute il tracciamento degli oggetti utilizzando OpenCV e Python. Spiegano che per questo metodo specifico è necessaria una telecamera stabile, il che significa che lo sfondo non cambia nel tempo mentre cambiano solo gli oggetti in movimento. Utilizzando un rilevatore di oggetti, gli oggetti in movimento possono essere estratti dalla telecamera stabile. Il rilevatore crea una maschera e l'obiettivo della maschera è rendere nero tutto ciò che non è necessario, mentre i veicoli che devono essere rilevati sono bianchi. Si estraggono quindi le coordinate degli elementi bianchi e si rimuovono quelli troppo piccoli. Quindi, utilizzando la funzione find contours di OpenCV, i confini degli oggetti bianchi vengono trovati e disegnati sulla cornice in verde.

  • 00:10:00 In questa sezione, il video tutorial spiega come rimuovere piccoli elementi dalla maschera calcolando l'area del contorno e rimuovendo qualsiasi contorno con un'area inferiore a 100 pixel. Quindi, il tutorial illustra come definire una regione di interesse (ROI) per estrarre una parte dell'immagine per mettere a fuoco solo i veicoli su quella specifica parte della strada, rendendo il processo di rilevamento molto più semplice. Il tutorial delinea come definire il ROI specificando la posizione, l'altezza e la larghezza della sezione che contiene i veicoli che vogliamo tracciare. Il tutorial si conclude spiegando come applicare la maschera alla ROI per eseguire il tracciamento dell'oggetto solo su quella specifica area.

  • 00:15:00 In questa sezione del video, il relatore applica l'algoritmo di rilevamento degli oggetti alla ROI invece che all'intero fotogramma e mostra come è migliorato il rilevamento. Tuttavia, ci sono ancora problemi con i falsi positivi e l'algoritmo di rilevamento. Per migliorare il rilevamento degli oggetti, l'oratore regola la dimensione della cronologia e la soglia var, che influisce sulla quantità di falsi positivi. Il relatore quindi estrae il rettangolo che circonda ogni oggetto rilevato e lo disegna sulla ROI in verde. Infine, l'altoparlante rimuove le ombre dall'immagine mantenendo solo gli elementi bianchi nell'immagine utilizzando un operatore di soglia, con conseguente rilevamento degli oggetti più accurato.

  • 00:20:00 In questa sezione, il video spiega il processo di tracciamento degli oggetti utilizzando OpenCV e Python. È necessario importare il file "tracker.py" e creare un oggetto "tracker" per un tracciamento efficiente. Il "tracker" raccoglie i riquadri di delimitazione degli oggetti e li salva in un array denominato "rilevamenti". Ogni riquadro di delimitazione ha il suo insieme distinto di valori di posizione x, y, larghezza e altezza. Queste caselle devono avere un valore minimo di 100, quindi il tracker scarta gli oggetti irrilevanti. Una serie di oggetti rilevati viene visualizzata fotogramma per fotogramma e l'array di rilevamenti viene passato all'oggetto tracker. Il tracker restituisce quindi la cronologia e gli ID univoci di ciascun oggetto monitorato. Il passaggio iniziale per il tracciamento degli oggetti è il rilevamento degli oggetti ed è possibile solo se un oggetto viene rilevato nel fotogramma uno.

  • 00:25:00 In questa sezione, il video discute l'aggiunta di ID univoci alla funzione di tracciamento degli oggetti in OpenCV e Python. Ogni oggetto ora ha un ID diverso, impedendo che vengano commessi errori durante il conteggio degli oggetti. Utilizzando gli ID, gli oggetti possono essere contati correttamente e può essere tracciata una linea per rilevare quando gli oggetti la attraversano. Il video termina spiegando che il metodo mostrato è semplice, non perfetto, ma una buona introduzione al tracciamento degli oggetti. Per una conoscenza più approfondita del rilevamento e del tracciamento degli oggetti, il creatore consiglia di visualizzare il corso video su OpenCV e deep learning.
Object Tracking with Opencv and Python - Pysource
Object Tracking with Opencv and Python - Pysource
  • Sergio Canu Hi there, I’m the founder of Pysource. I’m a Computer Vision Consultant, developer and Course instructor. I help Companies and Freelancers to easily and efficiently build Computer Vision Software .
  • pysource.com
In this tutorial we will learn how to use Object Tracking with Opencv and Python. First of all it must be clear that what is the difference between object detection and object tracking: Object detection is the detection on every single frame and frame after frame. Object tracking does frame-by-frame tracking but keeps the history of where the...
 

Segmentazione e tracciamento di oggetti in tempo reale utilizzando YOLOv8 su set di dati personalizzati: tutorial completo



Segmentazione e tracciamento di oggetti in tempo reale utilizzando YOLOv8 su set di dati personalizzati: tutorial completo

Questo tutorial video è una guida completa sull'utilizzo di YOLOv8 per la segmentazione e il tracciamento di oggetti in tempo reale su set di dati personalizzati. Il tutorial passa attraverso l'intero processo, inclusa l'importazione di set di dati, l'addestramento di modelli personalizzati utilizzando gli algoritmi YOLOv8 e Deep Sort e il test dei modelli su video dimostrativi. Il relatore fornisce il codice e le librerie necessarie per l'implementazione e mostra i risultati delle previsioni del modello. Spiegano anche la matrice di confusione e forniscono collegamenti per accedere ai video di output e ai file polari su GitHub. Nel complesso, questo tutorial è un'ottima risorsa per chiunque desideri conoscere la segmentazione e il tracciamento degli oggetti utilizzando YOLOv8.

  • 00:00:00 In questa sezione, il tutorial video illustra come utilizzare YOLOv8 per la segmentazione e il tracciamento su set di dati personalizzati. Il tutorial passa attraverso l'implementazione passo dopo passo e utilizza un repository per aiutare con l'implementazione. Il presentatore spiega come importare le librerie e le dipendenze richieste, nonché come accedere e scaricare un set di dati sul traffico dei droni da Roboflow. Viene fornito anche il codice necessario per l'importazione del set di dati, insieme alle istruzioni su come eseguire correttamente il codice. Si sottolinea che è importante guardare il video completo per comprendere appieno i concetti fondamentali.

  • 00:05:00 In questa sezione, il relatore spiega come addestrare modelli personalizzati per il tracciamento degli oggetti utilizzando gli algoritmi YOLOv8 e Deep Sort. Menzionano la procedura per scaricare un set di dati da Roboflow nel notebook colab di Google, scaricare i file Deep Sort e addestrare i modelli personalizzati per rilevare diverse classi di oggetti, tra cui biciclette, autobus, auto e camion. Il relatore condivide i risultati della previsione del modello sul batch di convalida, ha salvato i pesi del modello in Google Drive e ha scaricato un video dimostrativo per testare le prestazioni del modello. Spiegano la matrice di confusione e come rivela l'accuratezza del modello per diverse classi di oggetti. Nel complesso, il video fornisce un tutorial completo sulla segmentazione e il tracciamento degli oggetti in tempo reale utilizzando YOLOv8 su set di dati personalizzati.

  • 00:10:00 In questa sezione del video, il presentatore testa il modello su due video dimostrativi e mostra i risultati. Il modello è in grado di rilevare e tracciare accuratamente gli oggetti, assegnando a ciascun oggetto un ID univoco e creando tracce per seguirne il movimento. Il relatore fornisce un collegamento per accedere al video di output e al file polare su GitHub.

  • 00:15:00 In questa sezione, il relatore presenta i risultati del suo progetto di segmentazione e monitoraggio degli oggetti utilizzando YOLOv8 su un set di dati personalizzato. L'oratore mostra i video di output e afferma che i rilevamenti sono molto buoni e che gli spettatori possono scaricare i file per vedere i risultati da soli. Il relatore ricorda inoltre agli spettatori di iscriversi al canale per futuri video su nuovi argomenti.
 

Rilevamento di segnali stradali e semafori e riconoscimento dei colori utilizzando YOLOv8



Rilevamento di segnali stradali e semafori e riconoscimento dei colori utilizzando YOLOv8

Questo tutorial di YouTube mostra l'uso di YOLOv8 per il rilevamento dei segnali stradali e il riconoscimento dei colori. Il presentatore introduce il set di dati, che contiene 17 diverse classi di segnaletica stradale con una distribuzione equilibrata delle immagini. Il modello YOLOv8 viene addestrato e perfezionato in oltre 100 epoche, con conseguenti buoni punteggi di precisione media media per iou50 e ioub50. Il relatore dimostra come interpretare la matrice di confusione e convalidare il modello sul set di dati di convalida. Il modello viene quindi testato su due video dimostrativi, che mostrano entrambi risultati di rilevamento accurati. Nel complesso, YOLOv8 funziona bene per rilevare segnali stradali e semafori.

  • 00:00:00 In questa sezione del video tutorial, il relatore introduce il set di dati sui segnali stradali che verrà utilizzato per l'addestramento del modello YOLOv8 sul rilevamento dei segnali stradali. Il set di dati contiene 17 diverse classi di segnaletica stradale, con un totale di 2093 immagini a scopo di formazione, convalida e test. Il set di dati è bilanciato, il che significa che tutte le classi hanno una distribuzione di immagini quasi uguale, ad eccezione dei semafori verdi che hanno un numero di immagini leggermente superiore. Il presentatore mostra anche come importare il set di dati da RoboFlow nel notebook Google Colab e installare le librerie necessarie per l'implementazione di YOLOv8, incluse librerie ultralitiche e glob per la gestione dei percorsi dei file e librerie di immagini e display per la visualizzazione di immagini di input e output. Il presentatore fornisce anche opzioni per l'installazione di YOLOv8 clonando il repository GitHub o installandolo dal pacchetto ultralytics tramite pip.

  • 00:05:00 iou50 sono buoni indicatori delle prestazioni del modello YOLOv8 addestrato nell'attività di rilevamento dei segnali stradali e riconoscimento dei colori. Il modello è stato addestrato su un ampio set di dati e messo a punto in oltre 100 epoche, ottenendo una precisione media media con iou50 del 95,8% e una precisione media media con ioub 50 dell'81,3%. I pesi migliori, con la Precisione media media più alta, sono stati salvati come "best.pt". Nel complesso, i risultati sono abbastanza buoni per il rilevamento di 17 diverse classi di segnali stradali e semafori nel set di dati delle immagini.

  • 00:10:00 In questa sezione del video, il presentatore spiega i diversi file salvati nella cartella di formazione dopo aver eseguito il modello YOLOv8 per il rilevamento di segnali stradali e semafori e il riconoscimento dei colori. Questi file includono la matrice di confusione, la curva F1, la curva di precisione, la curva di richiamo e le prestazioni del modello per ciascuna epoca. Dimostrano inoltre come interpretare la matrice di confusione e come convalidare il modello sul set di dati di convalida utilizzando i migliori pesi del modello. Infine, suggeriscono che addestrare il modello per una durata maggiore potrebbe migliorare ulteriormente la precisione media media dei risultati.

  • 00:15:00 In questa sezione del video, il relatore convalida il modello sulle immagini del set di dati di convalida e ottiene un impressionante punteggio Main Average Precision. Il modello viene quindi testato su due video dimostrativi, dove rileva con successo segnali come "non girare a sinistra", "parcheggio", "semaforo rosso" e altro ancora. I video dimostrativi vengono scaricati dal sito Pixel e quindi caricati su Google Drive. I video di output vengono visualizzati e mostrati per avere risultati di rilevamento accurati. Nel complesso, il modello si comporta bene nel rilevare segnali stradali e semafori utilizzando YOLOv8.
 

Rilevamento e segmentazione di buche utilizzando YOLOv8 (Immagini e video)| Set di dati personalizzato | Guida completa



Rilevamento e segmentazione di buche utilizzando YOLOv8 (Immagini e video)| Set di dati personalizzato | Guida completa

Questo video mostra come creare un set di dati personalizzato per il rilevamento e la segmentazione delle buche utilizzando YOLOv8. Il relatore mostra i passaggi per la clonazione e l'annotazione dei dati dell'immagine e consiglia di utilizzare Google Collab per addestrare il modello. Vengono inoltre discusse le dipendenze necessarie per YOLOv8, nonché l'impostazione della posizione del set di dati e l'addestramento del modello. Il modello ha raggiunto una precisione media media di 0,532 per il rilevamento e 0,531 per la segmentazione e si è comportato bene nel rilevare buche nei video. Il presentatore conclude il video dopo aver convalidato il modello personalizzato e aver ottenuto buoni risultati.

  • 00:00:00 In questa sezione del video, l'autore mostra come creare un set di dati personalizzato per il rilevamento e la segmentazione delle buche utilizzando YOLOv8. L'autore utilizza Roboflow per creare il proprio spazio di lavoro e progetto e spiega l'importanza di scegliere un piano pubblico per lo spazio di lavoro per poter esportare il set di dati in Google Colab. L'autore mostra anche come importare video o immagini, nonché come clonare set di dati disponibili pubblicamente per integrare i propri. Infine, l'autore mostra come clonare immagini e annotazioni, ottenendo infine un set di dati di 50 immagini per il rilevamento e la segmentazione delle buche.

  • 00:05:00 In questa sezione del video, il presentatore mostra come clonare e annotare i dati dell'immagine per il rilevamento e la segmentazione delle buche utilizzando YOLOv8. Iniziano clonando le restanti 46 immagini dal set di dati originale, portando il totale a 96 immagini. Il processo di annotazione prevede il collegamento di punti in una forma poligonale per indicare la posizione della buca su ciascuna immagine. Il presentatore mostra quindi come salvare e assegnare le annotazioni a ciascuna immagine. Il processo richiede molto tempo, ma può essere eseguito facilmente seguendo i passaggi descritti nel video.

  • 00:10:00 In questa sezione del video, il relatore discute il processo di annotazione di un set di dati per il rilevamento e la segmentazione delle buche. Dimostra come generare un set di dati utilizzando lo strumento di annotazione e quindi procede all'addestramento del modello utilizzando l'algoritmo YOLOv8 su Google Collab. Il presentatore menziona anche che è possibile addestrare il modello su RoboFlow con un solo clic e senza alcuna codifica, ma consiglia di utilizzare Google Collab per imparare cose nuove. Il video mostra come importare le librerie richieste e clonare un repository GitHub prima di impostare la directory di lavoro e installare le dipendenze.

  • 00:15:00 In questa sezione del video, il relatore fornisce le istruzioni per installare le dipendenze necessarie per YOLOv8 e la segmentazione, sottolineando che è importante farlo prima dell'addestramento per evitare problemi con la libreria in seguito. Il relatore illustra anche l'importazione del set di dati da RoboFlow nella cartella Google e il suo download, nonché l'impostazione della posizione del set di dati e l'addestramento del modello. Il relatore riconosce e corregge anche un errore nel file predict.py che è stato regolato per il tracciamento.

  • 00:20:00 in grado di rilevare buche con una precisione media media di 0,532 a un IOU di 50 e 0,218 quando IOU varia da 0,50 a 0,95. Il modello è stato testato su un video di esempio e ha funzionato bene nel rilevare buche. La matrice di confusione visualizzata mostra la distribuzione dei dati tra le diverse classi. Nel complesso, il modello funziona bene nel rilevare le buche.

  • 00:25:00 In questa sezione del video, il relatore tenta di convalidare il modello personalizzato per il rilevamento e la segmentazione delle buche utilizzando YOLOv8. Si sono imbattuti in un problema in cui il modello non riusciva a rilevare le buche il 50% delle volte, risultando in uno schermo vuoto. Il relatore ha quindi aggiunto il miglior percorso di pesi DOT ed è stato in grado di correggere il problema. Hanno quindi proceduto a visualizzare la previsione sul batch di convalida e hanno raggiunto una precisione media media di 0,538 per il rilevamento e 0,531 per la segmentazione. Il modello è stato testato su più video dimostrativi e ha funzionato bene, e il presentatore conclude il video.
 

Rilevamento e tracciamento di oggetti personalizzati YOLOv8 | Rilevamento navi | Esercitazione completa



Rilevamento e tracciamento di oggetti personalizzati YOLOv8 | Rilevamento navi | Esercitazione completa

Il tutorial di YouTube copre l'implementazione di YOLOv8 con il monitoraggio degli oggetti con ordinamento approfondito su un set di dati di rilevamento delle navi personalizzato. Il video illustra come scaricare il set di dati da RoboFlow, configurare un progetto in Expense ID e addestrare il modello in Google Colab. Lo script di addestramento è stato eseguito per 70 epoche e ha prodotto una precisione media media di 0,968 con IOU 50. Il relatore analizza i grafici di perdita e precisione media per mostrare che l'addestramento per più epoche produrrà risultati migliori. Quindi dimostrano come convalidare il modello su un set di dati di convalida e mostrano la precisione media media sulle immagini del set di dati di convalida. Infine, mostrano alcuni video dimostrativi del modello in azione, incluso un esempio di falsa previsione.

  • 00:00:00 In questa sezione, il tutorial video copre il set di dati per il progetto di rilevamento e tracciamento di oggetti personalizzati, che include circa 794 immagini di navi catturate dai droni, con una sola classe denominata "board" o "shape". Il tutorial mostra quindi come scaricare il set di dati da RoboFlow ed esportarlo in Google Colab o Expense ID, che offre 25 crediti gratuiti e una GPU Tesla T4 o V100 per addestrare modelli di machine learning. Infine, l'esercitazione illustra la configurazione di un progetto in Expense ID e l'apertura di un notebook Jupyter con le opzioni del server Expense per addestrare il modello di rilevamento degli oggetti YOLOv8 sul set di dati.

  • 00:05:00 In questa sezione del tutorial di YouTube, l'istruttore spiega l'impostazione del progetto e fornisce un collegamento al repository GitHub per implementare YOLO v8 con il monitoraggio degli oggetti di ordinamento profondo su un set di dati di rilevamento della nave personalizzato. Il video mostra come clonare il repository GitHub in un notebook Google Colab e installare le librerie necessarie utilizzando pip. Lo script del notebook viene spiegato in dettaglio, incluso come importare la libreria di immagini, impostare le directory di lavoro correnti e scaricare i modelli pre-addestrati. L'istruttore sottolinea l'importanza di eseguire lo script nell'ordine corretto e di installare tutte le librerie richieste prima di eseguire gli script di addestramento, test o convalida per evitare errori.

  • 00:10:00 In questa sezione, il relatore spiega come scaricare un set di dati di immagini di navi da RoboFlow e implementare il tracciamento degli oggetti utilizzando DeepSort. Quindi addestrano un modello YOLOv8 sul set di dati della nave, impostando la posizione del set di dati e la dimensione predefinita dell'immagine prima di eseguire lo script di addestramento per 70 epoche. I risultati mostrano una buona precisione media media di 0,968 con IOU 50, il che significa che il modello ha identificato correttamente il 96,8% delle navi nelle immagini. Il file dei pesi viene salvato nella cartella del treno e una matrice di confusione mostra che il modello era accurato al 96% nel rilevare la presenza di una nave, con un tasso di guasto del 4%. La perdita di allenamento diminuisce continuamente, indicando che l'allenamento per più epoche produrrà risultati migliori.

  • 00:15:00 In questa sezione del video, il presentatore analizza il grafico della perdita e il grafico della precisione media per mostrare che la perdita di allenamento è in continua diminuzione e la precisione media media è in continuo aumento con l'aumentare delle epoche. Quindi dimostrano come convalidare il modello su un set di dati di convalida e mostrano la precisione media media con iou50 sulle immagini del set di dati di convalida che è del 96,4% e la precisione media media con iou50 a 95 è del 71,6%. Il presentatore mostra quindi alcuni video dimostrativi, utilizzando lo script predict.pi passando i migliori pesi del modello, per testare il modello su più video e dimostra come il modello può rilevare le schede e assegnare ID univoci a ciascun oggetto. Infine, mostrano un esempio di previsione errata fatta dal modello.
 

YOLOv8 e VGG16 per rilevamento di volti, sesso, conteggio dei volti e monitoraggio delle persone | Set di dati personalizzato



YOLOv8 e VGG16 per rilevamento di volti, sesso, conteggio dei volti e monitoraggio delle persone | Set di dati personalizzato

Il video tutorial spiega il processo di rilevamento dei volti, classificazione di genere, conteggio dei volti e tracciamento delle persone utilizzando i modelli YOLOv8 e VGG16. Il tutorial copre vari aspetti dell'implementazione e dell'addestramento di questi modelli, tra cui la preparazione dei dati, l'aumento dei dati, la messa a punto del modello VGG16 pre-addestrato, l'utilizzo dell'apprendimento del trasferimento e l'addestramento del modello YOLOv8 per il rilevamento dei volti. Il presentatore spiega anche come montare un Google Drive in un taccuino Google Colab, accedere e convertire set di dati di immagini, scaricare le librerie richieste e integrare il tracciamento degli oggetti utilizzando deepsort. Il tutorial fornisce spiegazioni dettagliate sul codice per disegnare riquadri di delimitazione attorno agli oggetti rilevati, integrare il modello di classificazione di genere, contare il numero di volti in un fotogramma e assegnare a ciascun volto rilevato un ID univoco utilizzando deepsort.update.

  • 00:00:00 In questa sezione del video tutorial, viene spiegato il flusso di lavoro per il rilevamento dei volti con classificazione di genere e conteggio dei volti con tracciamento utilizzando YOLOv8 e VGG16. Il primo passo è preparare il set di dati con immagini di volti di uomini e donne, per addestrare il modello VGG16 per il rilevamento del genere, seguito dall'addestramento del modello YOLOv8 per il rilevamento del volto. Con il rilevamento dei volti di YOLOv8, la classificazione di genere viene eseguita utilizzando il modello VGG16 addestrato. Il tracciamento degli oggetti viene quindi implementato utilizzando Deepsort, assegnando un ID univoco a ciascun volto o persona rilevata. Il notebook è suddiviso in nove passaggi, tra cui l'importazione delle librerie richieste, il montaggio di Google Drive, il caricamento del set di dati, la conversione di immagini ed etichette in array, l'applicazione dell'incremento dei dati, la messa a punto del modello VGG16 sui dati di classificazione di genere, il tracciamento della perdita di addestramento e convalida e test con un'immagine di esempio.

  • 00:05:00 In questa sezione, il relatore discute varie librerie e funzioni che possono essere utilizzate per convertire le immagini in array numpy e viceversa. Spiegano anche l'uso di una libreria categoriale a due trattini e il concetto di approcci sequenziali e funzionali per organizzare i livelli nella rete neurale. Il livello appiattito viene utilizzato per convertire gli input multidimensionali in unidimensionali, mentre il livello denso viene utilizzato per definire la dimensione del livello di output. Inoltre, discutono dell'uso dell'apprendimento di trasferimento con il modello VGG16 e dell'importazione di librerie split, numpy e OS del test del treno. Infine, menzionano l'uso della libreria gdob per accedere a tutti i file in una cartella e la libreria casuale per mescolare i set di dati delle immagini.

  • 00:10:00 In questa sezione, il video spiega come montare un Google Drive con un taccuino Google Colab per accedere a un set di dati, che viene caricato in formato zip. Il set di dati include immagini di volti di uomini e donne e il video mostra come decomprimere e accedere alla cartella contenente queste immagini. Utilizzando la libreria glob, il video accede a tutti i file immagine nelle cartelle del set di dati e li converte in un formato array con etichette che indicano se l'immagine è un volto di uomo o di donna. Il video mostra un'immagine di esempio e spiega come la variabile image files contenga tutti i percorsi dei file immagine della cartella men e women, che possono essere letti utilizzando cb2.im read.

  • 00:15:00 In questa sezione, il relatore spiega come hanno preparato il loro set di dati per il rilevamento del volto e del sesso. Hanno creato una cartella "uomini" e "donne", hanno ridimensionato le immagini al loro interno e le hanno convertite in matrici che sono state poi memorizzate in un elenco di dati. Hanno aggiunto i valori delle etichette corrispondenti in un elenco di etichette, con 1 per le donne e 0 per gli uomini. Gli elenchi di dati ed etichette sono stati quindi convertiti in array utilizzando NumPy. Il relatore dimostra anche l'aumento dei dati con l'uso di un generatore di dati di immagini, generando più immagini da una singola immagine applicando varie trasformazioni. Hanno quindi messo a punto un modello VGG16 pre-addestrato sul loro set di dati di classificazione di genere e implementato l'attivazione softmax per definire il livello di output. La dimensione dell'output è stata impostata su 2 per classificare uomini o donne.

  • 00:20:00 In questa sezione del video tutorial, il relatore dimostra il modello VGG16 per il rilevamento di volti e sesso e mostra come addestrarlo su un set di dati di classificazione generale. Il modello viene salvato nel formato .H5 e ne vengono calcolati l'accuratezza, l'accuratezza di convalida e le parti di perdita. Utilizzando cv2.dsize, l'immagine viene ridimensionata a dimensioni 100x100 e convertita in un array e il modello prevede se l'immagine contiene un uomo o una donna. Nella parte successiva del tutorial, il modello YOLOv8 verrà addestrato su un set di dati di volti per rilevare i volti e assegnare un ID univoco per il tracciamento. L'oratore menziona anche che il conteggio delle facce sarà implementato utilizzando un semplice codice aggiunto al file predict.pi. Nel complesso, il tutorial è suddiviso in sette passaggi.

  • 00:25:00 In questa sezione, il relatore introduce il repository GitHub che utilizzerà per implementare il tracciamento degli oggetti utilizzando il deep sort, nonché il modello YOLO V8 per la riduzione del volto. Discutono di come rileveranno i volti ed eseguiranno la classificazione di genere prima di integrare il codice di tracciamento degli oggetti di ordinamento profondo per assegnare a ciascuna persona un ID univoco. Il relatore quindi imposta la directory corrente come repository di clonazione e installa tutte le librerie e le dipendenze necessarie per lo script. Scaricano anche il set di dati da RoboFlow nel loro taccuino Google Colab, ma riscontrano problemi dovuti all'avere un account privato.

  • 00:30:00 utilizzare i pesi del modello YOLOv8 pre-addestrato per il rilevamento dei volti. Il set di dati viene scaricato e salvato nel mio account Google Drive e ho già addestrato un modello YOLOv8 per 80 epoche per il rilevamento dei volti. Il modello addestrato è già stato salvato e i pesi sono stati scaricati nel taccuino di Google Colab. Anche i file di ordinamento profondo vengono scaricati nel notebook, poiché il tracciamento degli oggetti verrà implementato utilizzando l'ordinamento profondo. Inoltre, un modello VGG16 è stato addestrato per il rilevamento del sesso e il file .h5 del modello è stato salvato e scaricato nell'account Google Drive. I video di esempio vengono scaricati da Google Drive per testare lo script predict.pi, che include il codice di classificazione del genere e il conteggio dei volti.

  • 00:35:00 In questa sezione, l'oratore spiega il codice che è stato aggiunto per implementare il tracciamento degli oggetti utilizzando il deep sort. Viene inizializzata la porta di tracciamento dell'oggetto deep sort e viene definita una funzione per convertire l'output ricevuto dal modello YOLOv8 in un formato compatibile per il deep sort. La funzione UI box crea riquadri di delimitazione attorno agli oggetti rilevati, mentre la funzione draw box chiama le funzioni UI box e draw border per disegnare un rettangolo arrotondato per il testo. Il codice di monitoraggio dell'ordinamento profondo è integrato insieme alla possibilità di tracciare tracce. L'oratore spiega quindi il codice per il classificatore di genere e la funzione di conteggio nel file Paint. La funzione di conteggio viene utilizzata per contare ogni oggetto in ogni fotogramma. Nel complesso, il codice spiega come convertire i valori di output X1, Y1, X2 e Y2 da YOLOv8 in valori di coordinate centrali, altezza e larghezza per il tracciamento degli oggetti utilizzando il deep sort, implementando il rilevamento e il tracciamento degli oggetti in un'applicazione reale.

  • 00:40:00 In questa sezione, il relatore discute la conversione del modello YOLOv8 nelle coordinate del centro xcyc del riquadro di delimitazione e la larghezza e l'altezza del riquadro di delimitazione per renderlo compatibile con il tracciamento degli oggetti di ordinamento profondo. Spiegano inoltre in che modo la funzione Compute Color for Label assegna colori univoci agli oggetti rilevati e la funzione Draw Dash Border crea un rettangolo sopra il riquadro di delimitazione in cui sono scritti l'etichetta e il punteggio di affidabilità. Il relatore parla anche della classe del classificatore di genere e di come viene caricata e utilizzata su ogni fotogramma del video per classificare il genere degli oggetti rilevati. Inoltre, menzionano la funzione UI Dash box e la funzione draw Dash boxes, che vengono utilizzate per creare riquadri di delimitazione e chiamare la funzione di classificazione del genere.

  • 00:45:00 In questa sezione, il presentatore spiega come utilizzare il modello di classificazione di genere per rilevare se un volto appartiene a un uomo o una donna. Dopo aver rilevato il volto, solo le coordinate del riquadro di delimitazione vengono passate al modello di classificazione del genere. Il modello quindi prevede se il volto appartiene a un uomo o a una donna e l'etichetta viene aggiunta di conseguenza sopra il riquadro di delimitazione. Il presentatore spiega quindi la funzione count, che utilizza un dizionario chiamato Foundry-classes per memorizzare il numero di volti rilevati nell'inquadratura. Il conteggio viene visualizzato nell'interfaccia utente sopra la parte superiore del video o dell'immagine.

  • 00:50:00 In questa sezione, l'oratore spiega che il numero di volti rilevati nel fotogramma corrente è memorizzato nel dizionario della classe Foundry nella classe FaceDetails. Il dizionario contiene due valori, la variabile chiave che contiene "volto" e la variabile valore che contiene quanti volti sono stati rilevati nel fotogramma corrente. L'oratore utilizza la funzione di conteggio per mostrare quanti volti sono stati rilevati in ogni fotogramma e assegna un ID univoco a ciascun volto rilevato utilizzando deepsort.update. Il parlante crea anche una classe generale, una classe di classificazione e una classe di pericolo. I rilevamenti del modello vengono testati su più video dimostrativi e l'oratore mostra i risultati dei rilevamenti in ciascun fotogramma.
 

Contapersone utilizzando YOLOv8 e Tracciamento oggetti | Conteggio persone (entrate e uscite)



Contapersone utilizzando YOLOv8 e Tracciamento oggetti | Conteggio persone (entrate e uscite)

Il video spiega come creare un contatore di persone utilizzando YOLOv8 e il tracciamento degli oggetti. Il processo prevede il rilevamento di oggetti con ID univoci, la ricerca della coordinata centrale dell'oggetto rilevato, il monitoraggio degli oggetti con Deep SORT e il rilevamento quando gli oggetti attraversano linee specifiche per contare il numero di persone che entrano e escono da un'area specifica. Gli ID univoci vengono memorizzati in elenchi per contare le persone che entrano ed escono dall'area e i conteggi vengono visualizzati graficamente con cerchi verdi e rossi. Il video fornisce anche il codice per il progetto e dimostra l'output del sistema in tempo reale.

  • 00:00:00 In questa sezione del video tutorial, il presentatore spiega come creare un contatore di persone utilizzando YOLO V8 e il tracciamento degli oggetti. Il flusso del processo inizia con l'implementazione del rilevamento degli oggetti YOLO V8 per rilevare le persone e assegnare un ID univoco a ciascun oggetto rilevato. Quindi, viene trovata la coordinata centrale dell'oggetto rilevato, seguita dal tracciamento dell'oggetto utilizzando Deep SORT, che assegna un ID univoco a ciascun oggetto rilevato. Successivamente, vengono tracciate delle linee per rilevare quando una persona le attraversa e il loro ID univoco viene aggiunto a un elenco. Infine, viene trovata la lunghezza dell'elenco per ottenere il conteggio totale delle persone che attraversano ciascuna riga.

  • 00:05:00 In questa sezione, il video spiega il processo di conteggio delle persone utilizzando YOLOv8 e il tracciamento degli oggetti. Il metodo prevede il tracciamento della coordinata centrale del riquadro di delimitazione dell'oggetto e il rilevamento quando attraversa una linea verde. L'ID univoco dell'oggetto viene quindi aggiunto a un elenco, che viene utilizzato per calcolare il conteggio totale degli oggetti che sono passati attraverso la linea. Il processo viene ripetuto fotogramma per fotogramma e il conteggio viene incrementato ogni volta che un oggetto oltrepassa la linea. Il video mostra anche il codice utilizzato per questo progetto, che include l'installazione di dipendenze e l'utilizzo del metodo di tracciamento degli oggetti di ordinamento profondo.

  • 00:10:00 In questa sezione del video, il relatore scarica i file Deep Sort e apre lo script di previsione per apportare le modifiche necessarie ai requisiti del progetto. Il presentatore rimuove tracce e dati non necessari e crea due righe per il conteggio avanti e indietro utilizzando l'input video. Trovano i punti coordinati per ogni linea, che consentiranno loro di tenere traccia del numero di persone che hanno attraversato ogni linea e il conteggio totale. Il presentatore condivide lo schermo per dimostrare come trovare le coordinate e sottolinea l'importanza di concentrarsi sull'area corretta.

  • 00:15:00 In questa sezione, il relatore spiega come definire le coordinate per la linea e creare un elenco vuoto. Le coordinate della linea vengono copiate da un passaggio precedente e l'elenco vuoto memorizzerà l'ID univoco degli oggetti che lo attraversano. Lo script calcola anche la larghezza e l'altezza del riquadro di delimitazione e memorizza l'ID univoco nell'elenco appropriato a seconda che la persona stia salendo o scendendo. Il relatore fornisce una rappresentazione visiva dei punti e delle coordinate utilizzati in questa sezione.

  • 00:20:00 In questa sezione del video, il relatore spiega il codice per il progetto People Counter utilizzando YOLOv8 e Object Tracking. Passano attraverso le coordinate CX e CY, che rappresentano le coordinate centrali del riquadro di delimitazione, e il modo in cui vengono utilizzate per disegnare un cerchio e un rettangolo attorno all'oggetto rilevato. Il relatore spiega anche come l'ID univoco e l'etichetta di ciascun oggetto vengono aggiunti al rettangolo utilizzando la funzione cv2.puttext. Infine, spiegano come l'ID univoco viene memorizzato nell'elenco vuoto quando la coordinata CX dell'oggetto attraversa una determinata linea, indicando un'entrata o un'uscita.

  • 00:25:00 In questa sezione, il relatore spiega come l'ID univoco viene aggiunto all'elenco del conteggio totale per le persone che salgono e per le persone che scendono. Quando la coordinata del centro passa sopra o sotto la linea, a seconda del conteggio, verrà aggiunta alla rispettiva lista. La lunghezza di ciascun elenco rappresenta il numero di persone che salgono e scendono, che viene visualizzato graficamente utilizzando due cerchi in cui il verde rappresenta le persone che salgono e il rosso rappresenta le persone che scendono. Il relatore sottolinea la definizione delle variabili del conteggio totale globale e del totale ridotto e la creazione di una linea utilizzando cb2.9. Il codice utilizza il cerchio CPU/DPM per creare la rappresentazione circolare del conteggio. Il relatore ricorda agli spettatori di assicurarsi che il runtime sia impostato come GPU e la sessione potrebbe richiedere alcuni secondi per scaricare i file necessari.

  • 00:30:00 In questa sezione, il relatore sta dimostrando come scaricare ed eseguire uno script che utilizza YOLOv8 e Object Tracking per contare il numero di persone che entrano ed escono da un'area specifica in un video. La sceneggiatura divide il video in fotogrammi e li elabora uno per uno per tracciare il movimento delle persone e contarle mentre attraversano linee specifiche. L'output è un video annotato che mostra il numero di persone che entrano ed escono dall'area in tempo reale. L'oratore mostra anche il video di output e spiega come lo script conta correttamente il movimento delle persone.

  • 00:35:00 In questa sezione, il video tutorial dimostra l'uso di YOLOv8 e del tracciamento degli oggetti per contare le persone che entrano ed escono da una determinata area. Il sistema conta le persone che attraversano una linea sull'immagine e visualizza il conteggio come conteggio crescente o conteggio decrescente a seconda della direzione del movimento. Anche il file di script per il sistema è condiviso e gli spettatori sono incoraggiati a iscriversi al canale e lasciare un pollice in su.