Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
YOLOv8 | Objekterkennung | Segmentierung | Vollständiges Tutorial Google Colab| Ein-Klick-Lösung
YOLOv8 | Objekterkennung | Segmentierung | Vollständiges Tutorial Google Colab| Ein-Klick-Lösung
Das Video-Tutorial zeigt, wie Sie YOLOv8 mit Google Colab zur Objekterkennung und -segmentierung implementieren. Benutzer werden durch die Schritte zum Klonen des GitHub-Repositorys, Installieren von Paketen, Konfigurieren von Verzeichnissen und Importieren von Demovideos von Google Drive zum Testen geführt. Dem Benutzer wird auch gezeigt, wie er das YOLOv8-Modell zur Objekterkennung in einem Demovideo ausführt, wie er etwaige Abstandsprobleme behebt und wie er das Ausgabevideo speichert und herunterlädt. Das Tutorial behandelt auch die Durchführung der Segmentierung mit YOLOv8 und betont, wie wichtig es ist, zuvor komprimierte Dateien zu entfernen, bevor Sie fortfahren. Ein Link zum Herunterladen der Notebook-Datei wird bereitgestellt, und Zuschauer werden ermutigt, Fragen im Kommentarbereich zu stellen.
KI-Gesichtserkennung | Gesichtsausdrücke identifizieren mit V7
KI-Gesichtserkennung | Gesichtsausdrücke identifizieren mit V7
In den Video-Tutorials wird der Prozess der Verwendung der V7-Plattform zum Erstellen kommentierter Datensätze für die KI-Gesichtsemotionserkennung erläutert. Die Tutorials decken verschiedene Aspekte des Prozesses ab, darunter das Erstellen eines Datensatzes, das Kommentieren von Bildern und Videos für Emotionen, das Trainieren des Modells und das Testen mit Beispielbildern und Live-Webcams. Die Bedeutung einer genauen Kennzeichnung für ein effektives Training von KI-Modellen wird in den Tutorials betont, und die Funktionen und mehrere Modelle der V7-Plattform werden hervorgehoben. Die Tutorials bieten End-to-End-Beispiele für den Annotationsprozess zum Identifizieren von Gesichtsausdrücken mithilfe von KI.
Fußballspieler- und Ballerkennung und -verfolgung in Echtzeit mit YOLOv8 Live: Objektverfolgung YOLOv8
Fußballspieler- und Ballerkennung und -verfolgung in Echtzeit mit YOLOv8 Live: Objektverfolgung YOLOv8
In diesem YouTube-Video-Tutorial demonstriert der Moderator den Prozess zum Erstellen eines Datasets zur Fußballspieler- und Ballerkennung und -verfolgung mit Roboflow. Der Moderator führt Sie durch die Schritte zum Hochladen und Kommentieren von Bildern, zum Vorbereiten des Datensatzes, zum Trainieren des Modells, zum Testen von Beispielvideos und einer Live-Webcam und zum Ändern des Codes zur Verbesserung der Nachverfolgung. Insgesamt funktioniert das YOLOv8-Modell gut, weist jedoch einige Einschränkungen bei der Erkennung von Fußball in bestimmten Szenarien auf.
YOLOv8 und VGG16 für Gesicht, Geschlechtserkennung, Gesichtszählung und Personenverfolgung | Benutzerdefinierter Datensatz
YOLOv8 und VGG16 für Gesicht, Geschlechtserkennung, Gesichtszählung und Personenverfolgung | Benutzerdefinierter Datensatz
Das Video-Tutorial erklärt den Prozess der Gesichtserkennung, Geschlechtsklassifizierung, Gesichtszählung und Personenverfolgung mit den Modellen YOLOv8 und VGG16. Das Tutorial behandelt verschiedene Aspekte der Implementierung und des Trainings dieser Modelle, einschließlich Datenaufbereitung, Datenerweiterung, Feinabstimmung des vortrainierten VGG16-Modells, Verwendung von Transfer Learning und Training des YOLOv8-Modells für die Gesichtserkennung. Der Referent erklärt außerdem, wie man ein Google Drive in ein Google Colab-Notebook einbindet, auf Bilddatensätze zugreift und diese konvertiert, benötigte Bibliotheken herunterlädt und die Objektverfolgung mit Deepsort integriert. Das Tutorial enthält detaillierte Codeerklärungen zum Zeichnen von Begrenzungsrahmen um erkannte Objekte, zum Integrieren des Geschlechtsklassifizierungsmodells, zum Zählen der Anzahl der Gesichter in einem Frame und zum Zuweisen jedes erkannten Gesichts mit deepsort.update zu einer eindeutigen ID.
Ampelerkennung und Farberkennung mit YOLOv8 | Lernprogramm zur benutzerdefinierten Objekterkennung
Ampelerkennung und Farberkennung mit YOLOv8 | Lernprogramm zur benutzerdefinierten Objekterkennung
Das Video-Tutorial „Ampelerkennung und Farberkennung mit YOLOv8“ erklärt die Schritte zum Erstellen eines Ampelerkennungs- und Farberkennungsmodells mit Ultralytics YOLOv8 Web Pro. Es behandelt den Ampeldatensatz, die Datenerweiterung, die Installation der erforderlichen Bibliotheken, die Feinabstimmung des YOLOv8-Modells und das Testen des Modells in mehreren Videos. Der Moderator betont, wie wichtig es ist, alle erforderlichen Bibliotheken zu installieren, und die Ergebnisse des Testens des Modells auf Videos zeigen seine Genauigkeit beim Erkennen und Erkennen von Ampeln in verschiedenen Farben.
Kundenabwanderungsanalyse und -vorhersage mit ANN| Deep-Learning-Tutorial (Tensorflow, Keras & Python)
Kundenabwanderungsanalyse und -vorhersage mit ANN| Deep-Learning-Tutorial (Tensorflow, Keras & Python)
Das YouTube-Video mit dem Titel „Customer Churn Analysis and Prediction using ANN| Deep Learning Tutorial(Tensorflow, Keras & Python)“ demonstriert die Verwendung künstlicher neuronaler Netze zur Vorhersage der Kundenabwanderung anhand eines Datensatzes von Kaggle. Das Video behandelt verschiedene Schritte zur Vorbereitung der Daten, z. B. Datenbereinigung, Codierung kategorialer Features und Skalierung der Werte in Spalten. Der Sprecher erstellt dann ein neuronales Netzwerk mit einer einzelnen verborgenen Schicht aus 20 Neuronen und einer Sigmoid-Aktivierungsfunktion, während er Eingabe- und Ausgabeschichten und einen Optimierer mit einer binären Kreuzentropie-Verlustfunktion definiert. Die erreichte Genauigkeit und der Klassifizierungsbericht unter Verwendung der Scikit-learn-Bibliothek werden angezeigt, wobei die vorhergesagten Werte entweder in 0- oder 1-Form umgewandelt werden, um eine Genauigkeit von 0,78 anzuzeigen.
Fahrzeugverfolgung / Verkehrsüberwachung yolov5+deepsort
Fahrzeugverfolgung / Verkehrsüberwachung yolov5+deepsort
Für alle, die von YouTube hierher kommen oder einfach nur mein Repo für Rückschlüsse verwenden möchten. Dies ist ein sehr altes Projekt, nur um den Lebenslauf zu lernen, als ich in der Schule war. Es ist lange her, also habe ich alles vergessen, was ich in diesem Spielzeugprojekt gemacht habe. Ich habe dieses Repo bearbeitet und einige Codezeilen für einige Einschränkungen hinzugefügt. Ihr könnt dieses Repo als Referenz verwenden. Danke.
Die von YOLOv5 generierten Erkennungen werden an den Deep Sort-Algorithmus weitergegeben, der die Objekte verfolgt.
Code: https://github.com/duongcongnha/Vehicle-tracking
Demo der Fahrzeugverfolgung und Geschwindigkeitsschätzung beim 2. AI City Challenge Workshop im CVPR 2018
Demo der Fahrzeugverfolgung und Geschwindigkeitsschätzung beim 2. AI City Challenge Workshop im CVPR 2018
Unser Team von der University of Washington ist der Gewinner von Track 1 (Verkehrsflussanalyse) beim 2. AI City Challenge Workshop im CVPR 2018.
Die Datensätze der 2. AI City Challenge (2018) sind nicht mehr öffentlich zugänglich. Sie können jedoch weiterhin auf die Datensätze der 3. AI City Challenge (2019) zugreifen oder an der neuesten 4. AI City Challenge im CVPR 2020 teilnehmen.
Sie stellten einen neuen Datensatz im Stadtmaßstab für die Fahrzeugverfolgung mit mehreren Kameras sowie für die bildbasierte Reidentifikation bereit. Sie hatten auch einen neuen Datensatz zur Erkennung von Verkehrsanomalien. Sowohl der Umfang der Datensätze als auch die Anzahl der Fahrzeuge, die für die Auswertung verwendet werden, sind beispiellos. Die Website der AI City Challenges ist unter https://www.aicitychallenge.org/ zu finden.
Code: https://github.com/zhengthomastang/2018AICity_TeamUW
Objektverfolgung mit Opencv und Python
Code: https://pysource.com/2021/01/28/object-tracking-with-opencv-and-python/
Objektverfolgung mit Opencv und Python
Das Video-Tutorial zur Objektverfolgung mit OpenCV und Python erklärt den Unterschied zwischen Objekterkennung und Objektverfolgung und zeigt, wie Sie eine Objektverfolgungsdatei für eine effiziente Verfolgung erstellen. Das Video skizziert die erforderlichen erforderlichen Dateien, z. B. ein Video und eine Objekt-Tracker-Datei, und zeigt, wie die main.py-Datei für die Echtzeit-Videoanzeige codiert wird. Das Tutorial behandelt auch, wie Sie kleine Elemente aus der Maske entfernen und einen Interessenbereich definieren, um einen Teil des Bildes zu extrahieren, um sich auf die Fahrzeuge zu konzentrieren. Das Video schließt mit der Erläuterung des Prozesses der Objektverfolgung und dem Hinzufügen eindeutiger IDs zu den Objekten, um sie korrekt zu zählen. Das Tutorial stellt jedoch fest, dass die Methode nicht perfekt ist, sondern als hervorragende Einführung in die Objektverfolgung dient, und ein tiefergehender Kurs zu OpenCV und Deep Learning wird empfohlen.
Computer-Vision-Roadmap | So wird man Computer Vision Engineer
Computer-Vision-Roadmap | So wird man Computer Vision Engineer
Dieses Video bietet einen Fahrplan, um Computer Vision Engineer zu werden, und unterteilt den Lernprozess in vier Module: Python und OpenCV, Robotik und Low-Level-Programmierung, künstliche Intelligenz und fortgeschrittene Themen. Die Bedeutung von praktischen Projekten mit physikalischen Geräten wie Robotik und Arduinos wird betont, zusammen mit der Notwendigkeit, ein grundlegendes Verständnis der Mathematik zu haben. Der Referent diskutiert auch Wettbewerbe und Projekte, die angehenden Computer-Vision-Ingenieuren dabei helfen können, ihre Fähigkeiten zu verbessern. Darüber hinaus wird die Bedeutung von Soft Skills wie Dokumentation und Kenntnissen von Software-Tools wie Git und Docker hervorgehoben. Abschließend werden Abschlüsse in Mathematik, Data Science, Informatik oder Ingenieurwissenschaften empfohlen, wobei auch selbstständiges Lernen durch Projekte und Kurse möglich ist.