Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Vorlesung 11 Sequenzielle Daten: Markov-Modelle, Worteinbettungen und LSTMs
11 Sequenzielle Daten: Markov-Modelle, Worteinbettungen und LSTMs
In diesem Video erörtert der Sprecher die verschiedenen Arten von sequentiellen Daten, die beim maschinellen Lernen auftreten, z. B. numerische oder symbolische Daten, die zeitlich oder nacheinander angeordnet sind. Sie führen Markov-Modelle, Worteinbettungen und LSTMs als Modelle zur Lösung dieser Probleme ein. Das Video skizziert den Prozess des Trainings und der Vorhersage mit sequentiellen Daten, einschließlich des Konzepts der Validierung und des Trainings mit Daten, die vor der spezifischen Sache aufgetreten sind, an der getestet wird. Darüber hinaus erklärt der Referent, wie Sequenzen mit neuronalen Netzen modelliert werden, einschließlich des Umgangs mit Sequenzen unterschiedlicher Länge und Zeitmodellierung, sowie den Prozess des Trainierens eines rekurrenten neuronalen Netzes unter Verwendung der Rückwärtsausbreitung durch die Zeit. Schließlich behandelt das Video Aspekte der Sequenz-zu-Label-Klassifizierung, die mit Markov-Modellen verbessert werden kann, wenn wiederkehrende neuronale Netze Dinge schnell vergessen.
Das Video behandelt eine Reihe von Themen im Zusammenhang mit sequentieller Datenverarbeitung, darunter Markov-Modelle und ihre Einschränkungen, Long-Short-Term-Memory (LSTM)-Netzwerke und ihre Vorteile, die Verwendung von LSTMs für die Text- und Bildgenerierung, Lehrerzwangstechniken und Bildunterschriften. Der Referent gibt detaillierte Erläuterungen zur LSTM-Struktur und den verschiedenen darin enthaltenen Gates sowie zum Trainieren und Abtasten dieser Netzwerke für Aufgaben wie Shakespeare-Textgenerierung und Bildbeschriftung. Die Bedeutung der Verwendung von Einbettungsschichten zur Verbesserung von LSTMs auf Wortebene wird ebenfalls diskutiert, zusammen mit dem Spektrum der verfügbaren Methoden für die Sequenzverarbeitung - von einfacheren Modellen bis hin zu leistungsfähigeren wie LSTMs.
12 Matrixmodelle: Empfehlungssysteme, PCA- und Graphenfaltungen
12 Matrixmodelle: Empfehlungssysteme, PCA- und Graphenfaltungen
Im ersten Teil des Videos diskutiert der Referent Matrixmodelle und ihre Anwendungen in Empfehlungssystemen, die für Produktempfehlungen, Nachrichten und soziale Netzwerke verwendet werden können. Empfehlungssysteme beruhen auf explizitem und implizitem Feedback sowie Nebeninformationen und können manipuliert werden, um falsche Informationen zu verbreiten, wenn sie nicht richtig konzipiert sind. Die Matrixfaktorisierung ist eine gängige Methode zur Vorhersage von Bewertungen basierend auf dem Benutzerverhalten, wobei das Optimierungsproblem, U- und M-Matrizen zu finden, um UTM so nah wie möglich an R zu bringen, durch quadratische Fehlermethoden und die Berechnung der Frobenius-Norm gelöst wird. Der Referent diskutiert auch Methoden zur Optimierung dieses Problems mittels Gradientenabstieg und erläutert die Gradientenaktualisierungsregel für kollaboratives Filtern. Darüber hinaus behandelt der Referent fünf Möglichkeiten zur Verbesserung des Matrixfaktorisierungsmodells, einschließlich der Kontrolle von Benutzer- und Filmvorurteilen, der Verwendung impliziter Likes und der Einbeziehung von Website-Informationen. Abschließend erörtert der Referent die Leistungsfähigkeit der Matrixfaktorisierung in der klassischen Umgebung des maschinellen Lernens, Erweiterungen der PCA bei der Matrixfaktorisierung und die Nützlichkeit von Graphmodellen beim Speichern von Daten.
Der zweite Teil des Videos stellt verschiedene Matrixmodelle für Empfehlungssysteme vor, darunter Graphfaltungen für die Knotenklassifizierung und Linkvorhersage. Graphfaltungen mischen Knoteneinbettungen, indem sie die Adjazenzmatrix mit den ursprünglichen Einbettungen multiplizieren, aber dieser Ansatz hat Einschränkungen bei der Darstellung großer sozialer Graphen. Herkömmliche Validierungsmethoden funktionieren nicht für Modelle mit gemischten Merkmalen, die in Empfehlungssystemen verwendet werden, daher ist transduktives Lernen erforderlich, bei dem nur Trainingssatzbezeichnungen zurückgehalten werden, nicht jedoch die Merkmale. Darüber hinaus erfordert die Modellierung von Zeit- und Bewertungsdaten die Berücksichtigung von Zeitstempeldaten und transduktivem Lernen. Das Video schließt mit einer Zusammenfassung des Vortrags und einer Vorschau auf die anschließende Diskussion zum Reinforcement Learning.
13 Reinforcement Learning: Policy Gradients, Q Learning, AlphaGo, AlphaStar (MLVU2019)
13 Reinforcement Learning: Policy Gradients, Q Learning, AlphaGo, AlphaStar (MLVU2019)
Das Video bietet eine Einführung in das Reinforcement Learning und seine grundlegenden Komponenten und diskutiert Beispiele wie das Roboterauto zum Stangenbalancieren und das Tic-Tac-Toe-Spiel. Der Referent geht auf die Herausforderungen des bestärkenden Lernens ein, darunter nicht differenzierbare Funktionen, die Verzögerung beim Erhalt von Belohnungen und das Problem der Kreditzuweisung. Das Kreditzuweisungsproblem wird durch Techniken wie zufällige Suche, Richtliniengradienten und Q-Learning angegangen, bei denen der Sprecher jeden Algorithmus, seine Vorteile und seine Grenzen erklärt. Der Q-Lernalgorithmus wird ausführlicher besprochen, mit einer Erläuterung seiner Funktionsweise unter Verwendung einer großen Zahlentabelle zur Darstellung von Q-Werten. Die Präsentation schließt mit einer Erläuterung, wie Deep Q-Learning und AlphaGo den Bereich des Reinforcement Learning revolutioniert haben.
14 Rückblick: Induktive Verzerrung, algorithmische Verzerrung, soziale Auswirkungen des maschinellen Lernens (MLVU2019)
14 Rückblick: Induktive Verzerrung, algorithmische Verzerrung, soziale Auswirkungen des maschinellen Lernens (MLVU2019)
Dieser erste Teil des Videos bietet einen umfassenden Überblick über Themen des maschinellen Lernens, darunter Verlustfunktionen, Deep-Learning-Systeme, induktive und algorithmische Verzerrung und offene Probleme beim maschinellen Lernen. Der Referent betont die Bedeutung von Methodik und Anwendungsfällen aus der Praxis im Data-Science-Prozess und gibt Tipps zum Studium und zur Überwindung von Prokrastination. Der Referent diskutiert auch Strategien zur Verbesserung des Verständnisses von Konzepten des maschinellen Lernens und bietet Ressourcen für das weitere Lernen. Schließlich hebt das Video das Problem der Verallgemeinerung in maschinellen Lernmodellen und die Bedeutung induktiver Verzerrungen bei der Verbesserung der Modellleistung hervor.
Im zweiten Teil des Videos werden verschiedene Probleme im Zusammenhang mit maschinellem Lernen erörtert, darunter induktive Voreingenommenheit, algorithmische Voreingenommenheit und die sozialen Auswirkungen des maschinellen Lernens. In ein neuronales Netzwerk kann eine induktive Vorspannung eingebaut werden, um Kausalitäts-, Kompositions- und Generalisierungsprobleme zu lösen. Dieser Ansatz hat jedoch auch Einschränkungen, einschließlich einer verringerten Robustheit gegenüber nicht modellierten Variablen. Algorithmische Verzerrungen können aufrechterhalten werden, wenn maschinelle Lernmodelle Verzerrungen in Daten verstärken. Dies kann in Fällen problematisch sein, in denen Gesichtserkennungsalgorithmen farbige Personen nicht erkennen oder Algorithmen, die im US-Justizsystem verwendet werden und Vorurteile gegenüber Schwarzen haben. Eine verantwortungsvolle Entwicklung dieser Systeme ist wichtig, um die Aufrechterhaltung von Vorurteilen zu vermeiden und Fairness in Entscheidungsprozessen zu fördern.
Segmentieren Sie Bilder und Videos in Python mit dem Segment Anything Model (SAM) | YOLOv5 | YOLOv8 und SAM
Segmentieren Sie Bilder und Videos in Python mit dem Segment Anything Model (SAM) | YOLOv5 | YOLOv8 und SAM
Dieses Video stellt das Segment Anything Model (SAM) vor, ein KI-Modell, das Objekte aus Bildern und Videos für verschiedene Aufgaben identifizieren und extrahieren kann. Das SAM wird mit einem riesigen Datensatz von 11 Milliarden Bildern und 1,1 Milliarden Masken trainiert und hat eine starke Leistung bei einer Vielzahl von Segmentierungsaufgaben. Das Video bietet Schritt-für-Schritt-Anleitungen für die Verwendung des SAM auf einem lokalen System, einschließlich der Installation erforderlicher Pakete, des Herunterladens vortrainierter Modellprüfpunkte und der Segmentierung von Bildern und Videos mit Python. Das Video zeigt auch, wie Sie das SAM mit YOLOv5 oder YOLOv8 verwenden, um Begrenzungsrahmen um interessante Objekte zu erstellen. Das SAM hat auch potenzielle Anwendungen in der Animation.
YOLOv8-Kurs – Webanwendung zur Objekterkennung in Echtzeit mit YOLOv8 und Flask – Webcam/IP-Kamera
YOLOv8-Kurs – Webanwendung zur Objekterkennung in Echtzeit mit YOLOv8 und Flask – Webcam/IP-Kamera
Der YOLOv8-Kurs ist eine Reihe von Tutorials, die Zuschauer durch die Erstellung einer Echtzeit-Objekterkennungs-Webanwendung mit YOLOv8 und Flask führen. Die Tutorials behandeln die Installation der erforderlichen Software wie Python und PyCharm, das Erstellen einer virtuellen Umgebung, das Installieren von Paketen und das Testen der Objekterkennung auf Bildern und Webcams. Die Tutorials behandeln auch das Konvertieren der Ausgabe von Tensoren in ganze Zahlen, das Beschriften der erkannten Objekte und das Speichern des Ausgabevideos mit Erkennungen. Den Zuschauern wird gezeigt, wie sie YOLOv8 in Flask integrieren und die Echtzeit-Objekterkennungs-Webanwendung sowohl für Video- als auch für Live-Webcam-Feeds ausführen.
Im zweiten Teil des Videos demonstriert der Moderator, wie eine Webanwendung mit Flask und YOLOv8 zur Objekterkennung in Live-Webcam-Feeds und -Videos erstellt wird, und zeigt außerdem das Training und die Inferenz eines benutzerdefinierten Modells für die Erkennung persönlicher Schutzausrüstung. Die Web-App verfügt über eine Homepage, eine Videoseite und eine Live-Webcam-Feed-Seite mit CSS-Stil für jede Seite, und der Moderator geht durch die HTML- und Flask-Dateien, die für das Projekt verwendet werden. Das Video demonstriert den Vorgang des Importierens eines Datensatzes, seiner Vorbereitung zum Trainieren des YOLOv8-Modells, des Trainierens des Modells, der Analyse der Ergebnisse und des Testens des Modells in Demovideos. Insgesamt bietet das Video ein umfassendes Tutorial zum Entwickeln und Testen einer Webanwendung zur Objekterkennung in Echtzeit.
Der Referent erörtert auch Änderungen, die an einer Webanwendung vorgenommen wurden, die das YOLOv8-Modell verwendet, das auf einem Datensatz zu persönlicher Schutzausrüstung (PSA) trainiert wurde. Zu den Änderungen gehört das Modifizieren des Codes, um Begrenzungsrahmen unterschiedliche Farben zuzuweisen und Rechtecke basierend auf Klassennamen zu beschriften, und das Festlegen eines Konfidenzwerts über 0,5, damit Begrenzungsrahmen und Rechtecke angezeigt werden. Der Moderator demonstriert die erfolgreiche Erkennung von PSA-Artikeln in einem Video- und Live-Webcam-Feed und markiert das Ende des Kurses.
Objektverfolgung in Echtzeit mit YOLOv8 und DeepSORT | Fahrzeugzählung (ein- und ausfahrende Fahrzeuge)
Objektverfolgung in Echtzeit mit YOLOv8 und DeepSORT | Fahrzeugzählung (ein- und ausfahrende Fahrzeuge)
Das Video demonstriert die Implementierung der Echtzeit-Objektverfolgung mit YOLOv8 und DeepSORT, um die Anzahl der Fahrzeuge zu zählen, die auf eine Autobahn einfahren und diese verlassen. Der Moderator bietet eine Schritt-für-Schritt-Anleitung, beginnend mit dem Klonen des GitHub-Repositorys, der Installation erforderlicher Pakete, dem Festlegen des Verzeichnisses und der Untersuchung des Tracking-Skripts. Das Tutorial behandelt die Verwendung von Double-Ended-Warteschlangen, Vorverarbeitung, Non-Max-Regression und Deep SORT-Funktion, um eindeutige IDs zu generieren und Klassennamen zu bestimmen. Der Moderator erklärt auch, wie eine Fahrzeugzählfunktion mithilfe einer Linie auf dem Bildschirm hinzugefügt wird, und jedes Mal, wenn die Spur eines Fahrzeugs diese Linie schneidet, erhöht sich die Zählung. Die Benutzeroberfläche wird mithilfe einer bestimmten Funktion festgelegt. Abschließend zeigt der Moderator, wie die aktuelle Ausgabe des Skripts Kreuzungen mit der Linie erkennen und die Fahrzeuge zählen kann, die in das Gebiet einfahren und es verlassen.
Segmentierung und Verfolgung von Objekten in Echtzeit mit YOLOv8 | Fahrzeugzählung (Ein- und Ausfahrt)
Segmentierung und Verfolgung von Objekten in Echtzeit mit YOLOv8 | Fahrzeugzählung (Ein- und Ausfahrt)
Dieses Video-Tutorial konzentriert sich auf die Implementierung von Echtzeit-Objektsegmentierung und -verfolgung mit YOLOv8 und Deep-Sort-Algorithmus. Insbesondere wird gezeigt, wie die verschiedenen Subtypen von Fahrzeugen, die in ein bestimmtes Gebiet einfahren und es verlassen, gezählt und unterschieden werden können. Das Tutorial behandelt verschiedene Aspekte, darunter Geschwindigkeitsschätzung, Richtungsmessung und genaue Segmentierung und Verfolgung jedes Fahrzeugs mit seiner ID und seinen Spuren. Der Präsentator stellt auch die notwendigen Schritte bereit, um dies in verschiedenen IDEs zu implementieren, und bietet den endgültigen Code für seine Patreon-Unterstützer an.
Objektverfolgung mit YOLOv8: Fahrzeugverfolgung, Zählung (Ein- und Ausfahrt) und Geschwindigkeitsschätzung
Objektverfolgung mit YOLOv8: Fahrzeugverfolgung, Zählung (Ein- und Ausfahrt) und Geschwindigkeitsschätzung
Das Video-Tutorial beschreibt, wie Sie Objektverfolgung, Fahrzeugzählung und Geschwindigkeitsschätzung mit YOLOv8 und DeepSORT implementieren. Der Moderator teilt einen Link zum GitHub-Repo mit dem Code und geht durch den Prozess des Klonens des Repositorys, des Herunterladens von DeepSORT-Dateien, des Imports relevanter Bibliotheken und der Definition einer Daten-DQ-Liste zur Verfolgung von Objekten. Sie erklären auch, wie die Fahrzeugrichtung bestimmt und die Zählung entsprechend erhöht wird. Darüber hinaus zeigt der Moderator, wie die Geschwindigkeit von Fahrzeugen geschätzt werden kann, indem die euklidische Entfernungsformel basierend auf den X- und Y-Koordinaten von verfolgten Objekten implementiert und ein Bereich für die Zählanzeige eingerichtet wird. Letztendlich zeigt die Ausgabe des Skripts Objektanzahl und -geschwindigkeit und zeigt damit an, dass die Implementierung erfolgreich war.
Automatische Kennzeichenerkennung mit YOLOV8 und EasyOCR (Bilder & Videos)
Automatische Kennzeichenerkennung mit YOLOV8 und EasyOCR (Bilder & Videos)
In diesem YouTube-Video erklärt die Moderatorin, wie man die automatische Kennzeichenerkennung mit YOLOV8 und EasyOCR umsetzt. Sie führen die Zuschauer mithilfe eines Google Colab-Notebooks und eines GitHub-Repositorys durch den Implementierungsprozess, bieten schrittweise Anleitungen und erklären, wie Abhängigkeiten installiert und das erforderliche Dataset heruntergeladen werden. Der Moderator demonstriert die Erfolgsrate des Modells und den Validierungsprozess und erklärt auch, wie EasyOCR zum Lesen von Kfz-Kennzeichen verwendet wird. Sie durchlaufen die letzten Schritte der Ausführung des Skripts und stoßen auf einige Fehler, die sie beheben, was zu beeindruckenden Ergebnissen führt. Obwohl das Nummernschilderkennungsskript nur auf dem GitHub-Repo des Moderators für Patreon-Unterstützer bereitgestellt wird, können Zuschauer sich über die Änderungen informieren, die an der Datei „predict.py“ vorgenommen wurden, um ähnliche Ergebnisse zu erzielen.