Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Tensorflow für die Deep-Learning-Forschung - Vorlesung 2
Tensorflow für die Deep-Learning-Forschung - Vorlesung 2
Die Vorlesung zu TensorFlow for Deep Learning Research deckt ein breites Themenspektrum ab, darunter grundlegende Operationen, Tensortypen, Platzhalter und Lazy Loading. Die Bedeutung der Verwendung von TensorBoard zur Visualisierung des ausgeführten Diagramms wird betont, und es werden verschiedene Funktionen der TensorFlow-API besprochen, darunter Random Shuffle, Random Crop, TF.dot Multinomial und die Random Gamma-Funktion. Das Video behandelt auch die Konzepte zum Definieren von 0-ness für verschiedene Datentypen, Initialisieren von Variablen, Zuweisen von Werten zu ihnen und die Vorteile der Verwendung einer interaktiven TensorFlow-Sitzung. Abschließend wird die Verwendung von Platzhaltern in TensorFlow ausführlich behandelt, und die potenziellen Probleme bei der Verwendung von Platzhaltern mit undefinierten Formen werden diskutiert.
Der Referent erörtert auch die Verwendung von Platzhaltern in TensorFlow, einschließlich der Einspeisung mehrerer Datenpunkte und der Verwendung freier Diktate. Die Vorlesung fährt dann mit Lazy Loading fort, bei dem die Berechnung bis zur Laufzeit verschoben wird, um ein Aufblähen des Diagramms zu vermeiden, das durch mehrere Knoten derselben Operation in Schleifen verursacht wird. Die Trennung der Definition von Operationsobjekten von Berechnungs- und Strukturierungscode für Variablendefinitionen und Berechnungsfunktionen hilft, Probleme beim Aufrufen von Funktionen in TensorFlow zu vermeiden. Der Referent behandelt auch, wie der Optimierer die Kreuzentropie minimiert und Gewichtungen und Verzerrungen aktualisiert, während er Eigenschaften verwendet, um TensorFlow-Code effizient zu strukturieren.
Tensorflow für die Deep-Learning-Forschung - Vorlesung 3
Tensorflow für die Deep-Learning-Forschung - Vorlesung 3
Die dritte Vorlesung zu TensorFlow für die Deep-Learning-Forschung behandelt lineare Regression und logistische Regression unter Verwendung des MNIST-Datensatzes. Der Dozent zeigt, wie man ein lineares Regressionsmodell in TensorFlow trainiert, indem man Platzhalter für Eingabedaten erstellt, trainierbare Variablen für Gewichte und Bias initialisiert, Vorhersagen erstellt, Verluste berechnet und den Optimierer als Gradientenabstieg mit einer bestimmten Lernrate definiert. Die Vorlesung erklärt auch den stochastischen Mini-Batch-Gradientenabstieg und die Wichtigkeit, sich die Form von Variablen zu merken. Die Genauigkeit des Modells wird berechnet, indem der Index des von der Funktion TF argmax erhaltenen Maximalwerts mit der Zielvariablen y verglichen wird, die Anzahl der korrekten Vorhersagen unter Verwendung von TF Reduce Sum und TF Float berechnet und durch die Gesamtzahl der Tests dividiert wird Beispiele. Abschließend stellt der Dozent fest, dass dieses Modell nicht als leistungsfähig gilt und es robustere Modelle wie Faltungsschichten gibt, die eine höhere Genauigkeit erzielen.
Tensorflow für die Deep-Learning-Forschung - Vorlesung 4
Tensorflow für die Deep-Learning-Forschung - Vorlesung 4
In Lecture 4 der Reihe TensorFlow for Deep Learning Research geht der Referent auf Worteinbettungen in der Verarbeitung natürlicher Sprache auf Basis von Deep Learning ein. Die Vorlesung erläutert das Konzept des Lernens von Wörterinbettungen für NLP-Probleme und beschreibt den Prozess der Repräsentation von Wörtern als numerische Vektoren in neuronalen Netzen. Der Vortrag diskutiert verschiedene Methoden zur Generierung von Wortvektoren mit KI-basiertem CBOW und Skip-Grammen und befasst sich mit dem Problem der Rechenkomplexität in Softmax unter Verwendung von negativem Sampling und NCE. Darüber hinaus beleuchtet der Dozent den Prozess der Einbettung von Variablen in TensorFlow und die Verwendung von t-SNE zur Visualisierung hochdimensionaler Wortvektoren in reduzierten Dimensionen. Schließlich schließt die Vorlesung mit einer Zusammenfassung der behandelten Konzepte und einem kurzen Überblick über die nächste Vorlesung, die sich auf das Erstellen von Wortmodellen konzentrieren wird.
Tensorflow für die Deep-Learning-Forschung - Vorlesung 5_1
Tensorflow für die Deep-Learning-Forschung - Vorlesung 5_1
Der fünfte Vortrag in der Reihe TensorFlow for Deep Learning Research behandelt mehrere Themen, darunter die effektive Verwaltung von Deep-Learning-Experimenten, die Bedeutung der automatischen Differenzierung in TensorFlow und den Prozess des Trainierens von Modellen und Speichern von Variablen. Der Referent erklärt, dass in Deep-Learning-Frameworks wie TensorFlow eine automatische Differenzierung bereitgestellt wird, die es Benutzern erleichtert, ihre Modelle zu codieren, ohne sich mit Gradienten befassen zu müssen. Es ist zwar nicht unbedingt erforderlich, Gradienten manuell zu berechnen, aber es ist dennoch hilfreich, sie für einfache Funktionen und Netzwerke zu berechnen. Die Erstellung eines benannten Entitätserkennungsmodells mit Unterklassen und den erforderlichen Platzhaltern und Feed-Techniken wird ebenfalls behandelt, ebenso wie das Speichern und Wiederherstellen von Variablen in TensorFlow und der Prozess des Speicherns von Modellen über verschiedene Sitzungen und Maschinen hinweg.
Tensorflow für die Deep-Learning-Forschung - Vorlesung 5_2
Tensorflow für die Deep-Learning-Forschung - Vorlesung 5_2
Das Video-Tutorial behandelt die Implementierung von TF-Zusammenfassungsoperationen, die eine Visualisierung von Daten in TensorBoard ermöglichen. Das Tutorial behandelt drei Arten von Zusammenfassungsoperationen – TF.summary.scalar, TF.summary.histogram und TF.summary.image – und erklärt, wie man sie zu einer zusammenführt und sie mit der FileWriter-Klasse in eine Ereignisdatei schreibt. Der Dozent demonstriert, wie Namensbereiche verwendet werden, um den Graphen in TensorBoard zu visualisieren, und definiert einen Testschreiber und einen geschulten Schreiber, um Zusammenfassungen in separate Dateien zu schreiben. Sie betonen die Nutzung der Visualisierungsfunktionen von TensorBoard, um die Leistung des eigenen Modells besser zu verstehen. Insgesamt ist TensorBoard ein entscheidendes Tool zur Verfolgung des Trainingsfortschritts, und die API zum Hinzufügen und Zusammenführen von Operationen ist unkompliziert.
Intuition hinter Backpropagation als Computergraph
Intuition hinter Backpropagation als Computergraph
Die Intuition hinter Backpropagation als Rechengraph wird in diesem Video erklärt. Der Redner erörtert, wie eine Ersatzfunktion verwendet wird, um die empirische Funktion zu schätzen, die Eingänge auf Ausgänge abbildet, und dass das Ziel darin besteht, die Parameter zu finden, die die Verlustfunktion minimieren. Backpropagation ermöglicht die Berechnung des Gradienten der Verlustfunktion in Bezug auf jeden Parameter durch einen Rückwärtsdurchlauf des Graphen. Die lokalen Gradienten für jedes Gate im Diagramm werden berechnet und können verwendet werden, um den Gradienten der endgültigen Ausgabe in Bezug auf jede Eingabe zu berechnen. Der Referent erklärt auch, wie man mit Gradienten für Verzweigungs- und vektorisierte Operationen umgeht und wie man sicherstellt, dass die Dimensionalität bei der Berechnung von Ableitungen funktioniert.
Produktionsfähiges Deep Learning für Computer Vision
Produktionsfähiges Deep Learning für Computer Vision
Der CTO und Chief Scientist bei Jumio, Lavash Patel, erläutert, wie sein Unternehmen eine Mischung aus KI- und ID-Experten einsetzt, um online Vertrauen aufzubauen und die Echtheit von ID-Dokumenten zu überprüfen. Der Prozess der Identitätsprüfung ist aufgrund der Vielzahl von IDs und Subtypen sowie der Notwendigkeit der Berichtigung und Zurückweisung nicht lesbarer Bilder eine Herausforderung. Um die Genauigkeit aufrechtzuerhalten, wird ein Human-in-the-Loop-Ansatz verfolgt, bei dem KI-Modelle Probleme erkennen und ein Mensch eine Plausibilitätsprüfung der Ergebnisse durchführt. Patel erörtert auch, wie Jumio Deep Learning mithilfe eines hybriden aktiven Lernalgorithmus produktiv macht, der sich an neue Subtypen anpasst und sich durch Umschulung verbessert. Darüber hinaus betont er die Bedeutung sauberer Daten bei der Gesichtserkennung und der Aufrechterhaltung der PCI-Konformität beim Umgang mit sensiblen Daten für Zwecke des maschinellen Lernens.
Gail Weiss: Denken wie Transformer
Gail Weiss: Denken wie Transformer
Gail Weiss diskutiert in diesem Video das Konzept von Transformer-Encodern und erklärt ihre Fähigkeit, Sequenzen zu verarbeiten und sie in Vektoren zu codieren. Weiss hebt mehrere Studien hervor, die die Stärken und Grenzen von Transformator-Encodern untersuchen, und stellt eine Programmiersprache namens Restricted Access Sequence Processing Language (RASP) vor, um die Fähigkeiten von Transformator-Encodern darzustellen. Sie erörtert auch die mehrköpfige Aufmerksamkeit, Auswahlmuster und die Herausforderungen von Softmax unter bestimmten Bedingungen, bevor sie sich mit der Verwendung von Sequenzoperatoren und Bibliotheksfunktionen zur Berechnung des Inversen und des Flip-Selektors befasst. Weiss bietet Einblicke in die Erstellung eines optimalen Programms für einen Transformator und die Erkenntnisse aus den universellen und Sandwich-Transformatoren und diskutiert schließlich das ausgewählte Prädikat und die binären vs. Ordnung drei Beziehungen.
Er spricht auch über die potenziellen Vor- und Nachteile der Verwendung von Aufmerksamkeit höherer Ordnung in Transformatormodellen sowie über die Bedeutung von Restverbindungen für die Aufrechterhaltung von Informationen in den Schichten. Sie diskutiert auch mögliche Probleme mit sehr tiefen Transformatoren, die vom RASP-Modell abweichen, und schlägt die Verwendung längerer Einbettungen vor, um Unschärfe in Informationen zu überwinden.
Visualisierung und Verständnis tiefer neuronaler Netze von Matt Zeiler
Visualisierung und Verständnis tiefer neuronaler Netze von Matt Zeiler
Matt Zeiler diskutiert die Visualisierung und das Verständnis von Convolutional Neural Networks (CNNs) für die Objekterkennung in Bildern und Videos. Er beschreibt, wie tiefe neuronale Netze im Vergleich zu Menschen und Primaten bei der Erkennung von Objekten abschneiden, und zeigt, wie CNNs lernen, Objekte zu identifizieren, indem sie die Schichten durchlaufen. Zeiler erläutert den Prozess zur Verbesserung der CNN-Architektur und erörtert die Einschränkungen beim Training mit begrenzten Daten. Schließlich beantwortet er Fragen zur Verwendung niedrigerer Schichten in höheren Schichten und zur Anwendung von Faltungen in neuronalen Netzen.
Wie ChatGPT trainiert wird
Wie ChatGPT trainiert wird
ChatGPT ist ein maschinelles Lernsystem, das darauf ausgelegt ist, menschliche Gespräche nachzuahmen. Es wird zunächst mit einem generativen Pre-Training-Ansatz trainiert, der sich auf riesige Mengen unstrukturierter Textdaten stützt, und dann mit Reinforcement Learning fein abgestimmt, um sich besser an die Präferenzen des Benutzers anzupassen.