Maschinelles Lernen und neuronale Netze - Seite 6

 

Überwachtes maschinelles Lernen erklärt




Überwachtes maschinelles Lernen erklärt

Das Video erklärt, dass überwachtes Lernen einen beschrifteten Datensatz beinhaltet, mit dem Ziel, eine Zuordnungsfunktion von Eingabevariablen zu Ausgabevariablen zu lernen. Der gekennzeichnete Datensatz wird in einen Trainingssatz und einen Testsatz unterteilt, wobei das Modell auf dem Trainingssatz trainiert und auf dem Testsatz evaluiert wird, um seine Genauigkeit zu messen.
Das Video weist darauf hin, dass eine Überanpassung auftreten kann, wenn das Modell zu komplex ist und zu eng an das Trainingsset angepasst ist, was zu einer schlechten Leistung bei neuen Daten führt, während eine Unteranpassung auftritt, wenn das Modell zu einfach ist und die Komplexität der Daten nicht erfassen kann. Das Video zeigt das Beispiel des Iris-Datensatzes und führt durch den Prozess des Trainierens eines Modells, um die Art einer neuen Iris-Blume basierend auf seinen Messungen unter Verwendung des Entscheidungsbaumalgorithmus vorherzusagen.

  • 00:00:00 In diesem Abschnitt erklärt das Video die Definition und den Zweck des maschinellen Lernens, das verwendet werden kann, um Vorhersagen auf der Grundlage vergangener Daten zu treffen. Das Video zeigt das Beispiel der Regression, die die Beziehungen zwischen Variablen misst, eine Linie der besten Anpassung erstellt und diese Linie verwendet, um neue Daten vorherzusagen. Das Video erweitert diese Idee dann, um Klassifizierungsprobleme zu erläutern, die das Hinzufügen von Bezeichnungsdaten und das Erstellen von Entscheidungsgrenzen zum Klassifizieren der Ausgabebezeichnung neuer Daten umfassen. Das Video untersucht die Genauigkeit dieses Modells und erklärt, dass maschinelle Lernalgorithmen versuchen, die Modellgenauigkeit zu maximieren. Das Video stellt fest, dass Entscheidungsbäume eine Art maschineller Lernalgorithmus sind, der einen auf bedingten Aussagen basierenden Ansatz verwendet, ähnlich wie Expertensysteme.

  • 00:05:00 In diesem Abschnitt taucht das Video in die verschiedenen Arten von Algorithmen ein, die für maschinelles Lernen verwendet werden können, einschließlich Support-Vektor-Maschinen, und wie zusätzliche Variablen für höherdimensionale Räume hinzugefügt werden können. Das Video berührt auch die Schnittmenge von künstlicher Intelligenz, Big Data und Data Science, wobei Data Science und Statistik der Einfachheit halber als ein und dasselbe betrachtet werden. Das Video erklärt dann das überwachte Lernen, das aus zwei Hauptmodi von Lernmodellen besteht, Regression und Klassifizierung, und wie es im Wesentlichen statistische Mathematik für Mustererkennungsprobleme ist, die in maschinelles Lernen umbenannt wird. Das Video schließt mit einer Erwähnung von unüberwachtem Lernen und Deep Learning, die in zukünftigen Videos behandelt werden, und einer Empfehlung von Brilliant.org für diejenigen, die daran interessiert sind, mehr über die Mathematik und Wissenschaft hinter diesen Konzepten zu erfahren.
Supervised Machine Learning Explained
Supervised Machine Learning Explained
  • 2020.05.07
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Unüberwachtes maschinelles Lernen erklärt



Unüberwachtes maschinelles Lernen erklärt

Das Video erklärt das unüberwachte maschinelle Lernen, das sich mit unbeschrifteten und unstrukturierten Daten befasst und hauptsächlich zum Ableiten von Strukturen aus unstrukturierten Daten verwendet wird. Es wird in zwei Arten unterteilt: Assoziation und Clustering, wobei Clustering die Verwendung von Algorithmen wie K-Means-Clustering beinhaltet, um den Entscheidungsraum in diskrete Kategorien oder Cluster zu unterteilen.

Assoziationsprobleme identifizieren Korrelationen zwischen Datensatzmerkmalen, und um aussagekräftige Assoziationen zu extrahieren, muss die Komplexität der Spalten durch Dimensionsreduktion reduziert werden. Dieser Prozess beinhaltet die Minimierung der Anzahl von Merkmalen, die zur Darstellung eines Datenpunkts erforderlich sind, um aussagekräftige Ergebnisse und Assoziationen zu erzielen und gleichzeitig eine Unter- oder Überanpassung zu verhindern. Das letzte Segment des Videos stellte das Konzept des Lernens von Mathematik und Naturwissenschaften auf Brilliant vor, einer Plattform, die unterhaltsames und vernetztes Lernen in Mathematik und Naturwissenschaften bietet und einen Rabatt von 20 % auf Premium-Abonnements für die Anzeige von futurologischen Inhalten bietet. Das Video bat auch um Unterstützung für den Kanal auf Patreon oder die YouTube-Mitgliedschaft und begrüßte Vorschläge für zukünftige Themen in den Kommentaren.

  • 00:00:00 In diesem Abschnitt lernen wir das unüberwachte maschinelle Lernen kennen, das für unbeschriftete und unstrukturierte Daten gilt. Sie ist repräsentativ für die meisten Probleme der realen Welt und findet an der Schnittstelle zwischen Big Data und dem Bereich der künstlichen Intelligenz statt. Unüberwachtes Lernen wird hauptsächlich zum Ableiten von Strukturen aus unstrukturierten Daten verwendet. Diese Art des Lernens wird in zwei Haupttypen unterteilt: Assoziation und Clustering. Clustering beinhaltet die Verwendung von Algorithmen wie K-Means-Clustering, bei denen das Ziel darin besteht, einen Entscheidungsraum mit einer Reihe von Datenpunkten in eine bestimmte Anzahl diskreter Kategorien oder Cluster zu unterteilen. Dies erfolgt, indem zuerst Zentroide hinzugefügt werden und dann Datenpunkte iterativ ihren neuen Clustern neu zugewiesen werden, während die Zentroide aktualisiert werden.

  • 00:05:00 In diesem Abschnitt verlagert sich der Fokus vom Clustering auf die Assoziation beim unüberwachten Lernen. Assoziationsprobleme identifizieren Korrelationen zwischen Merkmalen eines Datensatzes, im Gegensatz zum Clustering, bei dem ähnliche Datenpunkte gruppiert werden. Um aussagekräftige Assoziationen zu extrahieren, muss die Komplexität der Spalten im Datensatz durch Dimensionsreduktion reduziert werden, wobei die Anzahl der Merkmale zur eindeutigen Darstellung eines Datenpunkts minimiert wird. Die Merkmalsextraktion kann durchgeführt werden, indem eine optimale Anzahl von Merkmalen ausgewählt wird, um eine Unteranpassung oder Überanpassung des Datensatzes zu vermeiden. Die Dimensionalitätsreduktion wird durch Mannigfaltigkeitslernen erreicht, wobei hochdimensionale Daten durch niedrigdimensionale Mannigfaltigkeiten dargestellt werden können. Die niederdimensionale Darstellung des Datensatzes enthält den reduzierten Merkmalssatz, der benötigt wird, um das Problem darzustellen und dennoch aussagekräftige Ergebnisse und Assoziationen zu erzeugen. Feature Engineering ist ein Teilgebiet des maschinellen Lernens, das Dimensionsreduktion, Feature-Auswahl und Extraktion umfasst.

  • 00:10:00 Dieses letzte Segment des Videos stellt das Konzept des Lernens von Mathematik und Naturwissenschaften vor, um ein tieferes Verständnis der im Kanal diskutierten Konzepte zu erlangen. Brilliant, eine Plattform, die mathematisches und naturwissenschaftliches Lernen spannend und vernetzt macht und Offline-Lernen anbietet. Darüber hinaus können Benutzer mehr über Futurologie erfahren und 20 % Rabatt auf Premium-Abonnements erhalten, indem sie den bereitgestellten Link besuchen. Schließlich werden die Zuschauer ermutigt, den Kanal auf Patreon oder einer YouTube-Mitgliedschaft zu unterstützen und Vorschläge für zukünftige Themen in den Kommentaren zu hinterlassen.
Unsupervised Machine Learning Explained
Unsupervised Machine Learning Explained
  • 2020.05.14
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Was ist maschinelles Lernen (maschinelles Lernen erklärt)



Was ist maschinelles Lernen (maschinelles Lernen erklärt)

Maschinelles Lernen ist ein Forschungsgebiet, das es Computern ermöglicht, zu lernen, ohne explizit programmiert zu werden. Dabei werden Algorithmen verwendet, um Entscheidungsgrenzen über den Entscheidungsraum eines Datensatzes zu bilden. Dieses Verständnis des maschinellen Lernens wird am zweithäufigsten verwendet und von Dr. Tom Mitchell etabliert.

Maschinelles Lernen kann auf die Zunahme von Rechenleistung und Speicherplatz zurückgeführt werden, die größere und bessere Daten und den Aufstieg von Deep Learning ermöglichten. Obwohl es als schwache künstliche Intelligenz eingestuft wird, da die Aufgaben, die es ausführt, oft isoliert und domänenspezifisch sind. Maschinelles Lernen umfasst viele verschiedene Ansätze und Modelle, und obwohl sie aufgrund von Abstraktionen und Vereinfachungen bei der Vorhersage von Ergebnissen in realen Problemen nie 100 % genau sein können, können sie dennoch in einer Vielzahl von Anwendungen nützlich sein. Brilliant wird als eine der Ressourcen zum Lernen über maschinelles Lernen und andere MINT-Themen erwähnt.

  • 00:00:00 In diesem Abschnitt liegt der Schwerpunkt auf der Bedeutung und Definition von maschinellem Lernen und wie es mit künstlicher Intelligenz zusammenhängt. Maschinelles Lernen ist ein Studiengebiet, das Computern die Fähigkeit verleiht, zu lernen, ohne explizit programmiert zu werden. Es beinhaltet die Verwendung von Algorithmen, um Entscheidungsgrenzen über den Entscheidungsraum eines Datensatzes zu bilden. Der Prozess der Bildung des Modells wird als Training bezeichnet, und sobald ein trainiertes Modell eine gute Genauigkeit der Trainingsdaten aufweist, kann es für die Schlussfolgerung verwendet werden, um neue Datenausgaben vorherzusagen. Dieser Prozess definiert die zweithäufigste Definition des maschinellen Lernens, die von Dr. Tom Mitchell von der Carnegie Mellon University aufgestellt wurde.

  • 00:05:00 In diesem Abschnitt untersucht das Video den Aufstieg des maschinellen Lernens und der künstlichen Intelligenz, indem es die fünf Hauptstämme des maschinellen Lernens hervorhebt: Symbolisten, Konnektionisten, Evolutionäre, Bayesianer und Analogisierer. Anschließend wird erläutert, wie sich die Entwicklung der KI von dem Versuch, eine allgemeinere, starke KI in den frühen Tagen der KI zu schaffen, zu einer Konzentration auf den Erwerb domänenspezifischer Expertise in verschiedenen Bereichen entwickelt hat. Der Aufstieg des maschinellen Lernens kann auf die Zunahme der Rechenleistung und des Speicherplatzes zurückgeführt werden, die größere und bessere Daten und den Aufstieg des Deep Learning ermöglichten. Darüber hinaus geht das Video darauf ein, wie viele KI-Durchbrüche möglich wurden, weil Daten einen großen Engpass in der Branche darstellen.

  • 00:10:00 In diesem Abschnitt wird erklärt, dass maschinelles Lernen zwar eine Form der künstlichen Intelligenz ist, aber als schwache KI eingestuft wird, da die Aufgaben, die es ausführt, oft isoliert und domänenspezifisch sind. Maschinelles Lernen umfasst viele verschiedene Ansätze, von komplexen Regeln und Entscheidungsbäumen bis hin zu evolutionsbasierten Ansätzen und mehr, alle mit dem Ziel, die Komplexität des Lebens zu modellieren, ähnlich wie es unser Gehirn versucht. Es ist zwar anerkannt, dass Modelle aufgrund von Abstraktionen und Vereinfachungen bei der Vorhersage von Ergebnissen in realen Problemen nie 100 % genau sein können, aber Modelle für maschinelles Lernen können dennoch in einer Vielzahl von Anwendungen nützlich sein. Das Video ermutigt die Zuschauer, nach zusätzlichen Ressourcen zu suchen, um mehr zu erfahren, einschließlich Brilliant, einer Plattform, die Kurse und tägliche Herausforderungen zu einer Vielzahl von MINT-Themen anbietet.
What Is Machine Learning (Machine Learning Explained)
What Is Machine Learning (Machine Learning Explained)
  • 2020.05.30
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Deep Learning erklärt (und warum Deep Learning so beliebt ist)



Deep Learning erklärt (und warum Deep Learning so beliebt ist)

Das Video erklärt, dass die Popularität von Deep Learning auf der Tatsache beruht, dass es Merkmale direkt aus Daten lernen kann und neuronale Netze verwendet, um zugrunde liegende Merkmale in einem Datensatz zu lernen. Der Aufstieg von Deep Learning lässt sich auf Big Data, erhöhte Rechenleistung und optimierte Softwareschnittstellen zurückführen.

  • 00:00:00 In diesem Abschnitt erklärt das Video, dass Deep Learning ein Teilgebiet der künstlichen Intelligenz ist, das aufgrund des Erfolgs des konnektionistischen Stammes des maschinellen Lernens populär geworden ist. Deep-Learning-Systeme können Merkmale direkt aus Daten lernen und neuronale Netze verwenden, um zugrunde liegende Merkmale in einem Datensatz zu lernen. Das Schlüsselelement von Deep Learning besteht darin, dass Schichten von Merkmalen mithilfe eines universellen Lernverfahrens aus Daten gelernt werden, anstatt manuell entwickelt zu werden. Das Video bietet auch ein Beispiel für ein neuronales Netzwerk, das ein Gesicht in einem Eingabebild erkennt, beginnend mit Merkmalen auf niedriger Ebene, Merkmale auf mittlerer Ebene erkennen und schließlich Merkmale auf hoher Ebene entdecken, um verschiedene Gesichtsstrukturen zu identifizieren. Das Video stellt schließlich fest, dass die wahre Geburt des Deep Learning im Jahr 2012 mit dem ImageNet-Wettbewerb erfolgte, bei dem der Siegeralgorithmus eine Fehlerquote von 16 % aufwies, fast 10 % besser als sein engster Konkurrent.

  • 00:05:00 In diesem Abschnitt erörtert das Video, wie der Aufstieg von Deep Learning auf Faktoren wie die Verbreitung von Big Data, die Steigerung der Rechenleistung, optimierte Softwareschnittstellen wie TensorFlow und die Verarbeitungsfähigkeit von Deep Learning zurückzuführen ist unstrukturierte Daten. Das Video berührt auch die historische Entwicklung neuronaler Netze, von einschichtigen Perzeptronnetzen der 60er Jahre bis hin zu modernen tiefen Netzwerken mit zehn bis hundert Schichten. Darüber hinaus empfiehlt das Video Brilliant.org als großartige Lernressource für diejenigen, die tiefer in das Gebiet des Deep Learning eintauchen möchten.
Deep Learning Explained (& Why Deep Learning Is So Popular)
Deep Learning Explained (& Why Deep Learning Is So Popular)
  • 2020.08.01
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Vom Gehirn zur KI (Was sind neuronale Netze)




Vom Gehirn zur KI (Was sind neuronale Netze)

Das Video diskutiert die Komponenten eines künstlichen Neurons, das das Hauptelement eines künstlichen neuronalen Netzwerks ist, und wie es auf der Struktur eines biologischen Neurons basiert.

Es erklärt auch, wie neuronale Netze aus großen Datenmengen in einem Schicht-für-Schicht-Prozess eine Darstellung ableiten, die für jede Art von Eingabe gelten kann. Das Video empfiehlt, zu brilliant.org zu gehen, um mehr über die grundlegenden Bausteine von Deep-Learning-Algorithmen zu erfahren.

  • 00:00:00 In diesem Abschnitt erklärt das Video die Grundlagen eines künstlichen Neurons, der Hauptkomponente eines künstlichen neuronalen Netzes. Die Struktur eines künstlichen Neurons ähnelt einem biologischen Neuron mit drei Hauptkomponenten: dem Soma oder dem Kern, den Dendriten oder den Armen, die mit anderen Neuronen verbunden sind, und dem Axon oder dem langen Schwanz, der Informationen zu und von der Zelle überträgt Körper. Das Video zeigt, wie die Grundstruktur einer neuronalen Deep-Learning-Netzwerkarchitektur von Santiago Ramon y Cajals erster Zeichnung eines Neurons abgeleitet wurde, das Dendriten als Eingänge, das Soma als Verarbeitungszentrum und das Axon als Ausgang darstellt. Darüber hinaus wurden die Verbindungen oder Synapsen zwischen Neuronen modelliert und die Stärke der Verbindung mit der Dicke der Linie verknüpft.

  • 00:05:00 In diesem Abschnitt erläutert das Video, wie neuronale Netze bei der Ableitung von Darstellungen aus umfangreichen Datenmengen funktionieren. Anschließend wird erklärt, wie dies in einem schichtweisen Prozess geschieht, der sich in jede Art von Eingabe übersetzen lässt, von den Pixelwerten einer Bilderkennung bis hin zu den Audiofrequenzen der Sprache für die Spracherkennung oder der Krankengeschichte eines Patienten, um dies vorherzusagen Wahrscheinlichkeit von Krebs. Das Video erwähnt auch, dass man, um mehr über das Gebiet zu erfahren, einen Besuch bei brilliant.org in Betracht ziehen sollte, einer Plattform, um sein Gehirn scharf und kreativ zu halten und die grundlegenden Bausteine von Deep-Learning-Algorithmen zu verstehen.
From The Brain To AI (What Are Neural Networks)
From The Brain To AI (What Are Neural Networks)
  • 2020.08.30
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

So erstellen Sie ein neuronales Netzwerk | Neuronale Netze erklärt



So erstellen Sie ein neuronales Netzwerk | Neuronale Netze erklärt

Das Video erklärt, wie neuronale Netze Mustererkennungsfunktionen bilden, indem die Struktur und die beteiligte Mathematik diskutiert werden. Es verwendet ein Bild als Beispiel und erläutert die Eingabeschicht, die Knoten der Ausgabeschicht und führt die Idee der verborgenen Schichten ein.

Das Video befasst sich dann mit Aktivierungsfunktionen und wie sie Eingangssignale in Ausgangssignale umwandeln. Die hyperbolische Tangensfunktion und die gleichgerichtete lineare Einheitsschicht werden diskutiert, und es zeigt sich, dass das aufgebaute neuronale Netzwerk eine erhebliche menschliche Ingenieursarbeit erfordert, um eindeutige Werte sicherzustellen. Das Video empfiehlt Brilliant.org, um mehr zu erfahren.

  • 00:00:00 In diesem Abschnitt fährt das Video dort fort, wo das letzte aufgehört hat, indem die Struktur und Mathematik neuronaler Netze weiter diskutiert wird, um zu sehen, wie sie Mustererkennungsfähigkeiten bilden. Um dieses komplexe Thema besser zu verstehen, wird ein Bild als intuitives Beispiel verwendet. Die Eingabeschicht ist als die Pixel definiert, die das Bild umfassen, und die Knoten der Ausgabeschicht werden willkürlich für vier verschiedene Arten von Strukturen festgelegt. Das Video stellt dann die Idee versteckter Ebenen vor, auf die Aktivierungsfunktionen angewendet werden können, um den Eingabewert neu zuzuordnen und Grenzen zum Rohknotenwert hinzuzufügen. Gewichtungen sind ebenfalls integriert, um zu zeigen, wie die Eingabe in unseren Hidden-Layer-Knoten von zufälligen Eingabebildern beeinflusst wird.

  • 00:05:00 In diesem Abschnitt erläutert das Video, wie Aktivierungsfunktionen arbeiten, um Eingangssignale in ein Ausgangssignal umzuwandeln, das von den folgenden Schichten in einem neuronalen Netzwerk verstanden werden kann. Als Beispiel dient die Funktion Tangens hyperbolicus, die alle Werte auf der X-Achse auf einen Y-Wert zwischen minus eins und eins abbildet. Durch das Hinzufügen weiterer Knoten werden die rezeptiven Felder komplizierter, und beispielsweise beginnt das Netzwerk in der dritten verborgenen Schicht, Muster wie ein umgekehrtes Kreuz zu erkennen. Schließlich wird die gleichgerichtete lineare Einheitsschicht eingeführt, die negative Werte gleichrichtet und die positiven gleich hält, was zu einem fertigen neuronalen Netzwerk führt, das zum Testen bereit ist.

  • 00:10:00 In diesem Abschnitt wird das im vorherigen Abschnitt erstellte neuronale Netzwerk eingehend analysiert, um zu verstehen, wie es Muster in einem Eingabebild erkennt. Es zeigt sich, dass das aufgebaute Netzwerk nicht perfekt ist und erhebliches menschliches Engineering erfordert, um eindeutige Werte sicherzustellen. Das nächste Video in der Reihe behandelt Gradientenabstieg und Backpropagation, die Methoden, die das Lernen in Deep Learning versetzen, und wie sie es dem Netzwerk ermöglichen, seine eigene Repräsentation aufzubauen.
How To Make A Neural Network | Neural Networks Explained
How To Make A Neural Network | Neural Networks Explained
  • 2020.09.26
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Wie Computer lernen | Neuronale Netze erklärt (Gradientenabstieg & Backpropagation)



Wie Computer lernen | Neuronale Netze erklärt (Gradientenabstieg & Backpropagation)

Dieses Video erklärt, wie neuronale Netzwerke lernen, indem sie die Gewichtungen in den verborgenen Schichten ändern, damit das Netzwerk sie bestimmen kann. Das Konzept der Kostenfunktion wird eingeführt, um die Fehlerrate des neuronalen Netzes zu minimieren, und Backpropagation wird als der wesentliche Prozess bei der Abstimmung der Parameter des Netzes erklärt.

Die drei Hauptkomponenten des maschinellen Lernens, einschließlich Darstellung, Bewertung und Optimierung, werden im Stamm des Konnektionismus behandelt. Das Video stellt auch fest, dass sich das Netzwerk nicht immer perfekt in Abstraktionsschichten anordnet. Das Ziel von Deep Learning ist, dass das Netzwerk die Gewichte selbst lernt und abstimmt.

  • 00:00:00 In diesem Abschnitt liegt der Schwerpunkt darauf, wie neuronale Netze tatsächlich lernen. Der erste Schritt besteht darin, das Netzwerk zu optimieren, indem wir die Gewichte in den verborgenen Schichten ändern, die wir zuvor von Hand festgelegt haben, damit das Netzwerk selbst sie bestimmen kann. Bei 181 potenziellen Gewichtungen wird es zu einer mühsamen Aufgabe, die Wirkung jeder einzelnen auf den Ausgabeentscheidungsraum zu visualisieren. Um die Dinge zu vereinfachen, wird eine einfache Zahl mit 12 Gewichten verwendet, und die Ausgangsknotengleichungen werden mit Entscheidungsgrenzen dargestellt, wobei P größer als Q in Rot und kleiner als Q in Blau ist. Das Ändern der gewichteten Werte im Netzwerk ändert die Steigung der Entscheidungsgrenze. Es wird beobachtet, dass alle Änderungen, die sich aus der Gewichtsoptimierung ergeben, zu linearen Ausgaben mit geraden Linien führen, bis eine Aktivierungsfunktion wie die Sigmoidfunktion angewendet wird, um Nichtlinearität hinzuzufügen. Um Deep Learning zu erreichen, ist das Ziel, dass der Lernprozess und das Gewichtstuning vom Netzwerk selbst durchgeführt werden.

  • 00:05:00 In diesem Abschnitt erklärt das Video das Konzept der Kostenfunktion und wie es hilft, die Fehlerrate des neuronalen Netzwerks zu minimieren. Das Video erklärt auch den Prozess der Backpropagation, der für die Abstimmung der Werte der neuronalen Netzwerkparameter wesentlich ist. Gradientenabstieg ist die Methode, um zu bestimmen, in welche Richtung man sich bewegen soll, und Backpropagation stimmt die Parameter tatsächlich auf diesen Wert ab, wodurch das Netzwerk die gewünschten Ergebnisse erzielen kann. Das Ziel besteht darin, die gewichteten Werte nahe an die Grundwahrheit zu bringen, um den Wert der Kostenfunktion zu minimieren. Der Prozess wiederholt sich, während das Netzwerk trainiert wird, bis die Gewichte an einem Punkt sind, an dem sie die erwarteten Ergebnisse liefern.

  • 00:10:00 In diesem Abschnitt lernen wir die drei Hauptkomponenten des maschinellen Lernens im Stamm des Konnektionismus kennen, zu denen Repräsentation, Bewertung und Optimierung gehören. Die Darstellung erfolgt durch Verwendung einer neuronalen Netzfunktion, die einen Darstellungsraum definiert, und die Auswertung erfolgt durch Berechnung des quadratischen Fehlers der Knoten am Ausgang, der verwendet wird, um eine Kosten- oder Nutzenfunktion zu erhalten. Schließlich wird eine Optimierung erreicht, indem der Raum von Repräsentationsmodulen durchsucht wird, und dies wird durch Gradientenabstieg und Backpropagation erreicht. Obwohl wir viele Verallgemeinerungen darüber gemacht haben, wie künstliche neuronale Netze funktionieren sollten, gibt es immer noch viele Dinge, die wir nicht behandelt haben. Eine solche Sache ist, dass sich das Netzwerk nicht immer in perfekten Abstraktionsschichten anordnet.
How Computers Learn | Neural Networks Explained (Gradient Descent & Backpropagation)
How Computers Learn | Neural Networks Explained (Gradient Descent & Backpropagation)
  • 2020.10.25
  • www.youtube.com
This video was made possible by Surfshark. Sign up with this link and enter the promo code 'Futurology' to get 83% off and an extra month free of your VPN pl...
 

Wie neuronale Netze funktionieren | Neuronale Netze erklärt



Wie neuronale Netze funktionieren | Neuronale Netze erklärt

Das Video erklärt den Bias-Parameter in neuronalen Netzwerken, der Knoten aktiviert, wenn ein bestimmter Schwellenwert erreicht wird, sowie den Unterschied zwischen Parametern und Hyperparametern, wobei Hyperparameter durch Optimierungstechniken feinabgestimmt werden müssen.

Die Lernrate wird ebenfalls diskutiert, und die Herausforderungen, die optimale Rate zu finden, während Overfitting oder Underfitting vermieden werden, werden hervorgehoben. Feature Engineering ist ein weiteres Teilgebiet in neuronalen Netzwerken, in dem Analysten Eingabemerkmale bestimmen müssen, die ein Problem genau beschreiben. Das Video stellt fest, dass theoretische künstliche neuronale Netze zwar perfekte Abstraktionsschichten beinhalten, in der Realität jedoch aufgrund der Art des verwendeten Netzes, das durch Auswahl der wichtigsten Hyperparameter ausgewählt wird, viel zufälliger sind.

  • 00:00:00 In diesem Abschnitt behandelt das Video einige der Konzepte, die in früheren Videos zu Deep Learning nicht behandelt wurden. Der Bias-Parameter in neuronalen Netzen wird erklärt, ein weiterer Parameter, der angepasst werden muss, um die Repräsentation zu lernen. Der Zweck des Bias-Parameters besteht darin, die Knoten so zu starten, dass sie stark aktiviert werden, wenn ein bestimmter Schwellenwert erreicht wird. Das Video erklärt, dass die Abweichung ein Y-Abschnitt einer linearen Gleichung ist, wobei das Gewicht die Steigung ist. Das Konzept von Parametern im Vergleich zu Hyperparametern wird ebenfalls diskutiert, wobei Hyperparameter Konfigurationen sind, die außerhalb des Modells liegen und deren Wert nicht aus Daten geschätzt werden kann. Die Diskussion hebt hervor, dass die Optimierung und Optimierung von Hyperparametern ein ganzes Teilgebiet des Deep Learning ist und verschiedene Techniken erforderlich sind, um die besten Werte für verschiedene Parameter zu finden. Die Lernrate, die ein Hyperparameter ist, wird ebenfalls erklärt, und der Wert der Lernrate hat enorme Auswirkungen auf die Repräsentation, die ein neuronales Netz aufbauen wird.

  • 00:05:00 In diesem Abschnitt erläutert das Video die Herausforderungen beim Finden der idealen Lernrate und des Feature-Engineering in neuronalen Netzen. Um die optimale Lernrate zu finden, braucht es viel Arbeit, um sicherzustellen, dass das neuronale Netz richtig funktioniert. Eine unangemessene Lernrate kann zu einer Überanpassung oder Unteranpassung führen, die zu einer erhöhten Rechenleistung und einem erhöhten Zeitverbrauch führen kann. Feature Engineering hingegen ist der Teilbereich, in dem ein Analyst die Eingabemerkmale bestimmen muss, die das Problem, das er oder sie zu lösen versucht, genau beschreiben. Es ist wichtig, die Merkmale zu erfassen, die das Signal verstärken und das Rauschen entfernen, da eine Unteranpassung auftreten kann, wenn wenige Merkmale vorhanden sind, während eine Überanpassung auftritt, wenn das Modell zu spezialisiert und spröde ist, um auf neue Daten zu reagieren.

  • 00:10:00 In diesem Abschnitt erklärt das Video, dass das theoretische Konzept künstlicher neuronaler Netze zwar perfekte Abstraktionsschichten beinhaltet, in Wirklichkeit aber viel zufälliger ist. Ein wichtiger Grund dafür ist die Art des Netzwerks, das für ein bestimmtes Problem verwendet wird, das durch Auswahl der wichtigsten Hyperparameter ausgewählt wird. Ein neuronales Feed-Forward-Netzwerk wird normalerweise zum Erlernen von Deep Learning gewählt, da es leicht zu verstehen ist. Inzwischen sind jedoch viele Arten von neuronalen Netzen entstanden, die für verschiedene Probleme viel besser geeignet wären, darunter Faltungsnetze und rekurrente Netze. Das Video schließt mit der Aufforderung an Einzelpersonen, ihren Verstand scharf zu halten und über kreative Lösungen für multidisziplinäre Probleme nachzudenken.
How Neural Networks Work | Neural Networks Explained
How Neural Networks Work | Neural Networks Explained
  • 2020.11.21
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Convolutional Neural Networks erklärt (CNN visualisiert)



Convolutional Neural Networks erklärt (CNN visualisiert)

Das Video erklärt Convolutional Neural Networks (CNNs) und deren Aufbau zur Bilderkennung am Beispiel der Zahlenerkennung.

Die erste verborgene Schicht, die Faltungsschicht, wendet Kernel oder Merkmalsdetektoren an, um die Eingabepixel zu transformieren und Merkmale wie Kanten, Ecken und Formen hervorzuheben, was zu mehreren Merkmalskarten führt, die einer Nichtlinearitätsfunktion unterzogen werden.

Die neu erstellten Feature-Maps werden als Eingaben für die nächste verborgene Schicht verwendet, eine Pooling-Schicht, die die Dimensionen der Feature-Maps reduziert und dabei hilft, weitere Abstraktionen in Richtung der Ausgabe aufzubauen, indem wichtige Informationen beibehalten werden. Die Pooling-Schicht reduziert die Überanpassung und beschleunigt gleichzeitig die Berechnung durch Downsampling von Feature-Maps. Die zweite Komponente von CNN ist der Klassifikator, der aus vollständig verbundenen Schichten besteht, die High-Level-Features verwenden, die aus der Eingabe abstrahiert werden, um Bilder korrekt zu klassifizieren.

  • 00:00:00 In diesem Abschnitt stellt das Video Convolutional Neural Networks (CNNs) und deren Aufbau zur Bilderkennung am Beispiel der Zahlenerkennung vor. Das Video erklärt, dass Bilder in digitalen Geräten als Matrizen von Pixelwerten gespeichert werden und jede Matrix ein Kanal oder eine Komponente des Bildes ist. Die erste verborgene Schicht, die Faltungsschicht, wendet Kernel oder Merkmalsdetektoren an, um die Eingabepixel zu transformieren und Merkmale wie Kanten, Ecken und Formen hervorzuheben, was zu mehreren Merkmalskarten führt, die einer Nichtlinearitätsfunktion unterzogen werden, um sich an die reale Welt anzupassen Daten. Die neu erstellten Feature-Maps werden als Eingaben für die nächste verborgene Schicht verwendet, eine Pooling-Schicht, die die Dimensionen der Feature-Maps reduziert und dabei hilft, weitere Abstraktionen in Richtung der Ausgabe aufzubauen, indem wichtige Informationen beibehalten werden.

  • 00:05:00 In diesem Abschnitt behandelt das Video die Merkmale und Funktionen der Pooling-Schicht in Convolutional Neural Networks (CNN). Pooling ist ein Prozess, der Overfitting reduziert und gleichzeitig die Berechnung durch Downsampling von Feature-Maps beschleunigt. Beim Max-Pooling wird ein Kernel über Eingabe-Feature-Maps geschoben und der größte Pixelwert in diesem Bereich wird in einer neuen Ausgabe-Map gespeichert. Die erhaltenen Merkmalskarten behalten typischerweise wichtige Informationen aus der Faltungsschicht bei, während sie immer noch eine niedrigere räumliche Auflösung zulassen. Dieser Abschnitt behandelt auch die zweite Komponente von CNN: den Klassifikator, der aus vollständig verbundenen Schichten besteht, die die aus der Eingabe abstrahierten High-Level-Features verwenden, um Bilder korrekt zu klassifizieren.
Convolutional Neural Networks Explained (CNN Visualized)
Convolutional Neural Networks Explained (CNN Visualized)
  • 2020.12.19
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Warum funktionieren Convolutional Neural Networks so gut?



Warum funktionieren Convolutional Neural Networks so gut?

Der Erfolg von Convolutional Neural Networks (CNNs) liegt in ihrer Verwendung niedrigdimensionaler Eingaben, wodurch sie mit nur Zehntausenden von beschrifteten Beispielen leicht trainierbar sind.

Erfolg wird auch durch die Verwendung von Faltungsschichten erzielt, die aufgrund der Komprimierbarkeit von Pixelflecken, die in der realen Welt, aber nicht unbedingt in künstlich neu angeordneten Bildern vorhanden sind, nur kleine Mengen nützlicher Informationen ausgeben. Obwohl CNNs zur Durchführung verschiedener Bildverarbeitungsaufgaben verwendet werden, kann ihr Erfolg nicht vollständig auf ihre Lernfähigkeit zurückgeführt werden, da sowohl Menschen als auch neuronale Netze nicht aus hochdimensionalen Daten lernen können. Stattdessen müssen vor dem Training fest codierte räumliche Strukturen in ihrer Architektur vorhanden sein, um die Welt zu „sehen“.

  • 00:00:00 In diesem Abschnitt erklärt das Video, wie Modelle des maschinellen Lernens durch Kurvenanpassung funktionieren, bei der es darum geht, eine Funktion zu finden, die so nah wie möglich an einer Sammlung von Punkten liegt. Die Beschreibung eines Bildes würde jedoch einen hochdimensionalen Punkt erfordern, bei dem jede Koordinate eine bestimmte Pixelintensität darstellt. Dies stellt ein Problem dar, da der Eingaberaum aller 32x32-Bilder 3.072 Dimensionen hat, und um diesen Raum dicht zu füllen, müsste man ungefähr 9^3072 Bilder beschriften, eine Zahl, die deutlich größer ist als die Anzahl der Teilchen im Universum. Das Video weist auch darauf hin, dass das Klassifizieren von Bildern in zwei Kategorien wie im vorherigen Beispiel immer noch kein dichtes Füllen des Raums erfordern würde.

  • 00:05:00 In diesem Abschnitt erklärt das Video, wie hochdimensionale Eingaben wie Bilder eine Herausforderung beim Training neuronaler Netze darstellen. Die Lösung liegt darin, niedrigdimensionale Eingaben zu verwenden, wie z. B. einen 3x3-Pixel-Patch eines Bildes, und es dem neuronalen Netzwerk zu ermöglichen, aus mehreren Patches zu lernen, sodass es größere Bereiche der ursprünglichen Eingabe berücksichtigen kann. Durch aufeinanderfolgende Schichten kann das neuronale Netzwerk schließlich das gesamte Bild betrachten und genaue Vorhersagen treffen. Dieser Ansatz wird als Convolutional Neural Network bezeichnet und kann eine Testgenauigkeitsrate von 95,3 % auf dem CIFAR10-Datensatz erreichen.

  • 00:10:00 In diesem Abschnitt wird erklärt, warum das Convolutional Neural Network (CNN) so gut funktioniert. Diese Netzwerke haben niedrigdimensionale Eingaben, wodurch sie mit nur Zehntausenden von beschrifteten Beispielen leicht trainierbar sind. Während die gängige Praxis die Ausgabe von Hunderten oder sogar Tausenden von Zahlen durch eine Schicht erfordert, entspricht dies nicht der Realität. Da neuronale Netze mit kleinen zufälligen Gewichtungen beginnen und durch kleine Änderungen lernen, um nützlichere Informationen aus der Eingabe zu erfassen, zeigen neuronale Netze, dass nicht alle Ausgabezahlen nützliche Informationen enthalten. Daher sind Faltungsschichten in ihrer Komprimierung nicht streng, da Schichten nur kleine Mengen nützlicher Informationen ausgeben. Dies liegt an der Komprimierbarkeit von Pixelflecken, die in der natürlichen Welt existieren, aber möglicherweise nicht in künstlich neu angeordneten Bildern existieren.

  • 00:15:00 In diesem Abschnitt wird erklärt, dass, obwohl Faltungsneuronale Netze verwendet werden, um verschiedene Bildverarbeitungsaufgaben auszuführen, ihr Erfolg nicht vollständig ihrer Lernfähigkeit zugeschrieben werden kann. Sowohl für Menschen als auch für neuronale Netze ist es nicht möglich, aus hochdimensionalen Daten zu lernen. Während Menschen von Geburt an mit dem Wissen darüber ausgestattet sind, wie die Welt funktioniert, benötigen neuronale Faltungsnetze eine fest codierte räumliche Struktur in ihrer Architektur, bevor das Training beginnt, um die Welt „sehen“ zu können, ohne aus Daten lernen zu müssen.
Why do Convolutional Neural Networks work so well?
Why do Convolutional Neural Networks work so well?
  • 2022.10.29
  • www.youtube.com
While deep learning has existed since the 1970s, it wasn't until 2010 that deep learning exploded in popularity, to the point that deep neural networks are n...