Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Vorlesung 22. Graphoptimierung
Vorlesung 22. Graphoptimierung
Das Video behandelt das Konzept eines Graphen, verschiedene Darstellungsmöglichkeiten und Optimierungstechniken zur Verbesserung der Effizienz von Graphalgorithmen. Der Referent untersucht Anwendungen von Graphen bei der Modellierung von Beziehungen und beim Finden des kürzesten oder billigsten Weges, um ein Ziel zu erreichen, zusammen mit optimalen Möglichkeiten, Graphen im Speicher zu speichern, um Kanten hinzuzufügen, zu löschen oder zu scannen. Das Video behandelt auch die Optimierung der Cache-Leistung bei Graphsuchen durch die Verwendung von Bitvektoren sowie die Implementierung des parallelen Breitensuchalgorithmus mit Präfixsummen zum Herausfiltern negativer Werte. Abschließend spricht der Referent über seine Experimente an einem Zufallsgraphen mit zehn Millionen Scheitelpunkten und hundert Millionen Kanten und betont die Bedeutung des Determinismus im Code, um Zuverlässigkeit und Konsistenz zu gewährleisten.
Das Video diskutiert auch verschiedene Graphoptimierungstechniken, einschließlich der Implementierung des richtigen Min-Operators, deterministischem parallelem BFS-Code, Richtungsoptimierungstechnik und Graphkomprimierung. Die Richtungsoptimierungstechnik beinhaltet einen Bottom-up-Ansatz zur Untersuchung eingehender Kanten, wenn die Grenze groß ist, und wurde auf andere Graphalgorithmen angewendet, während die Graphkomprimierung darauf abzielt, die Speichernutzung zu reduzieren, indem die Unterschiede zwischen aufeinanderfolgenden Kanten codiert und die Anzahl der verwendeten Bits reduziert werden um diese Werte zu speichern. Darüber hinaus betont das Video, wie wichtig es ist, die Optimierungen an verschiedenen Arten von Diagrammen zu testen, um festzustellen, wo sie gut funktionieren und wo nicht.
Vorlesung 23. Hochleistung in dynamischen Sprachen
Vorlesung 23. Hochleistung in dynamischen Sprachen
Die Herausforderungen beim Schreiben von leistungskritischem Code in dynamisch typisierten High-Level-Sprachen werden in diesem Video mit Schwerpunkt auf der Programmiersprache Julia erörtert. Julia zielt darauf ab, interaktive Funktionen auf hohem Niveau bereitzustellen und gleichzeitig das gleiche Leistungsniveau wie Sprachen auf niedrigerem Niveau wie C und Fortran zu liefern. Julias Fähigkeit, generischen Code zu schreiben, der für mehrere Typen funktioniert, integrierte Metaprogrammierung und optimierte Codepfade machen es in Situationen wie dem Generieren großer Vandermonde-Matrizen und optimiertem Code für bestimmte Polynome in speziellen Funktionen schneller als Python. Darüber hinaus weisen Julias optimierte Codepfade Boxen viel schneller zu als Python, was es zu einer besseren Wahl für den Umgang mit dynamischen Datenstrukturen wie Arrays macht. Schließlich erörtert das Video Julias multiple Dispatch- und Type-Inference-Fähigkeiten, die es ermöglichen, dass verschiedene Versionen einer Funktion für verschiedene Argumente und Typen rekursiv abgeleitet werden können.
In diesem Video wird auch erklärt, wie parametrischer Polymorphismus in Julia funktioniert und wie er die Erstellung unendlicher Typenfamilien ermöglicht. Durch Definieren eines parametrisierten Typs, wie z. B. eines Punkttyps mit Parametern für X und Y, und Festlegen dieser Parameter auf einen Subtyp von Real, kann man einen ganzen Satz von Typen erstellen, die mit einem bestimmten Subtyp "instanziiert" werden können. Darüber hinaus erörtert der Referent Julias Fähigkeiten und Bibliotheken zur Implementierung von Threading, Garbage Collection und verteilter Speicherparallelität sowie ihre breite Palette an Unicode-Unterstützung für Bezeichner. Darüber hinaus wird betont, wie wichtig es ist, Variablen mit richtigen und aussagekräftigen Namen zu haben, und der Redner erwähnt ein Projekt, das die Verschmelzung der Julia-Technologie mit der Silk-Technologie untersucht, was zu neuen Entwicklungen in der Zukunft führen könnte.
Richard Feynman: Können Maschinen denken?
Richard Feynman: Können Maschinen denken?
In dem Video „Richard Feynman: Can Machines Think?“ argumentiert Feynman, dass Maschinen zwar in vielen Dingen wie Arithmetik, Problemlösung und Verarbeitung großer Datenmengen besser sind als Menschen, Maschinen aber niemals menschenähnliches Denken und Intelligenz erreichen werden. Maschinen haben Probleme mit der Erkennung von Bildern aufgrund von Komplexitäten wie Licht- und Entfernungsschwankungen, und obwohl Computer Muster erkennen, können sie keine neuen Ideen und Beziehungen selbst entdecken. Feynman diskutiert auch die Effektivität des Einsatzes von Maschinen für die Wettervorhersage und andere komplexe Aufgaben, indem er das Beispiel eines Mannes namens Lumic anführt, der eine Liste von Heuristiken verwendete, um die Marinemeisterschaft in Kalifornien zu gewinnen. Um intelligente Maschinen herzustellen, schlägt Feynman vor, dass Entwickler schleichend entstehende psychologische Verzerrungen vermeiden und sich stattdessen darauf konzentrieren, neue Wege zur Vermeidung von Arbeit zu finden, da Maschinen die notwendigen Schwächen der Intelligenz aufweisen.
KI im Auge: Ilya Sutskever
KI im Auge: Ilya Sutskever
Ilya Sutskever diskutiert in diesem Video eine Vielzahl von Themen im Zusammenhang mit KI. Er teilt sein frühes Interesse an KI und maschinellem Lernen und beschreibt, wie seine Zusammenarbeit mit Jeff Hinton zur Entwicklung des konvolutionellen neuronalen Netzwerks AlexNet führte. Sutskever spricht auch über die Herausforderungen und Grenzen von Sprachmodellen und argumentiert, dass sie mehr tun, als nur statistische Regelmäßigkeiten zu lernen, und dass die Darstellung von Ideen und Konzepten eine wichtige Errungenschaft ist. Er diskutiert auch die Notwendigkeit großer Datenmengen und schnellerer Prozessoren im KI-Training und schlägt die Möglichkeit einer Demokratieform mit hoher Bandbreite vor, bei der Einzelpersonen Daten eingeben, um festzulegen, wie sich Systeme verhalten sollen.
Mathematik für maschinelles Lernen - Multivariate Berechnungen - Vollständiges Online-Spezialgebiet
Mathematik für maschinelles Lernen - Multivariate Berechnungen - Vollständiges Online-Spezialgebiet
Teil 1
Teil 2
Teil 3
Teil 4
ETL-Sprecherreihe: Ilya Sutskever, OpenAI
ETL-Sprecherreihe: Ilya Sutskever, OpenAI
In einem YouTube-Video mit dem Titel „ETL Speaker Series: Ilya Sutskever, OpenAI“ diskutiert Ilya Sutskever, Mitbegründer und Chefwissenschaftler von OpenAI, Themen wie große Sprachmodelle, die Prämisse hinter künstlichen Neuronen, Bewusstsein in der KI und die Finanzstruktur von gemeinnützige KI-Organisationen. Sutskever betont die Bedeutung des technischen Fortschritts und der Durchführung guter Forschung für den Erfolg von OpenAI und ermutigt Studenten, die sich für KI und Unternehmertum interessieren, ihre einzigartigen Ideen zu erforschen. Er prognostiziert auch, dass Verbesserungen in verschiedenen Schichten des Deep-Learning-Stacks und der Fachschulung in Zukunft einen großen Einfluss haben werden. Abschließend danken die Gastgeber Sutskever für seine aufschlussreiche Diskussion und laden ihn zu zukünftigen Veranstaltungen ein, während sie die Zuschauer auch auf die Stanford E-Corner-Website verweisen, auf der sie weitere Ressourcen zu Unternehmertum und Innovation finden.
Ilya Sutskever (OpenAI Chief Scientist) – Building AGI, Alignment, Spies, Microsoft, & Enlightenment
Ilya Sutskever (OpenAI Chief Scientist) – Building AGI, Alignment, Spies, Microsoft, & Enlightenment
Ilya Sutskever, Chief Scientist von OpenAI, behandelt in diesem Video eine Reihe von Themen, darunter das Potenzial für illegale Verwendungen von GPT, die Bedeutung der Zuverlässigkeit in KI-Systemen, die Rolle der Mensch-Maschine-Kollaboration beim Erstellen von AGI, Software- und Hardwarebeschränkungen von AGI und das Potenzial wissenschaftlicher Forschung. Er glaubt, dass eine Kombination von Ansätzen notwendig sein wird, um die Wahrscheinlichkeit von Fehlausrichtungen beim Aufbau von AGI zu verringern, und dass Durchbrüche, die für übermenschliche KI benötigt werden, sich im Nachhinein nicht unbedingt wie Durchbrüche anfühlen. Er betont auch den Wert des menschlichen Inputs in Unterrichtsmodellen und weist darauf hin, dass die Auswirkungen von Sprachmodellen über die digitale Welt hinausreichen können.
Lektion 1: Praktisches Deep Learning für Programmierer 2022
Lektion 1: Praktisches Deep Learning für Programmierer 2022
In diesem YouTube-Video „Lektion 1: Praktisches Deep Learning für Programmierer 2022“ stellt der Kursleiter den Kurs vor, hebt das schnelle Tempo des Wandels beim Deep Learning hervor und demonstriert, wie einfach es ist, mit Python ein „Vogel oder nicht Vogel“-System zu erstellen. Der Kurs zielt darauf ab, den Teilnehmern zu zeigen, wie man zuerst Modelle erstellt und bereitstellt, anstatt mit einer Wiederholung der linearen Algebra und Analysis zu beginnen, und behandelt eine Reihe von Deep-Learning-Modellen, einschließlich bildbasierter Algorithmen, die Geräusche oder Mausbewegungen klassifizieren können. Der Kursleiter betont die Bedeutung der Datenblockerstellung, des Verständnisses von Merkmalsdetektoren und der Verwendung vortrainierter Modelle zur Reduzierung der Codierungsanforderungen. Der Kurs behandelt auch Segmentierung und tabellarische Analyse, wobei fast.ai Best Practices bereitstellt, die dazu beitragen, die Codierung zu reduzieren und die Ergebnisse zu verbessern.
Das Video bietet eine Einführung in Deep Learning und seine Anwendungen in verschiedenen Bereichen. Der Referent erörtert die Grundlagen des maschinellen Lernens, einschließlich des Prozesses des Modelltrainings und der Bedeutung der Verlustberechnung, um das Gewicht des Modells für eine bessere Leistung zu aktualisieren. Die Lektion behandelt zwei Modelle: Tabellenlernen und kollaboratives Filtern. Der Referent hebt auch die Nützlichkeit von Jupyter-Notebooks beim Erstellen und Teilen von Code hervor, einschließlich Beispielen früherer Studentenprojekte, die zu neuen Startups, wissenschaftlichen Arbeiten und Stellenangeboten geführt haben. Die wichtigste Erkenntnis ist, dass angehende Deep Learner experimentieren und ihre Arbeit mit der Community teilen sollten, um wertvolles Feedback und Erfahrungen zu sammeln.
Lektion 2: Praktisches Deep Learning für Programmierer 2022
Lektion 2: Praktisches Deep Learning für Programmierer 2022
Diese YouTube-Videoserie bietet eine Einführung in Deep Learning für Programmierer. Es behandelt Themen wie Datenvorbereitung, Modellerstellung und Bereitstellung eines Modells für maschinelles Lernen.
In diesem Video bringt Hacker Jeremy Howard Menschen bei, wie sie mithilfe von Deep Learning ihre eigenen Web-Apps erstellen können. Er behandelt, wie man ein Projekt in Git aufsetzt, wie man den Umarmungsraum nutzt, um ein Modell hochzuladen, an dem trainiert werden soll, natürliche Sprachverarbeitung und wie man Text erkennt.
Lektion 3: Praktisches Deep Learning für Programmierer 2022
Lektion 3: Praktisches Deep Learning für Programmierer 2022
Dieses Video bietet eine Einführung in praktisches Deep Learning für Programmierer. Es behandelt die Grundlagen der Matrixmultiplikation und Gradienten und zeigt, wie ein Deep-Learning-Modell verwendet wird, um die Wahrscheinlichkeit von Hunde- und Katzenrassen vorherzusagen. Dieses Video bietet eine kurze Einführung in Deep Learning für Programmierer, einschließlich einer Diskussion darüber, wie lange es dauern kann, bis man bei der Matrixmultiplikation ein intuitives Gefühl dafür bekommt. Die nächste Lektion konzentriert sich auf die Verarbeitung natürlicher Sprache, bei der es darum geht, Textdaten zu nehmen und auf der Grundlage ihrer Prosa Vorhersagen zu treffen.