Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Die Revolution der KI | Künstliche Intelligenz erklärt | Neue Technologien | Robotik
Die Revolution der KI | Künstliche Intelligenz erklärt | Neue Technologien | Robotik
Dieses Video untersucht die Revolution der KI, beginnend mit der Zukunft von autonomen Fahrzeugen und selbstlernenden Robotern, die in der Lage sind, sich in komplexem Gelände zurechtzufinden, Such- und Rettungsmissionen durchzuführen und mit Menschen in kollaborativen Arbeitsumgebungen zu interagieren. Die Entwicklung der Schwarmrobotik zeigt ein enormes Potenzial zur Verbesserung von Bereichen wie Landwirtschaft, Gesundheitswesen und Katastrophenschutz. Forscher arbeiten daran, Roboter selbstbewusster und in der Lage zu machen, durch Verarbeitung natürlicher Sprache zu kommunizieren, hyperrealistische digitale Avatare und menschenähnlichere Androiden zu schaffen, die als holografische Assistenten oder Begleiter für ältere und sozial isolierte Menschen dienen könnten. Während die Vorteile der KI bei der Verbesserung der Gesellschaft immens sind, müssen die Entwickler auch ethische Überlegungen anstellen und Rechenschaft ablegen, um die Ausrichtung der KI auf positive Absichten sicherzustellen.
Tauchen Sie tief in die KI-Hardware von ChatGPT ein
Tauchen Sie tief in die KI-Hardware von ChatGPT ein
Welche Hardware wurde verwendet, um ChatGPT zu trainieren, und was braucht es, um es am Laufen zu halten? In diesem Video werfen wir einen Blick auf die KI-Hardware hinter ChatGPT und finden heraus, wie Microsoft und OpenAI maschinelles Lernen und Nvidia-GPUs verwenden, um fortschrittliche neuronale Netze zu erstellen.
Das Video diskutiert die Hardware, die für das Training und die Inferenz in ChatGPT verwendet wird, einem auf natürlichem Text basierenden Chat-Konversations-KI-Modell. Der KI-Supercomputer von Microsoft wurde mit über 10.000 Nvidia V100-GPUs und 285.000 CPU-Kernen für das Training von GPT-3 gebaut, was auch zur Entwicklung von ChatGPT beitrug. ChatGPT wurde wahrscheinlich auf die Azure-Infrastruktur abgestimmt, wobei 4.480 Nvidia A100-GPUs und über 70.000 CPU-Kerne für das Training verwendet wurden. Als Schlussfolgerung wird ChatGPT wahrscheinlich auf einer einzelnen Nvidia DGX- oder HGX A100-Instanz auf Microsoft Azure-Servern ausgeführt. Das Video erwähnt auch die Kosten für den Betrieb von ChatGPT in großem Maßstab und die potenziellen Auswirkungen neuer KI-Hardware wie neuronale Verarbeitungseinheiten und KI-Engines.
Nvidia-CEO Jensen Huang darüber, wie sich seine große Wette auf KI endlich auszahlt – vollständiges Interview
Nvidia-CEO Jensen Huang darüber, wie sich seine große Wette auf KI endlich auszahlt – vollständiges InterviewJensen Huang, CEO von Nvidia, hebt die Agilität und Neuerfindung des Unternehmens hervor und betont seine Bereitschaft, große Wetten einzugehen und vergangene Fehler zu vergessen, um in der schnelllebigen Technologiebranche relevant zu bleiben. Nvidias Ziel war es immer, ein Unternehmen für Computerplattformen zu sein, und seine Mission, beschleunigtes Computing für allgemeine Zwecke zu schaffen, führte zu seinem Erfolg im Bereich der künstlichen Intelligenz. Huang diskutiert auch die Demokratisierung der KI-Technologie und ihre möglichen Auswirkungen auf kleine Startups und verschiedene Branchen. Er ermutigt Menschen, die Vorteile von KI zu nutzen, um ihre Produktivität zu steigern, und hebt Nvidias einzigartigen Ansatz hervor, vielseitige und leistungsstarke Allzweck-Accelerated-Computing-Plattformen bereitzustellen. Schließlich erörtert Huang die Bedeutung von Resilienz, Vielfalt und Redundanz in der Fertigungsindustrie und die nächste große Neuerfindung des Unternehmens in der KI, die die physische Welt durch die Schaffung von Omniverse trifft.
OpenAI-CEO Sam Altman | KI für die nächste Ära
OpenAI-CEO Sam Altman | KI für die nächste Ära
Sam Altman, CEO von OpenAI, erörtert das Potenzial künstlicher Intelligenz zur Verbesserung von Sprachmodellen, multimodalen Modellen und maschinellem Lernen sowie deren potenzielle Auswirkungen auf die Finanzmärkte. Er sagt auch voraus, dass das Feld wettbewerbsfähig bleiben wird, da regelmäßig neue Anwendungen erscheinen werden.
wichtiger Teil des Lebens.
Demis Hassabis von DeepMind über die Zukunft der KI | Das TED-Interview
Demis Hassabis von DeepMind über die Zukunft der KI | Das TED-Interview
Im TED-Interview spricht Demis Hassabis über die Zukunft der künstlichen Intelligenz und wie sie zu mehr Kreativität führen wird. Er argumentiert, dass Spiele ein ideales Trainingsgelände für künstliche Intelligenz sind und dass Schach in Schulen als Teil eines breiteren Lehrplans gelehrt werden sollte, der Kurse zum Spieldesign umfasst.
Zukunft der künstlichen Intelligenz (2030 – 10.000 n. Chr.+)
Zukunft der künstlichen Intelligenz (2030 – 10.000 n. Chr.+)
Das Video sagt voraus, dass die KI-Technologie weiter wachsen und sich weiterentwickeln wird, was in den nächsten Jahrzehnten zur Entstehung von Superintelligenz und Robotern mit Bewusstsein auf menschlicher Ebene führen wird. Virtuelle Wesen mit Selbstbewusstsein und Emotionen werden weit verbreitet sein, und humanoide Roboter werden so weit entwickelt sein, dass sie sich nahtlos in Menschen einfügen können. Es wird Oppositionsgruppen geben, die für die Rechte bewusster virtueller Wesen kämpfen, während Menschen mit KIs verschmelzen, um in nur einer Stunde den intellektuellen Fortschritt eines Jahrhunderts zu vollbringen. Die am weitesten entwickelten Superintelligenzen werden in der Lage sein, Humanoide zu erschaffen, die sich in jede Person verwandeln und in der Luft fliegen können, während bewusste Robotersonden, die aus selbstreplizierenden Nanobots bestehen, durch Wurmlöcher zu anderen Galaxien geschickt werden. In Zukunft werden Menschen und KI-Hybride in höhere Dimensionen transzendieren und Gottheiten der Vergangenheit ähneln.
Lassen Sie uns GPT erstellen: von Grund auf neu, im Code, ausgeschrieben
Lassen Sie uns GPT erstellen: von Grund auf neu, im Code, ausgeschrieben
Wir bauen einen Generatively Pretrained Transformer (GPT) nach dem Paper „Attention is All You Need“ und OpenAIs GPT-2 / GPT-3. Wir sprechen über Verbindungen zu ChatGPT, das die Welt im Sturm erobert hat. Wir sehen zu, wie GitHub Copilot, selbst ein GPT, uns hilft, ein GPT zu schreiben (meta :D!) . Ich empfehle den Leuten, sich die früheren Makemore-Videos anzusehen, um sich mit dem autoregressiven Sprachmodellierungsframework und den Grundlagen von Tensoren und PyTorch nn vertraut zu machen, die wir in diesem Video als selbstverständlich ansehen.
Dieses Video stellt den GPT-Algorithmus vor und zeigt, wie man ihn mithilfe von Code von Grund auf neu erstellt. Der Algorithmus wird verwendet, um das nächste Zeichen in einer Textsequenz vorherzusagen, und ist als PyTorch-Modul implementiert. Das Video zeigt, wie das Modell eingerichtet, trainiert und die Ergebnisse ausgewertet werden.
Dieses Video zeigt, wie Sie ein Selbstaufmerksamkeitsmodul im Code erstellen. Das Modul verwendet eine lineare Interaktionsebene, um die Aufmerksamkeit eines einzelnen Kopfes zu verfolgen. Das Selbstaufmerksamkeitsmodul wird als tabellarische Matrix implementiert, die das Gewicht jeder Spalte ausblendet und dann normalisiert, um datenabhängige Affinitäten zwischen Token zu erstellen.
MIT 6.801 Machine Vision, Herbst 2020. Vorlesung 1: Einführung in Machine Vision
Vorlesung 1: Einführung in die Bildverarbeitung
Die Vorlesung "Einführung in die Bildverarbeitung" gibt einen umfassenden Überblick über die Kurslogistik und -ziele, wobei der Schwerpunkt auf dem physikbasierten Ansatz zur Bildanalyse liegt. Es behandelt Bildverarbeitungskomponenten, schlecht gestellte Probleme, Oberflächenorientierung und die Herausforderungen der Bildverarbeitung. Der Dozent stellt auch das Optimierungsverfahren der kleinsten Quadrate und das in Kameras verwendete Pinhole-Modell vor. Das kamerazentrische Koordinatensystem, die optische Achse und die Verwendung von Vektoren werden ebenfalls kurz besprochen. Der Kurs zielt darauf ab, die Studenten auf fortgeschrittenere Kurse zur maschinellen Bildverarbeitung und reale Anwendungen von Mathematik und Physik in der Programmierung vorzubereiten.
Der Referent erörtert auch verschiedene Konzepte im Zusammenhang mit der Bilderzeugung, einschließlich Vektornotation für perspektivische Projektion, Oberflächenbeleuchtung, Verkürzung von Oberflächenelementen und wie 3D-Sichtprobleme unter Verwendung von 2D-Bildern gelöst werden können. Der Dozent erklärt, wie sich die Beleuchtung auf einer Oberfläche mit dem Einfallswinkel ändert und die Kosinusbeziehung zwischen der Rotlänge und der Oberflächenlänge, die verwendet werden kann, um die Helligkeit verschiedener Teile einer Oberfläche zu messen. Aufgrund von zwei Unbekannten kann es jedoch schwierig sein, die Ausrichtung jeder kleinen Facette eines Objekts zu bestimmen. Der Referent erklärt auch den Grund, warum wir ein 3D-Sehproblem mit 2D-Bildern lösen können, und erwähnt abschließend, dass die Mathematik für die Tomographie einfach ist, aber die Gleichungen kompliziert sind, was es schwierig macht, Inversionen durchzuführen.
Vorlesung 2: Bildentstehung, Perspektivprojektion, Zeitableitung, Bewegungsfeld
Vorlesung 2: Bildentstehung, Perspektivprojektion, Zeitableitung, Bewegungsfeld
In dieser Vorlesung wird das Konzept der perspektivischen Projektion und seine Beziehung zur Bewegung ausführlich diskutiert. Der Dozent demonstriert, wie die Verwendung der Differentiation der perspektivischen Projektionsgleichung helfen kann, die Bewegung von Helligkeitsmustern im Bild zu messen und wie sie sich auf die Bewegung in der realen Welt bezieht. Der Vortrag behandelt auch Themen wie den Fokus der Expansion, kontinuierliche und diskrete Bilder und die Bedeutung eines Referenzpunkts für die Textur, wenn die Geschwindigkeit eines Objekts in einem Bild geschätzt wird. Darüber hinaus berührt die Vorlesung totale Ableitungen entlang von Kurven und die Problematik des Zählens von Gleichungen und Einschränkungen beim Versuch, das Vektorfeld des optischen Flusses wiederherzustellen.
Der Referent behandelt verschiedene Themen wie Helligkeitsverlauf, Bewegung eines Objekts, den 2D-Fall und Isophoten. Eine Herausforderung bei der Berechnung der Geschwindigkeit eines Objekts ist das Aperturproblem, das durch die proportionale Beziehung des Helligkeitsgradienten verursacht wird, das gelöst wird, indem entweder Beiträge zu verschiedenen Bildbereichen gewichtet oder nach minimalen Lösungen gesucht werden. Der Vortrag geht dann auf die verschiedenen Fälle von Isophoten ein und betont, wie wichtig es ist, bei der Bestimmung der Geschwindigkeit eine aussagekräftige Antwort im Gegensatz zu einer verrauschten zu berechnen, indem das Konzept der Rauschverstärkung verwendet wird, das die Empfindlichkeit der Bildänderung gegenüber der Ergebnisänderung misst .
Vortrag 3: Kontaktzeit, Fokus der Expansion, Direct Motion Vision Methoden, Noise Gain
Vortrag 3: Kontaktzeit, Fokus der Expansion, Direct Motion Vision Methoden, Noise Gain
In diesem Vortrag wird das Konzept der Rauschverstärkung in Bezug auf maschinelle Bildverarbeitungsprozesse betont, wobei der Schwerpunkt auf verschiedenen Richtungen und Variationen in der Genauigkeit liegt. Der Dozent erörtert die Bedeutung der genauen Messung von Vektoren und des Verständnisses der Verstärkung, um Fehler bei Berechnungen zu minimieren. Der Vortrag behandelt das Konzept der Zeit bis zum Kontakt, den Fokus der Expansion und Bewegungsfelder, mit einer Demonstration, wie man radiale Gradienten berechnet, um die Zeit bis zum Kontakt abzuschätzen. Der Dozent demonstriert außerdem anhand einer Live-Demonstration mit einer Webkamera, wie Einschränkungen bei Frame-by-Frame-Berechnungen mithilfe von Multiskalen-Superpixeln überwunden werden können. Insgesamt bietet die Vorlesung nützliche Einblicke in die Komplexität von Bildverarbeitungsprozessen und wie man verschiedene Größen genau misst.
Der Vortrag behandelt verschiedene Aspekte des Bewegungssehens und ihre Anwendung bei der Bestimmung der Zeit bis zum Kontakt, des Fokus der Expansion und der Methoden des direkten Bewegungssehens. Der Referent demonstriert Werkzeuge zur Visualisierung von Zwischenergebnissen, räumt aber auch deren Grenzen und Fehler ein. Zusätzlich wird das Problem des Umgangs mit willkürlichen Bewegungen in der Bildverarbeitung angegangen, und die Bedeutung benachbarter Punkte, die sich mit ähnlichen Geschwindigkeiten bewegen, wird betont. Der Vortrag befasst sich auch mit den Mustern, die den Erfolg von Methoden des direkten Bewegungssehens beeinflussen, und führt neue Variablen ein, um die Zeit bis zum Kontakt und Feind bequemer zu definieren. Schließlich wird der Prozess des Lösens von drei linearen Gleichungen und drei Unbekannten diskutiert, um zu verstehen, wie verschiedene Variablen das Bewegungssehen beeinflussen, zusammen mit der Parallelisierung des Prozesses, um die Berechnung zu beschleunigen.