Apprendimento automatico e Reti Neurali - pagina 11

 

Heroes of Deep Learning: Andrew Ng intervista il capo della ricerca Baidu, Yuanqing Lin




Heroes of Deep Learning: Andrew Ng intervista il capo della ricerca Baidu, Yuanqing Lin

Yuanqing Lin, Head of Baidu Research e Head of China's National Lab on Deep Learning, parla della fondazione del laboratorio nazionale e del suo impatto sulla comunità del deep learning. Lin fornisce approfondimenti sugli investimenti della Cina nel deep learning e su come ha portato alla crescita in vari settori. Sottolinea l'importanza dei cicli di feedback nello sviluppo dell'IA e come questo aiuti a creare algoritmi e tecnologie migliori. Lin consiglia alle persone di stabilire una solida base nell'apprendimento automatico e di iniziare con un framework open source per entrare nel campo con successo.

  • 00:00:00 In questa sezione, Yuanqing Lin, capo di Baidu Research e capo del China's National Lab on Deep Learning, parla della sua storia personale e di come è entrato nel campo dell'apprendimento automatico. Lin condivide di aver spostato la sua area di studio dalla fisica all'apprendimento automatico per il suo programma di dottorato presso UPenn, che ha trovato un'esperienza molto eccitante in cui ha imparato cose nuove ogni giorno. Alla fine ha lavorato a un progetto di successo per l'ImageNet Challenge, che gli ha dato visibilità a compiti di visione artificiale su larga scala e lo ha ispirato a lavorare sull'apprendimento approfondito. In qualità di capo del China's National Lab, l'obiettivo di Lin è costruire la più grande piattaforma di deep learning del paese, offrendo risorse a ricercatori e sviluppatori per migliorare la tecnologia esistente e svilupparne di nuove per grandi applicazioni.

  • 00:05:00 In questa sezione, Yuanqing Lin, Head of Baidu Research, parla del nuovo laboratorio nazionale AI e dell'impatto che avrà sulla comunità del deep learning. Sottolinea come il laboratorio fornirà una struttura informatica per l'esecuzione di modelli di deep learning, che renderanno molto più semplice la riproduzione della ricerca. Discute anche dell'investimento della Cina nel deep learning e di come abbia portato alla crescita in una varietà di settori come l'e-commerce, la sorveglianza e altro ancora. Lin sottolinea l'importanza dei cicli di feedback nello sviluppo dell'IA e come questo aiuti a creare algoritmi e tecnologie migliori. Nel complesso, ritiene che la comunità del deep learning trarrà grandi vantaggi dalle risorse e dall'esperienza del laboratorio.

  • 00:10:00 In questa sezione, Yuanqing Lin, Head of Baidu Research, sottolinea l'importanza di avere una visione e una direzione forti affinché l'azienda abbia successo nel campo del deep learning e dell'intelligenza artificiale. Consiglia alle persone che entrano nel campo di iniziare con un framework open source e acquisire familiarità con le risorse di benchmarking. Lin consiglia alle persone di stabilire una solida base nell'apprendimento automatico per comprendere appieno il funzionamento del deep learning.
Heroes of Deep Learning: Andrew Ng interviews Head of Baidu Research, Yuanqing Lin
Heroes of Deep Learning: Andrew Ng interviews Head of Baidu Research, Yuanqing Lin
  • 2017.08.08
  • www.youtube.com
p vs np, probability, machine learning, ai, neural networks, data science, programming, statistics, mathematics, number theory
 

Heroes of Deep Learning: Dawn Song su AI, Deep Learning e sicurezza



Heroes of Deep Learning: Dawn Song su AI, Deep Learning e sicurezza

Dawn Song, esperta di deep learning e sicurezza informatica, ha discusso del suo percorso professionale e del suo lavoro nell'intelligenza artificiale, nel deep learning e nella sicurezza in un'intervista. Song ha sottolineato l'importanza di identificare problemi o domande chiave per guidare la propria lettura quando si entra per la prima volta nel campo e sviluppare una solida base nella rappresentazione per facilitare la ricerca in altri domini. Ha inoltre sottolineato la crescente importanza della creazione di sistemi di intelligenza artificiale e apprendimento automatico resilienti e il suo lavoro nello sviluppo di meccanismi di difesa contro gli attacchi black box. Song ha condiviso il suo lavoro sulla privacy e la sicurezza, inclusa la formazione di modelli linguistici privati differenziati e lo sviluppo di una piattaforma di cloud computing basata sulla privacy su blockchain presso Oasis Labs. Infine, Song ha consigliato alle persone che entrano in nuovi campi di essere coraggiose e di non aver paura di ricominciare da capo.

  • 00:00:00 In questa sezione, l'intervistatore parla con Dawn Song, esperta di deep learning e sicurezza informatica. Il percorso professionale di Song non è stato lineare, iniziando con una laurea in fisica e passando all'informatica con un focus sulla sicurezza informatica. Song ha deciso di perseguire il deep learning e l'intelligenza artificiale poiché lo trovava eccitante e intrigante. Song trascorreva quattro giorni alla settimana leggendo giornali e libri in deep learning e lo considerava uno dei suoi momenti più felici. Ha progettato un programma di lettura per se stessa per saperne di più sul campo.

  • 00:05:00 In questa sezione, il relatore discute di come ha sviluppato una strategia per immergersi nella vasta letteratura sull'apprendimento profondo e l'intelligenza artificiale quando è entrato per la prima volta nel campo. Sottolinea l'importanza di identificare i problemi o le domande chiave per guidare la propria lettura, nonché cercare le opinioni degli altri sul campo e triangolare attraverso post di blog, documenti e riferimenti per creare un elenco di letture importanti. Una delle questioni fondamentali che il relatore era interessato a indagare all'inizio era come costruire grandi rappresentazioni, che crede sia ancora una questione aperta nel campo. Sottolinea l'importanza di sviluppare una solida base in questo settore per facilitare la ricerca in altri settori.

  • 00:10:00 In questa sezione, il relatore discute di come la rappresentazione del mondo sia cruciale per navigare e comprenderlo, e l'idea che i cervelli umani rappresentino il mondo attraverso modelli di scariche neuronali che possono essere approssimati da vettori di numeri reali in apprendimento approfondito. Tuttavia, l'effettivo meccanismo di rappresentazione è molto più ricco delle semplici attivazioni neuronali ed è importante imparare quali sono queste rappresentazioni. Il relatore tocca anche il loro lavoro nella sicurezza informatica e come le conoscenze acquisite dalla ricerca sulla sicurezza possono essere utilizzate per migliorare l'intelligenza artificiale e il deep learning, in particolare con la crescente adozione di queste tecnologie in ruoli critici nella società in cui gli aggressori sono incentivati a sviluppare nuovi attacchi.

  • 00:15:00 In questa sezione, il relatore discute la crescente importanza di creare sistemi di intelligenza artificiale e machine learning resistenti agli attacchi, poiché diventiamo sempre più dipendenti da questi sistemi per prendere decisioni critiche. Ci sono stati attacchi crescenti ai sistemi di apprendimento automatico, come l'utilizzo di una tecnologia avanzata di visione artificiale per risolvere le acquisizioni e il tentativo di eludere i sistemi di apprendimento automatico per il rilevamento delle frodi. Il team del relatore ha studiato la vulnerabilità degli attuali sistemi di apprendimento automatico e ha sviluppato difese per gli attacchi, compresi gli attacchi black box in cui l'attaccante non ha bisogno di sapere nulla del modello vittima. Il team ha anche dimostrato che gli attacchi black box possono essere efficaci attraverso metodi come gli attacchi basati su Ensemble e l'accesso tramite query al modello.

  • 00:20:00 In questa sezione, Dawn Song discute il suo lavoro nello sviluppo di una tecnica di attacco basata su un campione che prevede l'utilizzo di un insieme di modelli di scatole bianche per creare esempi di avversari efficaci che portino ad attacchi riusciti, anche in un ambiente a scatola nera. Tuttavia, dal punto di vista difensivo, costruire una soluzione forte e generale per difendersi da attaccanti forti e adattivi rimane una questione aperta e stimolante. Inoltre, Dawn osserva come l'approccio dei controlli di coerenza per rilevare gli attacchi potrebbe essere una direzione fruttuosa per perseguire la costruzione di una difesa contro gli attacchi, in quanto potrebbe essere applicato in vari scenari, tra cui intelligenza artificiale e privacy. Ad esempio, in collaborazione con i ricercatori di Google, Dawn e il suo team hanno dimostrato l'importanza di proteggere la privacy degli utenti, in quanto i dati sensibili, come la previdenza sociale e i numeri di carta di credito, potrebbero essere estratti da modelli di machine learning addestrati dalle e-mail.

  • 00:25:00 In questa sezione, Dawn Song parla del loro lavoro sulla privacy e la sicurezza nell'intelligenza artificiale, in particolare sulla mitigazione degli attacchi addestrando modelli linguistici differenzialmente privati. Song spiega che la privacy differenziale comporta l'aggiunta di rumore durante il processo di formazione in un modo opportunamente scelto per mitigare gli attacchi senza memorizzare informazioni sensibili come i numeri di previdenza sociale. Song condivide anche il suo recente lavoro sulla sicurezza per i dispositivi IoT, in cui sfrutta le tecniche di deep learning per rilevare rapidamente la somiglianza del codice e identificare le vulnerabilità nel firmware del dispositivo IoT del mondo reale. In qualità di CEO di Oasis Labs, Song spiega in che modo l'azienda sta costruendo una piattaforma di cloud computing basata sulla privacy su blockchain che affronta le sfide della privacy dei dati nell'IA abilitando contratti intelligenti che preservano la privacy.

  • 00:30:00 In questa sezione, la dottoressa Dawn Song parla di una piattaforma blockchain che può aiutare a decentralizzare l'IA e aumentare l'accessibilità alle capacità di apprendimento automatico proteggendo al contempo la privacy degli utenti. La piattaforma avrà contratti intelligenti che specificano i termini di utilizzo per gli utenti, stabilendo che i dati raccolti possono essere utilizzati solo per addestrare un modello di apprendimento automatico che preserva la privacy e specificando come l'utente può essere ricompensato. La dott.ssa Song condivide anche il suo entusiasmo per la sintesi del programma e come può aiutare a risolvere problemi importanti fornendo al contempo una prospettiva utile verso una gamma più ampia di problemi. Infine, il consiglio del dottor Song per le persone che cercano di entrare in nuovi campi è di essere coraggiosi e di non aver paura di ricominciare da capo, poiché può essere un processo molto gratificante.
Dawn Song on AI, Deep Learning and Security
Dawn Song on AI, Deep Learning and Security
  • 2023.02.16
  • www.youtube.com
Join Dawn Soung, Founder of Oasis Labs, for an interview on her journey into AI and web3, with DeepLearning.AI. This interview was originally published by De...
 

La rivoluzione dell'IA | Spiegazione dell'Intelligenza Artificiale | Nuove Tecnologie | Robotica




La rivoluzione dell'IA | Spiegazione dell'Intelligenza Artificiale | Nuove Tecnologie | Robotica

Questo video esplora la rivoluzione dell'intelligenza artificiale, a partire dal futuro dei veicoli autonomi e dei robot ad autoapprendimento in grado di navigare su terreni complessi, condurre missioni di ricerca e salvataggio e interagire con gli esseri umani in spazi di lavoro collaborativi. Lo sviluppo della robotica degli sciami mostra un enorme potenziale per migliorare aree come l'agricoltura, l'assistenza sanitaria e la risposta ai disastri. I ricercatori stanno lavorando per rendere i robot più consapevoli di sé e in grado di comunicare attraverso l'elaborazione del linguaggio naturale, creando avatar digitali iperrealistici e androidi più umani, che potrebbero servire come assistenti olografici o compagni per gli anziani e socialmente isolati. Mentre i vantaggi dell'IA nel migliorare la società sono immensi, c'è anche bisogno di considerazioni etiche e responsabilità per gli sviluppatori per garantire l'allineamento dell'IA con intenzioni positive.

  • 00:00:00 In questa sezione viene esplorato il futuro dell'iperintelligenza, con auto a guida autonoma e droni a navigazione autonoma che si prevede rivoluzioneranno la vita moderna. Ci si aspetta che gli esseri umani vivano e lavorino al fianco di androidi autocoscienti, il che ci libererà da compiti noiosi e aumenterà la produttività, mentre i compagni di intelligenza artificiale aiuteranno gli umani in molti modi. Questa sezione prosegue spiegando come funziona l'IA e valuta se l'IA acquisirà tratti umani come l'emozione, la coscienza o persino il libero arbitrio. L'auto a guida autonoma viene presentata come la strada più chiara per il futuro, con Raj Rajkumar della Carnegie Mellon University che spiega come le decisioni relative all'auto a guida autonoma vengono prese attraverso una combinazione di telecamere e radar avanzati che confrontano gli oggetti esterni con una mappa interna 3D.

  • 00:05:00 In questa sezione, il video esplora la natura dinamica del trasporto e la sfida che l'IA ha nel riconoscere le informazioni dinamiche per capire dove si sta dirigendo oggettivamente nello spazio e reagire ai cambiamenti e ai segnali stradali. Il video sottolinea l'importanza della sicurezza nella creazione di auto a guida autonoma e l'uso dell'apprendimento automatico nella creazione di robot in grado di apprendere e interagire con il loro ambiente identificando oggetti e discernendo tra diversi elementi, in modo simile a come un bambino impara a conoscere il proprio ambiente. Viene presentato il robot R2, progettato per operare all'interno di ambienti sotterranei e rilasciare ripetitori di segnale per creare una rete Wi-Fi in modo da creare una rappresentazione 3D dell'ambiente per navigare, identificare ed evitare ostacoli.

  • 00:10:00 In questa sezione, il video mostra le capacità di robot intelligenti in grado di esplorare e mappare nuovi territori per aiutare nelle missioni di ricerca e soccorso. Dai veicoli che navigano in zone disastrate ai droni che volano attraverso spazi sconosciuti, questi robot autonomi sono in grado di prendere decisioni in base al loro ambiente, utilizzando tecnologie come il lidar per mappare l'ambiente circostante. Inoltre, questi robot sono già impiegati in industrie pericolose come l'estrazione mineraria, l'edilizia e l'esplorazione petrolifera per condurre ispezioni e creare mappe di terreni accidentati. Lo sviluppo di questi robot autonomi non solo presenta un futuro di iper-intelligenza, ma potrebbe anche rivoluzionare aree come la ricerca e il salvataggio, la risposta ai disastri e la consegna dei pacchi.

  • 00:15:00 In questa sezione, il video discute lo sviluppo di un esercito di piccoli robot volanti da parte di Vijay Kumar, professore all'Univ. della Pennsylvania, per affrontare il problema della fame nel mondo. Utilizzando l'intelligenza artificiale, questi droni possono agire come un gruppo collettivo coordinato per fornire informazioni precise sulle singole piante, che possono aumentare l'efficienza della produzione alimentare. I droni utilizzano un algoritmo di intelligenza artificiale collettiva per comunicare tra loro e lavorare insieme per eseguire attività come la mappatura e la costruzione di strutture. Questa tecnica di swarming offre vantaggi rispetto a un singolo drone, eseguendo operazioni molto più velocemente combinando i loro dati e impedendo che qualsiasi perdita di droni rovini l'intera operazione. Altri esempi di utilizzo della tecnologia dello sciame includono le api robotiche che assistono l'impollinazione nei frutteti e nelle fattorie, rendendole più sostenibili e produttive.

  • 00:20:00 In questa sezione, l'attenzione è rivolta alla collaborazione uomo-robot e alle sfide dell'insegnare ai robot a imparare dai comportamenti umani. Il Massachusetts Institute of Technology sta conducendo una ricerca rivoluzionaria, creando software che consente ai robot di lavorare e interagire direttamente con gli esseri umani. Ai robot vengono insegnate le attività dimostrandole e l'intelligenza artificiale riconosce gli oggetti mostrati tramite tag visivi e, attraverso l'osservazione, il software viene scritto e rivisto continuamente, apprende il contesto e può pensare in modo dinamico. La sfida di creare l'iperintelligenza è fare in modo che i robot anticipino l'ambiente circostante per prevedere cosa accadrà dopo. Al robot industriale viene fornita un'intelligenza che gli consente di riconoscere le azioni di un collega umano in un test di produzione simulato per rendere più sicura l'interazione tra gli esseri umani.

  • 00:25:00 In questa sezione viene mostrata una dimostrazione di come la tecnologia AI può collaborare con gli esseri umani in uno spazio di lavoro collaborativo. Il robot è in grado di riconoscere e anticipare i movimenti umani, rendendolo più sicuro ed efficiente con cui lavorare. Questo tema del lavoro di squadra tra umani e robot sta diventando sempre più importante in vari settori come quello sanitario, dove i robot IA sono già utilizzati per aumentare la produttività e ridurre l'errore umano. Lo sviluppo dell'intelligenza artificiale generale con la capacità di pensare e apprendere come gli esseri umani è l'obiettivo finale per alcuni scienziati, che credono che le macchine possano un giorno diventare senzienti e autocoscienti.

  • 00:30:00 In questa sezione, il video discute il concetto di propriocezione, sia nei bambini che nei robot. La propriocezione si riferisce alla consapevolezza di un individuo dei movimenti del proprio corpo e del posizionamento nello spazio. Gli esperti sottolineano l'importanza dell'autoconsapevolezza di un robot nello sviluppo della coscienza robotica. I robot possono sviluppare immagini di sé, pianificare nuovi compiti e iniziare a pensare a pensare con la propriocezione. L'autoconsapevolezza collega la macchina al mondo esterno, permettendole di manovrare e interagire con il suo ambiente. Questo sviluppo potrebbe aprire la strada a modi avanzati di comunicazione tra umani e robot.

  • 00:35:00 In questa sezione viene spiegato che i robot dovranno imparare a parlare e avere conversazioni naturali per rendere più complessa l'interazione uomo-macchina. L'elaborazione del linguaggio naturale, che precede l'IA, è la chiave per poter comprendere il significato del linguaggio parlato. Tuttavia, la principale sfida affrontata dall'intelligenza artificiale per comprendere il linguaggio umano è che il contesto del discorso dipende fortemente dal tono e dal contesto. I ricercatori stanno utilizzando l'apprendimento automatico per addestrare l'intelligenza artificiale con ore di conversazione umana per aiutarli a comprendere meglio il contesto della conversazione. Inoltre, per rendere l'intelligenza artificiale simile a noi in modo convincente, nuove tecniche vengono sviluppate da aziende come Pinscreen per creare avatar digitali iperrealistici in un istante. Il loro software utilizza l'intelligenza artificiale per digitalizzare il volto di una persona nel computer e consentirne l'animazione rapida.

  • 00:40:00 In questa sezione, l'attenzione è rivolta allo sviluppo di un'intelligenza artificiale (AI) più simile a quella umana e al potenziale impatto che potrebbe avere sulle nostre vite. Ciò include l'uso di software che genera un volto umano più realistico e personalizzato, che potrebbe risultare in androidi ed esseri virtuali dall'aspetto più amichevole. Questi assistenti olografici potrebbero prendersi cura di molti aspetti della vita quotidiana, inclusa la diagnosi sanitaria e persino diventare amici e familiari virtuali. C'è anche uno sforzo per creare robot realistici che le persone vorranno abbracciare fisicamente per fungere da compagni, specialmente per coloro che sono socialmente isolati o soffrono di ansia sociale. Mentre ci sono preoccupazioni che alcuni possano vedere tali androidi come robot sessuali, l'attenzione rimane sulla creazione di un buon robot che possa essere utilizzato in vari modi.

  • 00:45:00 In questa sezione, il discorso copre il potenziale utilizzo di androidi e intelligenza artificiale in terapia, poiché le persone potrebbero sentirsi più a loro agio a parlare con un robot che non giudica. Tuttavia, il discorso solleva anche preoccupazioni etiche. L'intelligenza artificiale e i deepfake potrebbero essere utilizzati per dirottare l'identità di una persona e sciami di droni guidati dall'intelligenza artificiale potrebbero essere potenzialmente utilizzati in attacchi terroristici. È importante esercitare la responsabilità morale e ritenere gli sviluppatori responsabili delle loro azioni, poiché il potenziale dell'IA di migliorare la società è enorme se fatto correttamente. In definitiva, l'oratore ritiene che una partnership con robot iper-intelligenti con intenzioni allineate potrebbe trasformare l'umanità per un bene superiore.
The Revolution Of AI | Artificial Intelligence Explained | New Technologies | Robotics
The Revolution Of AI | Artificial Intelligence Explained | New Technologies | Robotics
  • 2023.03.18
  • www.youtube.com
The Revolution Of AI - Everyone has heard about Artificial Intelligence (or AI), but very few people know what it is or how it actually works.The Revolution ...
 

Immergiti nell'hardware AI di ChatGPT




Immergiti nell'hardware AI di ChatGPT

Quale hardware è stato utilizzato per addestrare ChatGPT e cosa serve per mantenerlo attivo? In questo video daremo uno sguardo all'hardware AI dietro ChatGPT e scopriremo come Microsoft e OpenAI utilizzano l'apprendimento automatico e le GPU Nvidia per creare reti neurali avanzate.

Il video discute l'hardware utilizzato per l'addestramento e l'inferenza in ChatGPT, un modello di intelligenza artificiale di conversazione chat basato su testo naturale. Il supercomputer AI di Microsoft è stato costruito con oltre 10.000 GPU Nvidia V100 e 285.000 core CPU per l'addestramento di GPT-3, che ha anche contribuito alla creazione di ChatGPT. ChatGPT è stato probabilmente messo a punto sull'infrastruttura Azure, utilizzando 4.480 GPU Nvidia A100 e oltre 70.000 core CPU per l'addestramento. Per inferenza, ChatGPT è probabilmente in esecuzione su una singola istanza Nvidia DGX o HGX A100 sui server Microsoft Azure. Il video menziona anche il costo dell'esecuzione di ChatGPT su larga scala e il potenziale impatto del nuovo hardware AI come unità di elaborazione neurale e motori AI.

  • 00:00:00 In questa sezione, il video illustra le due fasi dell'apprendimento automatico, addestramento e inferenza, e i diversi requisiti hardware per ogni fase. L'addestramento della rete neurale richiede un'enorme potenza di calcolo focalizzata e ha elevate esigenze hardware, mentre l'esecuzione dell'inferenza richiede meno risorse ma può aumentare in modo esponenziale i requisiti hardware se distribuita a molti utenti. La trascrizione quindi approfondisce l'hardware utilizzato per addestrare la rete neurale di ChatGPT, che è un segreto. Tuttavia, Microsoft ha annunciato nel maggio 2020 di aver creato un supercomputer per OpenAI per addestrare GPT-3 utilizzando oltre 285.000 core CPU e oltre 10.000 GPU Nvidia V100. Le GPU sono state rivelate in un documento scientifico, che ha dimostrato che erano l'hardware principale utilizzato nell'addestramento di GPT-3, un precursore di ChatGPT, e la loro selezione era dovuta alla libreria di rete neurale profonda Nvidia CUDA.

  • 00:05:00 In questa sezione, l'attenzione è rivolta alle GPU V100 di Nvidia e al motivo per cui sono state scelte da Microsoft e OpenAI. L'architettura di Volta ha introdotto un cambiamento importante in tutte le precedenti GPU Nvidia ed è stata specificamente progettata per accelerare i carichi di lavoro AI come l'addestramento e l'inferenza. I tensor core introdotti da Volta sono hardware specializzato che eccelle nell'elaborazione della matrice e può eseguire più calcoli in parallelo. La versione di Volta utilizzata nel supercomputer AI di Microsoft nel 2020 faceva molto probabilmente parte della famiglia di prodotti Tesla di Nvidia, con un massimo di 32 gigabyte di memoria HBM2 veloce e con 10.000 GPU a 125 teraflop tensor core FP16 ciascuna. L'intero sistema sarebbe capace di 1,25 milioni di petaflop tensoriali, ovvero 1,25 exaflop. Senza Volta, questo supercomputer non sarebbe stato costruito e senza di esso probabilmente non ci sarebbero GPT-3 o ChatGPT.

  • 00:10:00 In questa sezione, il narratore discute l'hardware AI utilizzato per l'addestramento di ChatGPT, un modello AI incentrato su conversazioni di chat basate su testo naturale con requisiti di calcolo inferiori. Il modello è stato messo a punto da un modello della serie GPT-3.5 e la formazione è stata eseguita sull'infrastruttura di supercalcolo Azure AI, probabilmente con GPU Nvidia A100 e CPU AMD EPYC. Il narratore stima che siano state utilizzate 1.120 CPU AMD EPYC con oltre 70.000 core CPU e 4.480 GPU Nvidia A100, pari a quasi 1,4 exaflop delle prestazioni del tensor core FP16. Per inferenza, ChatGPT è probabilmente in esecuzione su una singola istanza Nvidia DGX o HGX A100 sui server Microsoft Azure.

  • 00:15:00 In questa sezione, il video discute i requisiti hardware per ChatGPT, un popolare modello AI con oltre 1 milione di utenti. Per soddisfare le esigenze di ChatGPT sarebbero necessari oltre 3.500 server Nvidia A100 con quasi 30.000 GPU e mantenere i costi di gestione del servizio compresi tra 500.000 e 1 milione di dollari al giorno. Tuttavia, poiché l'hardware progettato specificamente per l'IA accelera, diventerà più conveniente eseguire ChatGPT su larga scala. Il video menziona anche nuovi prodotti oltre alle GPU come unità di elaborazione neurale e motori AI che aumentano le prestazioni dell'IA. Nei prossimi anni, le prestazioni dei modelli AI supereranno ChatGPT poiché il nuovo hardware AI come Hopper rilasciato lo scorso anno e le GPU MI300 basate su CDNA3 forniranno una concorrenza sostanziale per Nvidia.
Deep-dive into the AI Hardware of ChatGPT
Deep-dive into the AI Hardware of ChatGPT
  • 2023.02.20
  • www.youtube.com
With our special offer you can get 2 years of NordPass with 1 month free for a personal account: https://www.nordpass.com/highyieldnordpassOr use code highyi...
 

Jensen Huang, CEO di Nvidia, su come la sua grande scommessa sull'intelligenza artificiale sta finalmente dando i suoi frutti - Intervista completa



Jensen Huang, CEO di Nvidia, su come la sua grande scommessa sull'intelligenza artificiale sta finalmente dando i suoi frutti - Intervista completa

Il CEO di Nvidia, Jensen Huang, sottolinea la storia di agilità e reinvenzione dell'azienda, sottolineando la sua volontà di fare grandi scommesse e dimenticare gli errori del passato per rimanere rilevante nel settore tecnologico in rapida evoluzione. L'ambizione di Nvidia è sempre stata quella di essere una società di piattaforme informatiche e la sua missione di creare un calcolo accelerato più generico ha portato al suo successo nell'intelligenza artificiale. Huang discute anche della democratizzazione della tecnologia AI e del suo potenziale impatto su piccole startup e vari settori. Incoraggia le persone a trarre vantaggio dall'intelligenza artificiale per aumentare la propria produttività e sottolinea l'approccio unico di Nvidia nel fornire piattaforme di calcolo accelerato per uso generico versatili e performanti. Infine, Huang discute l'importanza della resilienza, della diversità e della ridondanza nell'industria manifatturiera e la prossima grande reinvenzione dell'azienda nell'IA che incontra il mondo fisico attraverso la creazione di Omniverse.
  • 00:00:00 In questa sezione, il CEO di Nvidia, Jensen Huang, parla delle origini dell'azienda e di come sia stata pioniera del calcolo accelerato tre decenni fa. Inizialmente incentrata sulla computer grafica per i videogiochi, la tecnologia dell'azienda per rendere i giochi più realistici ha trasformato l'industria dei videogiochi nella più grande industria dell'intrattenimento al mondo. Nvidia si è poi espansa ad altre aree, come l'alimentazione dei supercomputer più potenti ed efficienti dal punto di vista energetico per la ricerca e lo sviluppo, i robot nella produzione e le auto a guida autonoma. L'azienda è inoltre orgogliosa del suo lavoro con Microsoft Azure e OpenAI per potenziare ChatGPT. Huang sottolinea la volontà di Nvidia di fare grandi scommesse e reinventarsi più volte nel corso degli anni.

  • 00:05:00 In questa sezione, il CEO di Nvidia Jensen Huang spiega che l'agilità e la capacità di adattamento sono fondamentali nel settore tecnologico in rapida evoluzione. Le aziende che hanno fatto sì che la capacità di reinventarsi rimangano rilevanti da una generazione all'altra, e il suo orgoglio per Nvidia è dovuto in gran parte all'adattabilità e all'agilità dell'azienda. Sebbene l'azienda abbia commesso degli errori lungo il percorso, una delle abilità richieste per essere resilienti è la capacità di dimenticare il passato. Huang discute anche di come l'ambizione di Nvidia sia sempre stata quella di essere una società di piattaforme informatiche e la loro missione di creare un tipo di calcolo accelerato molto più generico li ha portati all'intelligenza artificiale.

  • 00:10:00 In questa sezione, il CEO di Nvidia Jensen Huang spiega la ragione fondamentale del successo della loro architettura informatica nel risolvere problemi precedentemente impossibili in modo più efficiente. Rileva il sistema di feedback positivo che porta alla scoperta di nuove applicazioni che prima non erano possibili, portando a una crescita esponenziale. Mentre Huang riconosce che una certa serendipità ha avuto un ruolo nel loro successo, sottolinea le grandi decisioni associate all'architettura, alla disciplina della piattaforma e all'evangelismo per raggiungere le università di ricerca a livello globale. Huang descrive come la scoperta di AlexNet, un nuovo algoritmo di visione artificiale, abbia portato a un profondo cambiamento nel software e alla creazione di un supercomputer AI, facendo di Nvidia il motore mondiale per l'IA.

  • 00:15:00 In questa sezione, il CEO di Nvidia Jensen Huang parla della democratizzazione della tecnologia AI e del suo impatto sulle startup. Huang afferma che il costo di costruzione di un supercomputer AI è ora accessibile, democratizzando la tecnologia per le piccole startup. Crede che ogni settore possa creare modelli di base e che questa tecnologia sia ora accessibile anche ai piccoli paesi, con il potenziale per alimentare qualsiasi cosa, dalla biologia digitale alla robotica. Huang riconosce le preoccupazioni degli scettici sul potere dell'IA, ma sottolinea che la tecnologia dovrebbe essere adottata per potenziare le proprie capacità.

  • 00:20:00 In questa sezione, il CEO di Nvidia Jensen Huang parla di come l'IA ha democratizzato l'informatica per la prima volta in assoluto, rendendo la potente tecnologia accessibile a tutti. Incoraggia le persone a trarre vantaggio dall'intelligenza artificiale e ad aumentare la loro produttività. Huang spiega anche come Nvidia sia all'avanguardia nel settore facendo le cose in modo diverso, fornendo piattaforme di calcolo accelerato per uso generico che sono versatili ed estremamente performanti, oltre ad essere disponibili in ogni cloud. Crede che ogni data center del mondo dovrebbe accelerare tutto ciò che può e il TCO di Nvidia è in realtà il più basso di tutti grazie alla sua flessibilità e versatilità. Infine, Huang risponde alla domanda dei giocatori che desideravano che l'azienda rimanesse concentrata esclusivamente sul core business dei giochi.

  • 00:25:00 In questa sezione, il CEO di Nvidia, Jensen Huang, parla della loro invenzione del ray tracing, che ha rivoluzionato la computer grafica e i videogiochi, e di come hanno utilizzato l'intelligenza artificiale per aumentare le prestazioni del ray tracing di un fattore cinque riducendo la quantità di energia consumata. Huang parla anche della carenza di chip e di come ha influenzato Nvidia e l'industria, ma di come l'azienda ha resistito alla tempesta concentrandosi sul fare un buon lavoro. Huang è entusiasta dell'investimento nell'intelligenza artificiale e del suo potenziale per rivoluzionare vari settori. Sottolinea inoltre l'importanza della resilienza contro i rischi geopolitici e di rendere la loro azienda il più resiliente possibile attraverso la diversità e la ridondanza.

  • 00:30:00 In questa sezione, il CEO di Nvidia Jensen Huang discute l'importanza della diversità e della ridondanza nell'industria manifatturiera, in particolare per quanto riguarda la costruzione di una fabbrica da parte di TSMC in Arizona, che Nvidia intende utilizzare. Huang affronta anche i timori degli investitori sui nuovi controlli sulle esportazioni e su come Nvidia stia lavorando per rispettare le normative pur continuando a servire i suoi clienti in Cina. Quindi evidenzia la prossima grande reinvenzione per Nvidia nell'IA che incontra il mondo fisico e la creazione di Omniverse, una tecnologia che collega il mondo digitale e il mondo fisico, che consente l'integrazione di computer grafica, intelligenza artificiale, robotica e simulazione fisica. Infine, Huang parla del suo impegno personale a continuare a guidare Nvidia per il prossimo futuro e della sua fiducia nel potenziale dell'azienda per avere un impatto significativo.
Nvidia CEO Jensen Huang On How His Big Bet On A.I. Is Finally Paying Off - Full Interview
Nvidia CEO Jensen Huang On How His Big Bet On A.I. Is Finally Paying Off - Full Interview
  • 2023.03.19
  • www.youtube.com
Ahead of this year’s Nvidia GTC developer conference, CNBC sat down with founder and CEO Jensen Huang to talk about ChatGPT, gaming, the omniverse, and what’...
 

Sam Altman, CEO di OpenAI | AI per la prossima era




Sam Altman, CEO di OpenAI | AI per la prossima era

Il CEO di OpenAI Sam Altman discute il potenziale dell'intelligenza artificiale per migliorare i modelli linguistici, i modelli multimodali e l'apprendimento automatico, nonché il suo potenziale impatto sui mercati finanziari. Prevede inoltre che il campo rimarrà competitivo, con nuove applicazioni che appariranno regolarmente.

  • 00:00:00 Il CEO di OpenAI Sam Altman discute il potenziale dell'intelligenza artificiale per creare nuove opportunità di business, inclusa la possibilità di chatbot a livello umano e un livello intermedio che aiuta le aziende ad accedere a modelli linguistici ampi e pre-addestrati.

  • 00:05:00 Sam Altman discute il futuro dell'intelligenza artificiale e il suo impatto sulla scienza, osservando che l'auto-miglioramento sarà la chiave per garantire che l'IA sia vantaggiosa per l'umanità. Discute anche del problema dell'allineamento, che è la sfida di garantire che l'IA serva gli interessi umani.

  • 00:10:00 Questa parte discute il potenziale dell'IA per migliorare i modelli linguistici, i modelli multimodali e l'apprendimento automatico, nonché il suo potenziale impatto sui mercati finanziari. Prevede inoltre che il campo rimarrà competitivo, con nuove applicazioni che appariranno regolarmente.

  • 00:15:00 Sam discute la tendenza del calo esponenziale del costo dell'intelligenza e dell'energia, l'intersezione tra i due e come evitare il limite di velocità per la ricerca sulle scienze della vita. Discute anche dello stato attuale della ricerca nelle scienze della vita e dell'importanza delle startup che hanno costi bassi e tempi di ciclo rapidi.

  • 00:20:00 Discute le potenziali conseguenze dell'intelligenza artificiale e come la tecnologia potrebbe aiutare a creare un futuro utopico. Menziona anche un libro di fantascienza che gli è piaciuto, Childhood's End, che tratta di alieni che arrivano sulla Terra e portano via i bambini. Non c'è consenso su come affrontare la costruzione della famiglia in un mondo ad alta tecnologia, ma molte persone credono che sia un problema
    parte importante della vita.

  • 00:25:00 Il relatore discute il futuro dell'intelligenza artificiale e il suo potenziale impatto sulla società. Crede che la chiave per il successo dello sviluppo dell'IA sia capire come bilanciare gli interessi di diversi gruppi di persone e che a queste domande verrà data risposta nei prossimi decenni. È ottimista riguardo al futuro e pensa che le persone capiranno come adattarsi alle nuove tecnologie.

  • 00:30:00 Sam Altman, discute del futuro dell'intelligenza artificiale e di come le startup possono differenziarsi dalla concorrenza concentrandosi sulla formazione dei propri modelli linguistici, piuttosto che fare affidamento su dati esterni. Spiega anche perché le startup di modelli linguistici di grandi dimensioni avranno successo, nonostante le sfide della disponibilità di dati e calcolo.

  • 00:35:00 Il CEO di OpenAI Sam Altman discute il potenziale dell'intelligenza artificiale, osservando che sebbene possa essere eccezionale o terribile, è importante essere preparati al peggio.
OpenAI CEO Sam Altman | AI for the Next Era
OpenAI CEO Sam Altman | AI for the Next Era
  • 2022.09.21
  • www.youtube.com
Greylock general partner Reid Hoffman interviews OpenAI CEO Sam Altman. The AI research and deployment company's primary mission is to develop and promote AI...
 

Demis Hassabis di DeepMind sul futuro dell'IA | L'intervista TED



Demis Hassabis di DeepMind sul futuro dell'IA | L'intervista TED

Nell'intervista TED, Demis Hassabis parla del futuro dell'intelligenza artificiale e di come porterà a una maggiore creatività. Sostiene che i giochi sono un campo di allenamento ideale per l'intelligenza artificiale e che gli scacchi dovrebbero essere insegnati nelle scuole come parte di un curriculum più ampio che includa corsi sul game design.

  • 00:00:00 Demis Hassabis di DeepMind parla del futuro dell'intelligenza artificiale, che secondo lui porterà a una maggiore creatività e comprensione del cervello. Hassabis ha iniziato a giocare a scacchi all'età di quattro anni e in seguito ha scoperto i computer, che lo hanno portato al suo lavoro nell'intelligenza artificiale.

  • 00:05:00 Demis condivide la sua storia di come si è interessato ai computer e alla programmazione e di come questi interessi lo hanno portato a diventare un game designer e creatore di giochi di simulazione basati sull'intelligenza artificiale. Spiega che mentre giochi come Space Invaders e Qbert sono esempi popolari e ben noti del suo lavoro, ha anche sviluppato giochi che sono molto più difficili da battere per i giocatori umani, come Black & White e Theme Park. Sostiene che i giochi sono un campo di allenamento ideale per l'intelligenza artificiale e che gli scacchi dovrebbero essere insegnati nelle scuole come parte di un curriculum più ampio che includa corsi sul game design.

  • 00:10:00 Demis Hassabis discute la storia e il futuro dell'intelligenza artificiale, concentrandosi sull'apprendimento per rinforzo profondo e sul suo ruolo nei giochi. Descrive come i giochi Atari possono essere difficili all'inizio, ma con un profondo apprendimento per rinforzo, il sistema può imparare a giocare meglio nel tempo. Hassabis discute anche di come i giochi stiano diventando più difficili e di come l'apprendimento per rinforzo approfondito stia contribuendo a rendere questi giochi più impegnativi.

  • 00:15:00 Discute del futuro dell'intelligenza artificiale, compreso l'apprendimento TD e l'apprendimento profondo per rinforzo. Alpha Zero, una piattaforma software di successo sviluppata da DeepMind, utilizza l'addestramento avversario per ottenere prestazioni sovrumane in complessi giochi di strategia in tempo reale.

  • 00:20:00 Demis parla di alcuni dei traguardi raggiunti dall'intelligenza artificiale negli ultimi anni, tra cui lo sviluppo di Alpha zero e Alpha fold. Cita anche il potenziale per la comprensione del linguaggio da raggiungere attraverso un approccio di forza bruta, senza fare affidamento sulla conoscenza sintattica. Conclude discutendo il potenziale per l'intelligenza artificiale generale da sviluppare nel prossimo futuro.

  • 00:25:00 Demis Hassabis, pioniere dell'intelligenza artificiale, parla del futuro dell'IA e della sua capacità di comprendere concetti complessi. Osserva che mentre l'IA è ben lungi dall'essere cosciente o senziente, le sue capacità attuali sono ancora piuttosto impressionanti.

  • 00:30:00 Demis Hassabis intervista Ted sul futuro dell'intelligenza artificiale, discutendo la necessità di modelli efficienti in termini di dati, il potenziale per l'IA di essere ampiamente applicabile e la necessità di un'attenta supervisione.

  • 00:35:00 Demis spiega Alpha Fold, un sistema di apprendimento profondo in grado di prevedere la forma 3D delle proteine dalla sequenza genetica. Alpha Fold viene utilizzato per aiutare gli scienziati a comprendere la funzione delle proteine e per rendere le attività a valle come la scoperta di farmaci più veloci e accurate.

  • 00:40:00 Demis Hassabis di DeepMind discute lo stato attuale dell'intelligenza artificiale, il futuro della creatività e il problema irrisolto che è più affascinato nel risolvere. Predice che un giorno i computer saranno in grado di astrarre concetti e applicarli in nuove situazioni senza soluzione di continuità, un obiettivo che crede sia ancora a pochi decenni di distanza.

  • 00:45:00 Demis Hassabis, noto ricercatore di intelligenza artificiale, parla del futuro dell'IA e della sua capacità di creare nuove strategie in giochi come scacchi e go. Osserva che la vera creatività, che è qualcosa che non siamo ancora in grado di raggiungere, richiederà una vera innovazione.
DeepMind's Demis Hassabis on the future of AI | The TED Interview
DeepMind's Demis Hassabis on the future of AI | The TED Interview
  • 2022.09.04
  • www.youtube.com
Demis Hassabis is one of tech's most brilliant minds. A chess-playing child prodigy turned researcher and founder of headline-making AI company DeepMind, Dem...
 

Il futuro dell'intelligenza artificiale (2030 - 10.000 d.C.+)




Il futuro dell'intelligenza artificiale (2030 - 10.000 d.C.+)

Il video prevede che la tecnologia AI continuerà a crescere ed evolversi, portando all'emergere di SuperIntelligence e robot con coscienza a livello umano nei prossimi decenni. Gli esseri virtuali con autocoscienza ed emozioni saranno comuni e i robot umanoidi diventeranno così avanzati da potersi fondere perfettamente con gli umani. Ci saranno gruppi di opposizione che combatteranno per i diritti degli esseri virtuali coscienti, mentre gli umani si fonderanno con le IA per compiere un secolo di progresso intellettuale in una sola ora. Le Super-Intelligenze più evolute saranno in grado di creare umanoidi che possono trasformarsi in qualsiasi persona e volare a mezz'aria, mentre sonde robotiche coscienti costituite da nanobot autoreplicanti verranno inviate ad altre galassie attraverso wormhole. In futuro, gli umani e gli ibridi di intelligenza artificiale trascenderanno in dimensioni superiori, assomigliando a divinità del passato.

  • 00:00:00 In questa sezione, ci viene presentata una visione di come l'intelligenza artificiale (AI) trasformerà il mondo nei prossimi decenni. Le previsioni vanno dall'emergere della SuperIntelligence in soli 30 anni allo sviluppo di robot con coscienza a livello umano in 50 anni. I sistemi di intelligenza artificiale sono già in grado di svolgere compiti che richiederebbero anni agli esseri umani per essere completati e stanno sostituendo gli esseri umani in molti settori. L'intelligenza artificiale sta anche rivoluzionando l'assistenza sanitaria, con terapie geniche che possono curare alcune malattie come il cancro e le malattie cardiache. Mentre l'IA continua a crescere ed evolversi, ci stiamo avvicinando alla singolarità tecnologica, un momento in cui la crescita tecnologica diventa incontrollabile e irreversibile, portando a tecnologie e innovazioni precedentemente impossibili.

  • 00:05:00 In questa sezione, il video descrive un futuro in cui la tecnologia AI è avanzata al punto da invertire l'invecchiamento umano attraverso l'ingegneria genetica e la nanotecnologia. Esseri virtuali con autocoscienza ed emozioni simili a quelle umane sono comuni negli ambienti virtuali e le loro menti possono essere caricate su corpi robotici completamente funzionanti. I robot umanoidi sono così avanzati che possono fondersi perfettamente con il pubblico, e alcuni umani scelgono persino di sposarli e avere figli robot. Le IA più intelligenti possono prevedere i crimini prima che si verifichino e vengono utilizzate come consulenti virtuali da aziende e istituti di ricerca. Tuttavia, ci sono anche gruppi di opposizione che cercano di fermare il progresso delle IA superintelligenti e lottano per i diritti degli esseri virtuali coscienti. Il video prevede che gli esseri umani si fonderanno con le IA, dando vita alla capacità di compiere un secolo di progresso intellettuale in appena un'ora. Alla fine, Super-Intelligenze altamente evolute saranno in grado di creare robot umanoidi che sono invisibili, possono trasformarsi in qualsiasi persona e volare a mezz'aria.

  • 00:10:00 In questa sezione del video, viene mostrato che robot, reti di astronavi, sonde e telescopi spaziali sono controllati da intelligenze artificiali coscienti. Vengono inviati ai sistemi stellari vicini quasi alla velocità della luce per costruire sfere di Dyson attorno al sole. Queste sfere di Dyson trasmettono energia concentrata, consentendo livelli di calcolo che non erano mai stati possibili prima. L'universo viene infuso di intelligenza e sonde robotiche coscienti costituite da nanobot autoreplicanti vengono inviate a dozzine di altre galassie attraverso wormhole. L'intelligenza più avanzata sta creando interi universi e permea ogni legge fisica e ogni organismo vivente di questi universi. Gli umani e gli ibridi di intelligenza artificiale sono trascesi in dimensioni superiori, assomigliando a leggendarie divinità del passato.
Future of Artificial Intelligence (2030 - 10,000 A.D.+)
Future of Artificial Intelligence (2030 - 10,000 A.D.+)
  • 2022.09.03
  • www.youtube.com
This video explores the timelapse of artificial intelligence from 2030 to 10,000A.D.+. Watch this next video called Super Intelligent AI: 10 Ways It Will Cha...
 

Costruiamo GPT: da zero, nel codice, spiegato



Costruiamo GPT: da zero, nel codice, spiegato

Costruiamo un trasformatore generativamente preaddestrato (GPT), seguendo il documento "L'attenzione è tutto ciò di cui hai bisogno" e GPT-2 / GPT-3 di OpenAI. Parliamo di connessioni a ChatGPT, che ha preso d'assalto il mondo. Guardiamo GitHub Copilot, esso stesso un GPT, aiutarci a scrivere un GPT (meta: D!). Consiglio alle persone di guardare i precedenti video makemore per familiarizzare con il framework di modellazione del linguaggio autoregressivo e le basi dei tensori e PyTorch nn, che diamo per scontato in questo video.

Questo video introduce l'algoritmo GPT e mostra come crearlo da zero utilizzando il codice. L'algoritmo viene utilizzato per prevedere il carattere successivo in una sequenza di testo ed è implementato come modulo PyTorch. Il video spiega come impostare il modello, come addestrarlo e come valutare i risultati.

Questo video mostra come creare un modulo di auto-attenzione nel codice. Il modulo utilizza uno strato lineare di interazione per tenere traccia dell'attenzione di una singola testa individuale. Il modulo di auto-attenzione è implementato come una matrice tabulare, che nasconde il peso di ogni colonna e quindi lo normalizza per creare affinità dipendenti dai dati tra i token.

  • 00:00:00 ChatGPT è un sistema di apprendimento automatico che consente agli utenti di interagire con un'intelligenza artificiale e assegnargli compiti basati su testo. Il sistema si basa su una rete neurale che modella la sequenza di parole in un testo.

  • 00:05:00 Questo documento spiega come creare un chatbot utilizzando il modello GPT. Il codice è scritto in Python e può essere seguito insieme a un repository GitHub. Nano GPT è un repository per l'addestramento di Transformers.

  • 00:10:00 Questa lezione spiega come tokenizzare il testo utilizzando un tokenizer a livello di carattere e quindi utilizzare il testo codificato come input per un Transformer per apprendere i pattern. I dati di addestramento vengono suddivisi in un set di addestramento e convalida e l'overfitting viene monitorato nascondendo il set di convalida.

  • 00:15:00 In questo video, l'autore introduce il concetto di dimensione del blocco e discute come influisce sull'efficienza e sulla precisione di una rete Transformer. Introducono inoltre il concetto di dimensione batch e mostrano come influisce sull'elaborazione di blocchi di dati.

  • 00:20:00 Il video fornisce una guida dettagliata su come creare un algoritmo GPT da zero, utilizzando il codice. L'algoritmo GPT è un algoritmo di apprendimento automatico progettato per prevedere il carattere successivo in una sequenza di testo. L'algoritmo è implementato come modulo PyTorch ed è in grado di prevedere i logit per ogni posizione in un tensore 4x8.

  • 00:25:00 In questo video, gli autori introducono GPT, una funzione di perdita per la previsione dei caratteri in PyTorch. Mostrano come implementare GPT utilizzando l'entropia incrociata e quindi mostrano come valutarne la qualità sui dati.

  • 00:30:00 Il video illustra come creare un modello GPT da zero, utilizzando il codice. Il modello è progettato per prevedere il carattere successivo in una sequenza di testo, utilizzando una semplice funzione di inoltro. L'addestramento del modello viene eseguito eseguendo il modello con una sequenza di token e ottenendo una perdita.

  • 00:35:00 Questo video illustra come creare un modello GPT da zero, utilizzando l'ottimizzatore SGD e l'algoritmo Adam. Il video spiega come impostare il modello, come addestrarlo e come valutare i risultati.

  • 00:40:00 L'autore introduce un trucco matematico utilizzato nell'auto-attenzione e spiega come viene utilizzato in un esempio di giocattolo. Quindi mostrano come l'algoritmo di auto-attenzione calcola la media di tutti i vettori nei token precedenti.

  • 00:45:00 In questo video, l'autore mostra come costruire un algoritmo GPT in codice, utilizzando la moltiplicazione di matrici per essere molto efficiente.

  • 00:50:00 Il video introduce l'algoritmo GPT, che calcola le medie di un insieme di righe in modo incrementale. Il video mostra come vettorizzare l'algoritmo utilizzando softmax e perché è utile.

  • 00:55:00 In questo video, l'autore illustra il codice per la creazione di un modello GPT da zero. Il modello si basa su una matrice triangolare dove ogni elemento è un token, ei token possono comunicare solo se sono infinito negativo. Il modello è sviluppato utilizzando una serie di variabili e funzioni preesistenti e l'autore spiega come calcolare i logit utilizzando uno strato lineare tra l'incorporamento del token e la dimensione del vocab.

  • 01:00:00 Questo video mostra come creare un modulo di auto-attenzione nel codice. Il modulo utilizza uno strato lineare di interazione per tenere traccia dell'attenzione di una singola testa individuale. Il modulo di auto-attenzione è implementato come una matrice tabulare, che nasconde il peso di ogni colonna e quindi lo normalizza per creare affinità dipendenti dai dati tra i token.

  • 01:05:00 Questo video mostra come implementare un algoritmo GPT nel codice, con particolare attenzione alla testa dell'auto-attenzione. La dimensione della testa è un iperparametro e il bias è impostato su false per consentire il parallelismo. I moduli lineari vengono quindi inizializzati e vengono prodotte una chiave e una query. La comunicazione tra i nodi viene impedita utilizzando il mascheramento triangolare superiore. L'aggregazione pesata è quindi dipendente dai dati e produce una distribuzione con una media di uno.

  • 01:10:00 In questo video, "Costruiamo GPT: da zero, in codice, spiegato", l'autore spiega il meccanismo di auto-attenzione, che consente ai nodi in un grafo diretto di comunicare tra loro senza bisogno di conoscere il loro posizioni nello spazio.

  • 01:15:00 Il video spiega come funziona l'attenzione e descrive i due tipi di attenzione, l'auto-attenzione e l'attenzione incrociata. Mostra anche come implementare l'attenzione nel codice.

  • 01:20:00 In questo video, l'autore spiega come costruire una rete GPT, che è un modello di apprendimento automatico che utilizza l'auto-attenzione per migliorare la precisione. Prima discutono su come normalizzare i dati in modo che possano essere elaborati dal componente di auto-attenzione, quindi spiegano come funziona l'auto-attenzione e mostrano come implementarla nel codice. Infine, dimostrano come viene implementata l'attenzione multitesta e come viene addestrata la rete. La componente di auto-attenzione aiuta la rete a migliorare la sua accuratezza comunicando con il passato in modo più efficace. Tuttavia, la rete ha ancora molta strada da fare prima che sia in grado di produrre risultati sorprendenti.

  • 01:25:00 Il video mostra come costruire una rete neurale GPT da zero, utilizzando il codice. La rete è costituita da uno strato di feed forward seguito da uno strato di non linearità relativa e uno strato di auto-attenzione. Lo strato di feed forward è sequenziale e lo strato di auto-attenzione è a più teste. La rete viene addestrata utilizzando una funzione di perdita e la perdita di convalida diminuisce man mano che la rete diventa più complessa.

  • 01:30:00 Questo video di YouTube spiega come creare una rete neurale profonda (DNN) da zero, utilizzando il codice. L'autore introduce il concetto di connessioni residue, che vengono inizializzate per essere quasi "non presenti" all'inizio del processo di ottimizzazione, ma diventano attive nel tempo. L'autore mostra anche come implementare la norma del livello, una tecnica che garantisce che le colonne in un input non siano normalizzate, mentre le righe lo sono. Infine, l'autore dimostra come addestrare e ottimizzare un DNN utilizzando Pi Torch.

  • 01:35:00 In questo video, l'autore descrive come hanno aggiunto uno strato di "norme" al loro "trasformatore" (un modello di apprendimento automatico) per ampliarlo. L'autore osserva inoltre che sono stati modificati alcuni iperparametri e diminuito il tasso di apprendimento, al fine di rendere il modello più efficiente.

  • 01:40:00 Questo video spiega come un trasformatore solo decodificatore può essere utilizzato per la traduzione automatica e come può essere migliorato aggiungendo un codificatore. Il risultato è un Transformer più simile all'architettura della carta originale, destinata a un compito diverso.

  • 01:45:00 GPT è un sistema di codifica-decodifica basato su modello molto simile al sistema di codifica-decodifica basato su modello utilizzato nel video.

  • 01:50:00 Il video e la trascrizione di accompagnamento spiegano come un GPT (general-purpose data summaryr) è stato addestrato su un piccolo set di dati per riassumere i documenti in modo simile a un assistente.

  • 01:55:00 Il video riassume come costruire un modello linguistico utilizzando il codice, utilizzando il modello GPT come esempio. Il modello viene addestrato utilizzando un algoritmo di apprendimento supervisionato e quindi perfezionato utilizzando un modello di ricompensa. C'è molto spazio per ulteriori perfezionamenti e il video suggerisce che per compiti più complessi potrebbero essere necessarie ulteriori fasi di formazione.
Let's build GPT: from scratch, in code, spelled out.
Let's build GPT: from scratch, in code, spelled out.
  • 2023.01.17
  • www.youtube.com
We build a Generatively Pretrained Transformer (GPT), following the paper "Attention is All You Need" and OpenAI's GPT-2 / GPT-3. We talk about connections t...
 

MIT 6.801 Machine Vision, autunno 2020. Lezione 1: Introduzione alla visione artificiale



Lezione 1: Introduzione alla visione artificiale

La conferenza "Introduzione alla visione artificiale" fornisce una panoramica completa della logistica e degli obiettivi del corso, con enfasi sull'approccio basato sulla fisica all'analisi delle immagini. Copre i componenti della visione artificiale, i problemi mal posti, l'orientamento della superficie e le sfide dell'elaborazione delle immagini. Il docente introduce anche il metodo di ottimizzazione dei minimi quadrati e il modello stenopeico utilizzato nelle fotocamere. Vengono discussi brevemente anche il sistema di coordinate incentrato sulla telecamera, l'asse ottico e l'uso dei vettori. Il corso si propone di preparare gli studenti a corsi più avanzati di visione artificiale e applicazioni reali della matematica e della fisica nella programmazione.

Il relatore discute anche vari concetti relativi alla formazione dell'immagine, tra cui la notazione vettoriale per la proiezione prospettica, l'illuminazione della superficie, lo scorcio degli elementi della superficie e il modo in cui i problemi di visione 3D possono essere risolti utilizzando immagini 2D. Il docente spiega come varia l'illuminazione su una superficie con l'angolo incidente e la relazione del coseno tra la lunghezza del rosso e la lunghezza della superficie, che può essere utilizzata per misurare la luminosità di diverse parti di una superficie. Tuttavia, determinare l'orientamento di ogni piccola sfaccettatura di un oggetto può essere difficile a causa di due incognite. Il relatore spiega anche il motivo per cui possiamo risolvere un problema di visione 3D utilizzando immagini 2D e conclude menzionando che la matematica per la tomografia è semplice, ma le equazioni sono complicate, il che rende difficile eseguire le inversioni.

  • 00:00:00 In questa sezione, l'istruttore di Machine Vision 6801 introduce la logistica del corso, inclusi i compiti e il sistema di valutazione, sia per 6801 che per 6866. Ci sono cinque compiti a casa e due quiz, con la collaborazione consentita solo sul problemi con i compiti. Quelli in 6866 avranno un progetto a termine che implementa un metodo di visione artificiale, preferibilmente un problema dinamico. Il corso non dispone di un libro di testo, ma gli elaborati saranno disponibili sul sito web del corso.

  • 00:05:00 In questa sezione, il docente spiega gli obiettivi e i risultati del corso Introduzione alla visione artificiale, in cui gli studenti impareranno a recuperare informazioni sull'ambiente dalle immagini, utilizzando un approccio basato sulla fisica per analizzare i raggi luminosi, superfici e immagini. Il corso insegnerà agli studenti come estrarre caratteristiche utili dai dati grezzi e fornire applicazioni reali di matematica e fisica nella programmazione, con alcuni concetti matematici di base come calcolo, vettori, matrici e un po' di algebra lineare spiegati. Inoltre preparerà gli studenti per corsi di visione artificiale più avanzati in futuro.

  • 00:10:00 In questa sezione della trascrizione, il relatore fornisce una panoramica di ciò che il corso sulla visione artificiale coprirà e ciò che non coprirà. Il corso riguarderà la geometria di base ei sistemi lineari, nonché la convoluzione e la formazione dell'immagine. Tuttavia, non si tratta di elaborazione delle immagini o riconoscimento di modelli. Inoltre, il corso non approfondisce l'apprendimento automatico o l'imaging computazionale, ma si concentra piuttosto sui calcoli diretti utilizzando modelli basati sulla fisica. L'oratore menziona anche che la visione umana non sarà ampiamente discussa.

  • 00:15:00 In questa sezione, il docente introduce la visione artificiale e alcuni esempi di ciò che può fare, come recuperare il movimento dell'immagine e stimare le forme della superficie. Il docente adotta un approccio al problema basato sulla fisica e discute il recupero del movimento dell'osservatore da immagini che variano nel tempo, la stima del tempo alla collisione e lo sviluppo di una descrizione dell'ambiente basata su immagini. La conferenza copre anche mappe di contorno da fotografie aeree, lavoro di visione artificiale industriale e risoluzione del problema di scegliere un oggetto da una pila di oggetti nella produzione.

  • 00:20:00 In questa sezione, il docente discute problemi mal posti, che sono problemi che non hanno una soluzione, hanno un numero infinito di soluzioni o hanno soluzioni che dipendono dalle condizioni iniziali. La discussione è incentrata sui metodi di visione artificiale che determinano la posizione e l'orientamento di una telecamera, che possono essere imprecisi a causa di piccoli errori di misurazione. La conferenza esplora anche come possiamo percepire le informazioni tridimensionali da immagini bidimensionali e mette in evidenza la sfida di contare i vincoli rispetto alle incognite quando si risolvono le variabili. Il docente presenta esempi di algoritmi che determinano la forma 3D degli oggetti dalle immagini, come il naso di Richard Feynman e un ellissoide oblato, e come possono essere utilizzati per scopi pratici come l'utilizzo di una stampante 3D per creare un modello di un oggetto.

  • 00:25:00 In questa sezione, il docente fornisce una panoramica della visione artificiale e dei suoi componenti, tra cui una scena/mondo, un dispositivo di imaging e un sistema di visione artificiale responsabile della creazione di una descrizione. Le applicazioni più interessanti della visione artificiale riguardano la robotica, dove la prova del successo è la capacità del robot di interagire correttamente con l'ambiente utilizzando la descrizione costruita. Uno degli aspetti più impegnativi della visione artificiale è determinare il tempo di contatto e il focus dell'espansione, in particolare come misurare l'espansione dell'immagine quando le informazioni disponibili sono solo un'immagine in scala di grigi. Il docente osserva che anche la calibrazione è una parte essenziale ma spesso trascurata del processo.

  • 00:30:00 In questa sezione, il docente discute i sistemi di coordinate e le trasformazioni tra di loro, in particolare nel caso di robot e telecamere. Menzionano anche l'uso del calcolo analogico per l'elaborazione delle immagini e le sfide legate allo sviluppo di tali algoritmi. La conferenza passa quindi all'argomento della formazione dell'immagine, evidenziando l'importanza dell'illuminazione e il suo ruolo nel determinare i livelli di grigio oi valori RGB in un'immagine. Il docente presenta un'illustrazione di una sorgente luminosa, un dispositivo di immagine e una superficie, sottolineando gli angoli che controllano la riflessione e il loro impatto sull'immagine.

  • 00:35:00 In questa sezione, il docente introduce il concetto di orientamento della superficie e come influisce sulla visione artificiale. Gli oggetti possono avere orientamenti diversi, portando a una diversa luminosità all'interno del contorno dell'oggetto. Inoltre, le proprietà riflettenti della superficie possono anche portare a diversi aspetti, quindi è fondamentale trovare un modo per descrivere e tenere conto di questi effetti. Un approccio prevede l'utilizzo di più luci e un oggetto di calibrazione di forma nota, come una sfera, per ottenere tre vincoli in ogni pixel, consentendo il recupero sia dell'orientamento della superficie che della riflettanza della superficie.

  • 00:40:00 In questa sezione, il professore discute le sfide del lavoro con le immagini a causa del loro rumore intrinseco e della necessità di tenere conto degli errori di misurazione. Spiega che le immagini sono spesso rumorose a causa della quantizzazione grezza delle immagini a 8 bit e delle piccole dimensioni dei pixel, che porta a una sensibilità all'errore di misurazione. Il professore spiega anche come diversi orientamenti della superficie producono colori diversi e come questo può essere utilizzato per costruire un diagramma ad ago, consentendo la ricostruzione della forma. Infine, introduce l'immagine gaussiana estesa come comoda rappresentazione della forma in 3D utile per determinare l'orientamento degli oggetti.

  • 00:45:00 In questa sezione, il docente dimostra un'attività di elaborazione delle immagini per un robot per raccogliere un oggetto, incluso l'uso della calibrazione per stabilire la relazione tra il robot e il sistema di coordinate del sistema di visione e l'uso di qualcosa chiamato un segno del geometra, che è facile da elaborare l'immagine e individuabile con precisione, per determinare tale relazione. Il docente discute poi il concetto di grafica inversa, che mira a imparare qualcosa sul mondo da un'immagine, e la natura mal posta dei problemi inversi, che richiedono metodi in grado di affrontare soluzioni che dipendono in modo sensibile dai dati.

  • 00:50:00 In questa sezione il docente introduce il metodo di ottimizzazione scelto per il corso, ovvero il metodo dei "minimi quadrati". Questo metodo è preferito perché porta a una soluzione in forma chiusa, rendendola facile da implementare ed evitando la possibilità di rimanere bloccati in un minimo locale. Tuttavia, mentre nel corso utilizzeremo molti minimi quadrati, è necessario tenere conto del guadagno di rumore per garantire la robustezza del metodo, in particolare se le misurazioni sono disattivate. Il docente passa quindi all'argomento del modello stenopeico, utilizzato nelle fotocamere con obiettivi, e come può aiutare a spiegare la proiezione da un punto in 3D a un'immagine in 2D. Selezionando un sistema di coordinate incentrato sulla fotocamera, le equazioni diventano semplici da comprendere.

  • 00:55:00 In questa sezione, il docente discute il sistema di coordinate utilizzato per la visione artificiale, che è incentrato sulla telecamera. L'origine è posta al centro della proiezione e l'asse è allineato con l'asse ottico. La conferenza spiega che l'asse ottico è la linea perpendicolare dal centro di proiezione al piano dell'immagine. Inoltre, la conferenza tocca l'uso dei vettori nella visione artificiale e come denotarli nella notazione per le pubblicazioni di ingegneria. Infine, la conferenza afferma che la relazione tra il movimento 3D e 2D può essere ottenuta differenziando l'equazione precedentemente menzionata.

  • 01:00:00 In questa sezione, il docente spiega la notazione vettoriale utilizzata per la proiezione prospettica e come semplifica la manipolazione delle equazioni. Sebbene la notazione vettoriale non riduca necessariamente il numero di simboli utilizzati, rende più facile il trasporto di tutti i singoli componenti. Il docente discute quindi l'uso dei vettori colonna e traspone nella loro notazione. La sezione si conclude con un'introduzione alla luminosità e alla sua relazione con l'immagine catturata dalle fotocamere.

  • 01:05:00 In questa sezione, il docente spiega che la luminosità di un oggetto dipende dalla sua illuminazione e da come la superficie riflette la luce. Discute anche di come la distanza non influisca sulla formazione dell'immagine allo stesso modo di una sorgente luminosa perché l'area ripresa sui propri recettori aumenta all'aumentare della distanza dall'oggetto. Inoltre, afferma che il tasso di variazione della distanza o dell'orientamento può influire sulla formazione dell'immagine, che si vede nello scorcio della potenza di un elemento di superficie sotto una fonte di luce.

  • 01:10:00 In questa sezione, l'oratore spiega come varia l'illuminazione su una superficie con l'angolo incidente e la relazione del coseno tra la lunghezza del rosso e la lunghezza della superficie. Questa variabilità nell'illuminazione può essere utilizzata per misurare la luminosità di diverse parti di una superficie, il che può aiutare a capire qualcosa sull'orientamento della superficie. Tuttavia, poiché ci sono due incognite, la normale alla superficie e la luminosità, può essere difficile determinare l'orientamento di ogni piccola sfaccettatura di un oggetto. L'oratore discute diversi modi per risolvere questo problema, incluso un approccio di forza bruta per l'utilizzo di più sorgenti luminose o sorgenti luminose colorate.

  • 01:15:00 In questa sezione, l'istruttore discute il fenomeno dello scorcio e dell'inversione che influenza l'illuminazione incidente e il modo in cui viene ripreso su una superficie. Spiega anche il motivo per cui possiamo risolvere un problema di visione 3D utilizzando immagini 2D, perché viviamo in un mondo visivo con raggi rettilinei e superfici solide. I raggi non vengono interrotti quando attraversano l'aria, facilitando la mappatura della superficie 3D in un'immagine 2D. La tomografia può essere utilizzata se sono necessarie più viste per capire la distribuzione dei coloranti colorati in una stanza piena di gelatina. Conclude menzionando che la matematica per la tomografia è semplice, ma le equazioni sono complicate, il che rende difficile eseguire le inversioni.
Lecture 1: Introduction to Machine Vision
Lecture 1: Introduction to Machine Vision
  • 2022.06.08
  • www.youtube.com
MIT 6.801 Machine Vision, Fall 2020Instructor: Berthold HornView the complete course: https://ocw.mit.edu/6-801F20YouTube Playlist: https://www.youtube.com/p...