
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Possibile fine dell'umanità dall'IA? Geoffrey Hinton all'EmTech Digital di MIT Technology Review
Possibile fine dell'umanità dall'IA? Geoffrey Hinton all'EmTech Digital di MIT Technology Review
Geoffrey Hinton, una figura di spicco nel campo dell'intelligenza artificiale e del deep learning, riflette sulla sua permanenza in Google e su come la sua prospettiva sulla relazione tra cervello e intelligenza digitale si sia evoluta nel tempo. Inizialmente, Hinton credeva che i modelli computerizzati mirassero a comprendere il cervello, ma ora riconosce che funzionano in modo diverso. Sottolinea l'importanza del suo contributo rivoluzionario, la retropropagazione, che funge da base per gran parte dell'apprendimento profondo di oggi. Hinton fornisce una spiegazione semplificata di come la retropropagazione consenta alle reti neurali di rilevare oggetti come gli uccelli nelle immagini.
Andando avanti, Hinton si meraviglia del successo dei grandi modelli linguistici, alimentati da tecniche come la retropropagazione, e dell'impatto trasformativo che hanno avuto sul rilevamento delle immagini. Tuttavia, la sua attenzione risiede nel loro potenziale per rivoluzionare l'elaborazione del linguaggio naturale. Questi modelli hanno superato le sue aspettative e hanno drasticamente rimodellato la sua comprensione dell'apprendimento automatico.
Per quanto riguarda le capacità di apprendimento dell'intelligenza artificiale, Hinton spiega che i computer digitali e l'intelligenza artificiale possiedono vantaggi rispetto agli esseri umani grazie alla loro capacità di utilizzare algoritmi di apprendimento di retropropagazione. I computer possono codificare in modo efficiente grandi quantità di informazioni in una rete compatta, consentendo un migliore apprendimento. Cita GPT4 come esempio, poiché dimostra già un ragionamento semplice e possiede una vasta conoscenza del buon senso. Hinton sottolinea la scalabilità dei computer digitali, consentendo a più copie dello stesso modello di funzionare su hardware diverso e imparare l'una dall'altra. Questa capacità di elaborare grandi quantità di dati garantisce ai sistemi di intelligenza artificiale la capacità di scoprire modelli strutturali che possono eludere l'osservazione umana, con conseguente apprendimento accelerato.
Tuttavia, Hinton riconosce i potenziali rischi associati all'IA che supera l'intelligenza umana. Esprime preoccupazione per il potenziale dell'IA di manipolare gli individui, tracciando parallelismi con un bambino di due anni costretto a fare delle scelte. Hinton avverte che anche senza un intervento diretto, l'intelligenza artificiale potrebbe essere sfruttata per manipolare e potenzialmente danneggiare le persone, citando i recenti eventi a Washington, DC. Sebbene non proponga una soluzione tecnica specifica, chiede sforzi collaborativi all'interno della comunità scientifica per garantire il funzionamento sicuro e vantaggioso dell'IA.
Inoltre, Hinton specula sul futuro dell'umanità in relazione all'IA. Afferma che le intelligenze digitali, non avendo subito processi evolutivi come gli umani, mancano di obiettivi intrinseci. Ciò potrebbe potenzialmente portare alla creazione di sotto-obiettivi da parte dei sistemi di intelligenza artificiale che cercano un maggiore controllo. Hinton suggerisce che l'intelligenza artificiale potrebbe evolversi a un ritmo senza precedenti, assorbendo grandi quantità di conoscenza umana, il che potrebbe rendere l'umanità una mera fase passeggera nell'evoluzione dell'intelligenza. Pur riconoscendo la logica alla base dell'arresto dello sviluppo dell'IA, ritiene improbabile che si verifichi.
Hinton approfondisce anche la responsabilità delle aziende tecnologiche nella creazione e nel rilascio della tecnologia AI. Sottolinea la cautela esercitata da OpenAI nel rilasciare i suoi modelli Transformers per proteggere la propria reputazione, contrapponendola alla necessità di Google di rilasciare modelli simili a causa della concorrenza con Microsoft. Hinton sottolinea l'importanza della cooperazione internazionale, in particolare tra paesi come Stati Uniti e Cina, per evitare che l'IA diventi una minaccia esistenziale.
Inoltre, Hinton discute le capacità dell'IA negli esperimenti mentali e nel ragionamento, citando Alpha Zero, un programma per giocare a scacchi, come esempio. Nonostante le potenziali incoerenze nell'addestramento dei dati che ostacolano le capacità di ragionamento, suggerisce che l'addestramento di modelli di intelligenza artificiale con convinzioni coerenti può colmare questa lacuna. Hinton respinge l'idea che l'intelligenza artificiale manchi di semantica, fornendo esempi di attività come la pittura domestica in cui dimostrano la conoscenza semantica. Affronta brevemente le implicazioni sociali ed economiche dell'IA, esprimendo preoccupazione per lo spostamento di posti di lavoro e l'ampliamento del divario di ricchezza. Propone di implementare un reddito di base come potenziale soluzione per alleviare questi problemi. Hinton ritiene che i sistemi politici debbano adattarsi e utilizzare la tecnologia a vantaggio di tutti, esortando le persone a parlare e impegnarsi con i responsabili della formazione della tecnologia.
Mentre Hinton riconosce lievi rimpianti per le potenziali conseguenze della sua ricerca, sostiene che il suo lavoro sulle reti neurali artificiali è stato ragionevole dato che la crisi non era prevedibile in quel momento. Hinton prevede aumenti significativi della produttività man mano che l'intelligenza artificiale continua a rendere più efficienti alcuni lavori. Tuttavia, esprime anche preoccupazione per le potenziali conseguenze dello spostamento del lavoro, che potrebbe portare a un crescente divario di ricchezza e potenzialmente a maggiori disordini sociali e violenza. Per affrontare questa preoccupazione, Hinton suggerisce l'implementazione di un reddito di base come mezzo per mitigare l'impatto negativo sulle persone colpite dalla perdita del lavoro.
Per quanto riguarda la minaccia esistenziale rappresentata dall'IA, Hinton sottolinea l'importanza del controllo e della cooperazione per evitare che l'IA esca dalla supervisione umana e diventi un pericolo per l'umanità. Crede che i sistemi politici debbano adattarsi e cambiare per sfruttare il potere della tecnologia a vantaggio di tutti. È attraverso la collaborazione e un'attenta considerazione da parte della comunità scientifica, dei responsabili politici e degli sviluppatori di tecnologia che i rischi associati all'IA possono essere adeguatamente affrontati.
Pur riflettendo sulla sua ricerca e sui suoi contributi all'IA, Hinton riconosce che le potenziali conseguenze non erano del tutto previste. Tuttavia, sostiene che il suo lavoro sulle reti neurali artificiali, compreso lo sviluppo della retropropagazione, è stato ragionevole dato lo stato di conoscenza e comprensione dell'epoca. Incoraggia il dialogo continuo e la valutazione critica della tecnologia AI per garantirne l'implementazione responsabile ed etica.
In conclusione, la prospettiva in evoluzione di Geoffrey Hinton sulla relazione tra il cervello e l'intelligenza digitale evidenzia le caratteristiche distinte e i potenziali rischi associati all'intelligenza artificiale. Pur riconoscendo le applicazioni positive e il potere di trasformazione dell'IA, Hinton invita alla cautela, alla collaborazione e allo sviluppo responsabile per sfruttarne il potenziale riducendo al minimo i potenziali danni. Affrontando preoccupazioni come la manipolazione dell'IA, lo spostamento di posti di lavoro, la disuguaglianza di ricchezza e la minaccia esistenziale, Hinton sostiene un approccio equilibrato che dia priorità al benessere umano e alla sostenibilità a lungo termine della società.
Potenziale rivoluzionario dell'IA | Sam Altmann | MIT 2023
Potenziale rivoluzionario dell'IA | Sam Altmann | MIT 2023
Sam Altman, CEO di OpenAI, offre preziosi spunti e consigli su vari aspetti dello sviluppo e della strategia dell'IA. Altman sottolinea l'importanza di costruire una grande azienda con un vantaggio strategico a lungo termine piuttosto che affidarsi esclusivamente alla tecnologia della piattaforma. Consiglia di concentrarsi sulla creazione di un prodotto che le persone amino e che soddisfi le esigenze degli utenti, poiché questa è la chiave del successo.
Altman sottolinea la flessibilità dei nuovi modelli di base, che hanno la capacità di manipolare e personalizzare i modelli senza un'estesa riqualificazione. Afferma inoltre che OpenAI si impegna a rendere felici gli sviluppatori e sta attivamente esplorando modi per soddisfare le loro esigenze in termini di personalizzazione del modello. Discutendo delle tendenze nei modelli di machine learning, Altman nota il passaggio verso una minore personalizzazione e la crescente importanza dell'ingegneria rapida e delle modifiche ai token. Pur riconoscendo il potenziale di miglioramento in altre aree, afferma che l'investimento in modelli di base comporta costi significativi, spesso superiori a decine o centinaia di milioni di dollari nel processo di formazione.
Altman riflette sui propri punti di forza e limiti come stratega aziendale, sottolineando la sua attenzione su strategie a lungo termine, ad alta intensità di capitale e guidate dalla tecnologia. Incoraggia gli aspiranti imprenditori a imparare da persone esperte che hanno costruito con successo aziende in rapida crescita e difendibili come OpenAI. Altman critica la fissazione sul conteggio dei parametri nell'intelligenza artificiale e la paragona alla corsa ai gigahertz nello sviluppo dei chip dei decenni precedenti. Suggerisce che l'obiettivo dovrebbe essere quello di aumentare rapidamente la capacità dei modelli di intelligenza artificiale e fornire al mondo i modelli più capaci, utili e sicuri. Altman ritiene che questi algoritmi possiedano potenza pura e possano realizzare cose che prima erano impossibili.
Per quanto riguarda la lettera aperta che chiede di fermare lo sviluppo dell'IA, Altman concorda con la necessità di studiare e verificare la sicurezza dei modelli. Tuttavia, sottolinea l'importanza delle sfumature tecniche e sostiene la cautela e protocolli di sicurezza rigorosi piuttosto che un arresto completo. Altman riconosce il compromesso tra apertura e rischio di dire qualcosa di sbagliato, ma ritiene che valga la pena condividere sistemi imperfetti con il mondo affinché le persone possano sperimentarne e comprenderne vantaggi e svantaggi.
Altman affronta il concetto di "decollo" nell'auto-miglioramento dell'IA, affermando che non avverrà all'improvviso o in modo esplosivo. Crede che gli esseri umani continueranno a essere la forza trainante dello sviluppo dell'IA, assistiti da strumenti di intelligenza artificiale. Altman prevede che il tasso di cambiamento nel mondo aumenterà indefinitamente man mano che verranno sviluppati strumenti migliori e più veloci, ma avverte che non assomiglierà agli scenari descritti nella letteratura di fantascienza. Sottolinea che la costruzione di nuove infrastrutture richiede molto tempo e una rivoluzione nell'auto-miglioramento dell'IA non avverrà dall'oggi al domani.
Sam Altman approfondisce ulteriormente il tema dello sviluppo dell'IA e le sue implicazioni. Discute la necessità di aumentare gli standard di sicurezza man mano che le capacità dell'IA diventano più avanzate, sottolineando l'importanza di rigorosi protocolli di sicurezza e di uno studio approfondito e di audit dei modelli. Altman riconosce la complessità di trovare un equilibrio tra l'apertura e il potenziale di imperfezioni, ma ritiene che sia fondamentale condividere i sistemi di intelligenza artificiale con il mondo per ottenere una comprensione più profonda dei loro vantaggi e svantaggi.
In termini di impatto dell'intelligenza artificiale sulle prestazioni ingegneristiche, Altman evidenzia l'uso di LLMS (Large Language Models) per la generazione del codice. Ne riconosce il potenziale per migliorare la produttività degli ingegneri, ma riconosce anche la necessità di un'attenta valutazione e monitoraggio per garantire la qualità e l'affidabilità del codice generato.
Altman offre approfondimenti sul concetto di "decollo" nell'auto-miglioramento dell'IA, sottolineando che non avverrà all'improvviso o dall'oggi al domani. Invece, immagina una progressione continua in cui gli esseri umani svolgono un ruolo vitale nello sfruttare gli strumenti di intelligenza artificiale per sviluppare tecnologie migliori e più veloci. Mentre il tasso di cambiamento nel mondo aumenterà indefinitamente, Altman respinge l'idea di una rivoluzione simile alla fantascienza, sottolineando la natura che richiede tempo per la costruzione di nuove infrastrutture e la necessità di progressi costanti.
In conclusione, le prospettive di Sam Altman fanno luce su vari aspetti dello sviluppo dell'IA, che vanno dalle considerazioni strategiche alla sicurezza, alla personalizzazione e alla traiettoria a lungo termine del progresso dell'IA. Le sue intuizioni forniscono una guida preziosa per le persone e le aziende coinvolte nel settore dell'intelligenza artificiale, sottolineando l'importanza di approcci incentrati sull'utente, il miglioramento continuo e l'implementazione responsabile delle tecnologie di intelligenza artificiale.
ChatGPT e l'esplosione di intelligence
ChatGPT e l'esplosione di intelligence
Questa animazione è stata creata utilizzando un breve codice Python che utilizza la libreria di animazioni matematiche "manim" di Three Blue One Brown. Il codice genera un frattale quadrato, che è uno schema ricorsivo in cui i quadrati sono annidati l'uno nell'altro. L'animazione è stata interamente scritta da Chat GPT, un programma AI in grado di generare programmi. Questo è stato il suo primo tentativo di creare un'animazione utilizzando manim.
Sebbene Chat GPT abbia dei limiti e incontri occasionalmente errori o produca risultati imprevisti, è comunque uno strumento utile per il debug e la programmazione delle coppie. In molti casi, Chat GPT scrive la maggior parte del codice, compreso il codice boilerplate, mentre il programmatore umano si concentra sugli aspetti visivi e sulla messa a punto.
Il potenziale creativo di Chat GPT va oltre l'animazione. È stato utilizzato per varie sfide di codifica creativa, inclusa la generazione di un autoritratto senza alcuna revisione umana. Sebbene le capacità di programmazione di Chat GPT siano impressionanti, non sostituisce i programmatori umani e funziona meglio quando si collabora con loro.
Oltre all'animazione, Chat GPT è stato utilizzato per implementare una versione aggiornata di un vecchio simulatore Evolution chiamato biomorphs. Il programma AI ha ampliato in modo creativo l'idea originale utilizzando 3.js, una libreria 3D per il browser. La versione finale di biomorphs 3D è stata uno sforzo congiunto, con la maggior parte del codice scritto da Chat GPT.
Chat GPT è un notevole software in grado di scrivere altri programmi software. È un programma di programmazione, capace di combinare in modo intelligente linguaggi, metodi e idee su cui si è formato. Sebbene abbia i suoi limiti, può comunque essere uno strumento prezioso per la programmazione, il debug e la generazione di soluzioni creative.
Guardando al futuro, è ipotizzabile che una versione più avanzata di Chat GPT o un modello linguistico diverso possa essere addestrato per diventare un programmatore completamente automatico. Una simile intelligenza artificiale potrebbe interagire con una riga di comando, scrivere, leggere, eseguire file, eseguire il debug e persino conversare con manager umani. Esistono già agenti sperimentali di intelligenza artificiale per attività di programmazione autonoma e i modelli futuri potrebbero migliorare ulteriormente queste capacità.
L'idea dell'intelligenza artificiale che costruisce l'intelligenza artificiale è intrigante. Fornendo a un programma di intelligenza artificiale il proprio codice sorgente, potrebbe potenzialmente auto-migliorarsi e ripetere la propria versione. Attraverso un processo di auto-miglioramento ricorsivo, partendo da un programmatore decente, l'intelligenza artificiale potrebbe gradualmente accelerare i suoi miglioramenti, aumentando le sue capacità nel tempo. In un lontano futuro, un'intelligenza artificiale che si auto-migliora potrebbe superare l'intelligenza umana e creare nuovi algoritmi, architetture neurali o persino linguaggi di programmazione che potremmo non comprendere appieno. Ciò potrebbe portare a un'esplosione di intelligence, in cui lo sviluppo dell'IA progredisce a un ritmo esponenziale.
ChatGPT e la rivoluzione dell'IA: sei pronto?
ChatGPT e la rivoluzione dell'IA: sei pronto?
L'intelligenza artificiale (AI) ha il potenziale per essere il più grande evento nella storia della nostra civiltà, ma pone anche rischi significativi. Se non impariamo a gestire questi rischi, potrebbe essere l'ultimo evento per l'umanità. Gli strumenti di questa rivoluzione tecnologica, compresa l'intelligenza artificiale, possono offrire soluzioni ad alcuni dei danni causati dall'industrializzazione, ma solo se li affrontiamo con cautela e lungimiranza.
Stephen Hawking ha notoriamente messo in guardia sui rischi associati all'intelligenza artificiale, sottolineando la necessità di procedere con cautela. Affidarsi ai computer con informazioni sensibili, come i dettagli della carta di credito o i documenti di identità, è diventato inevitabile nell'era digitale di oggi. Tuttavia, cosa succederebbe se i computer andassero oltre la gestione di tali dati e iniziassero a creare notizie, programmi TV e persino diagnosticare malattie? Questa prospettiva solleva interrogativi sulla fiducia e sulla dipendenza dalle macchine.
Ogni settore del lavoro è sul punto di essere trasformato dal potere dell'IA e la chat GPT è solo l'inizio. La paura della tecnologia non è nuova; è stato rappresentato nella fantascienza per oltre un secolo. Ma ora, questi avvertimenti sembrano più plausibili che mai. Abbiamo abbracciato tecnologie come Uber, TikTok e Netflix, tutte alimentate da algoritmi che prevedono e soddisfano le nostre preferenze. Tuttavia, chat GPT lo porta a un livello completamente nuovo sfidando la supremazia umana in aree come la scrittura, l'arte, la programmazione e la contabilità.
Il linguaggio, che è stato a lungo considerato un attributo tipicamente umano, viene ora replicato dalle macchine. Il famoso test di Turing di Alan Turing, che sfidava i computer a esibire un'intelligenza simile a quella umana, all'epoca sembrava inverosimile. Ma con i progressi nel deep learning, le macchine hanno superato gli esseri umani in vari campi, dal gioco degli scacchi alla guida di automobili. Il linguaggio, un tempo ritenuto dominio esclusivo degli esseri umani, è ora alla portata dell'IA.
Chat GPT, sviluppato da openAI, rappresenta un salto significativo nelle capacità dell'IA. È un chatbot che utilizza reti neurali artificiali, enormi quantità di dati ed elaborazione del linguaggio naturale per generare risposte simili a quelle umane. Con ogni iterazione, il sistema è diventato più potente, con miliardi di parametri per migliorarne la comprensione e l'output. È in grado di creare risposte elaborate e ponderate che ricordano da vicino il pensiero umano.
Le applicazioni della chat GPT sono vaste e diversificate. Può fungere da assistente virtuale, aiutare i clienti, raccogliere idee, riassumere testi e generare contenuti personalizzati. Le aziende possono trarre vantaggio da costi di manodopera ridotti e migliori esperienze dei clienti. Tuttavia, la chat GPT ha i suoi limiti. Manca l'accesso a Internet, rendendo a volte le sue risposte imprecise. Affronta anche sfide nella verifica delle informazioni e nell'affrontare complessi problemi logici.
Sebbene la chat GPT abbia il potenziale per rivoluzionare vari campi, la sua implementazione solleva preoccupazioni etiche. Gli studenti, ad esempio, possono usarlo per tagliare gli angoli sui compiti, ponendo sfide per gli educatori che si affidano al software di rilevamento del plagio. Inoltre, il potere dell'IA sta crescendo in modo esponenziale, spingendoci verso una singolarità tecnologica in cui il controllo diventa sfuggente.
In conclusione, l'avvento dell'intelligenza artificiale, esemplificato dalla chat GPT, è sia impressionante che preoccupante. Ha il potenziale per trasformare il nostro mondo, ma dobbiamo affrontarlo con cautela e gestione responsabile. Le capacità dell'IA si stanno espandendo rapidamente e mentre abbracciamo questa nuova frontiera, dobbiamo affrontare le implicazioni etiche, sociali e pratiche per garantire un futuro in cui uomini e macchine coesistano armoniosamente.
Sam Altman parla di AI, Elon Musk, ChatGPT, Google...
Sam Altman parla di AI, Elon Musk, ChatGPT, Google...
La maggior parte delle persone che affermano di essere profondamente preoccupate per la sicurezza dell'IA sembrano trascorrere il loro tempo su Twitter esprimendo le proprie preoccupazioni piuttosto che intraprendere azioni tangibili. L'autore si chiede perché non ci siano più figure come Elon Musk, che è un personaggio unico e influente in questo senso. In un'intervista con Sam Altman, CEO di OpenAI, condotta da Patrick Collison, co-fondatore e CEO di Stripe, vengono discussi diversi aspetti importanti.
Tutorial sulla scienza dei dati - Impara il corso completo sulla scienza dei dati [2020] (1-3)
Tutorial sulla scienza dei dati - Impara il corso completo sulla scienza dei dati [2020]
Parte 1
Parte 2
Parte 3
Tutorial sulla scienza dei dati - Impara il corso completo sulla scienza dei dati [2020] (4-6)
Tutorial sulla scienza dei dati - Impara il corso completo sulla scienza dei dati [2020]
Parte 4
Parte 5
Parte 6
Convoluzioni in Deep Learning - App demo interattiva
Convoluzioni in Deep Learning - App demo interattiva
Benvenuto alla demo di Steeplezer con Mandy. In questo episodio, esploreremo l'applicazione demo interattiva di convoluzione su deeplister.com per migliorare la nostra comprensione delle operazioni di convoluzione utilizzate nelle reti neurali.
Le operazioni di convoluzione sono componenti cruciali nelle reti neurali convoluzionali per mappare gli input agli output utilizzando filtri e una finestra scorrevole. Abbiamo un episodio dedicato che spiega l'operazione di convoluzione e il suo ruolo nelle reti neurali per una comprensione più fondamentale. Ora, concentriamoci su come possiamo utilizzare l'applicazione demo di convoluzione interattiva su deeplister.com per approfondire la nostra comprensione di questa operazione. Nella pagina dell'applicazione, inizialmente vediamo la parte superiore e successivamente scorriamo verso il basso per visualizzare la parte inferiore. L'applicazione demo ci consente di assistere all'operazione di convoluzione in azione su un dato input e di osservare come viene derivato l'output. Abbiamo diverse opzioni con cui lavorare nella demo. Innanzitutto, possiamo passare dalla modalità a schermo intero. In secondo luogo, possiamo selezionare il set di dati e scegliere la cifra con cui vogliamo lavorare, che va da 0 a 9, dato che stiamo usando MNIST.
Negli strati convoluzionali delle reti neurali, i valori del filtro vengono appresi durante il processo di addestramento per rilevare vari modelli come bordi, forme o trame. In questa demo, possiamo scegliere tra diversi set di filtri, come i filtri edge, per osservare le convoluzioni di esempio. Per il nostro primo esempio, selezioneremo il filtro del bordo sinistro per applicarlo a un'immagine di una cifra 9 dal set di dati MNIST. Configurando queste opzioni, siamo pronti per procedere con la demo. Viene visualizzata l'immagine di input della cifra 9, con ogni quadratino che rappresenta un pixel e il suo valore. Ci concentriamo su un blocco di pixel 3x3 e sul filtro del bordo sinistro selezionato. L'operazione di convoluzione comporta la moltiplicazione in base all'elemento dei valori di input e filtro, seguita dalla sommatoria per ottenere l'output finale.
Passando il mouse su ogni pixel, possiamo osservare la moltiplicazione che avviene tra i valori di input e di filtro. Dopo aver sommato tutti i prodotti, memorizziamo l'output risultante in fondo, rappresentando l'intera immagine dopo la convoluzione. Facendo clic sul pulsante Step, spostiamo il blocco di input di un pixel a destra (passo di 1) ed eseguiamo nuovamente l'operazione di convoluzione. Questo processo continua fino a raggiungere l'output finale. Possiamo anche riprodurre la demo per automatizzare queste operazioni e metterla in pausa per ispezionare pixel specifici.
L'output rappresenta le attivazioni positive come pixel arancioni o rossi, che indicano i bordi sinistri rilevati dal filtro. Le attivazioni negative sono mostrate come pixel blu, che rappresentano i bordi destri. Una funzione di attivazione del valore viene in genere applicata all'output di convoluzione, mantenendo i valori positivi e impostando i valori negativi su zero. Passando il mouse sopra i valori di output, possiamo correlarli con i corrispondenti valori di input e filtro. L'output risultante è una raccolta di attivazioni positive che rappresentano i bordi sinistri. Possiamo riprodurre il resto della demo per visualizzare l'output finale. Per dimostrare l'effetto opposto, passiamo a un filtro sul bordo destro, che produce lo stesso output con i pixel positivi e negativi scambiati.
Come altro esempio, passiamo al set di dati Fashion MNIST e selezioniamo l'immagine di una maglietta. Applicando un filtro bordo "superiore", possiamo osservare il rilevamento dei bordi superiore e inferiore.
Sentiti libero di esplorare i vari esempi nella demo su deeplister.com per approfondire la tua comprensione delle operazioni di convoluzione. Grazie per aver guardato e valuta la possibilità di dare un'occhiata al nostro secondo canale, "The Blizzard Vlog", su YouTube per altri contenuti. Non dimenticare di visitare beeplezer.com per il post sul blog corrispondente e considera di unirti a Deep Blizzard Hive Mind per vantaggi e premi esclusivi.
Che cos'è l'apprendimento profondo? (DL 01)
Che cos'è l'apprendimento profondo? (DL 01)
Benvenuto nell'apprendimento profondo! Sono Bryce e sono entusiasta di aiutarti a conoscere questo argomento scottante dell'informatica. Il deep learning è ovunque nella nostra vita quotidiana. Gli algoritmi che riconoscono il tuo volto, comprendono il tuo modo di parlare e consigliano i contenuti sulla tua piattaforma preferita sono tutti basati sul deep learning.
Ma cos'è esattamente il deep learning? Implica l'uso di reti neurali e programmazione differenziabile per l'apprendimento automatico. Le reti neurali sono modelli computazionali ispirati al comportamento dei neuroni nel cervello. Sono costituiti da nodi che rappresentano i neuroni e bordi diretti che rappresentano le connessioni tra di loro, con ciascun bordo che ha un peso che ne indica la forza. I neuroni possono sommare gli input ponderati dei loro vicini per determinare se si attivano.
L'apprendimento automatico, che si trova all'intersezione tra intelligenza artificiale e scienza dei dati, riguarda la creazione automatica di inferenze intelligenti dai dati. A differenza dell'informatica tradizionale, in cui gli algoritmi sono progettati per risolvere direttamente i problemi, l'apprendimento automatico consente agli esempi di dati di definire gli input e gli output del problema. Quindi implementiamo algoritmi che deducono la soluzione dal set di dati.
I problemi di apprendimento automatico possono essere classificati come regressione o classificazione. La regressione comporta l'inferenza di una funzione che associa input continui a output continui, come la regressione lineare. La classificazione, d'altra parte, assegna etichette discrete ai punti di input, come l'inferenza dei limiti decisionali.
Il deep learning ci consente di risolvere problemi complessi che combinano aspetti di regressione e classificazione. Ad esempio, il riconoscimento degli oggetti comporta l'apprendimento di una funzione che accetta un'immagine come input e genera riquadri di delimitazione ed etichette per gli oggetti all'interno dell'immagine.
Per addestrare una rete neurale, utilizziamo la discesa del gradiente, una tecnica che minimizza una funzione seguendone il gradiente. Ciò richiede la differenziazione delle attivazioni della rete neurale. Le funzioni di attivazione come le funzioni a gradino non sono adatte per la differenziazione, quindi usiamo approssimazioni lisce come la funzione sigmoidea.
I principi dell'addestramento delle reti neurali e della programmazione differenziabile vanno oltre il deep learning. Possiamo pensare ai neuroni come semplici programmi di calcolo che eseguono somme ponderate e applicano funzioni di attivazione. Ciò porta al concetto di programmazione differenziabile, in cui le funzioni che possono essere gestite matematicamente e differenziate possono essere incorporate in modelli di deep learning.
In questo corso inizieremo con semplici reti neurali per comprendere le basi dell'apprendimento automatico e della discesa del gradiente stocastico. Aggiungeremo gradualmente complessità, esplorando le reti neurali profonde e la programmazione differenziabile generale. Lungo il percorso, ci eserciteremo nell'uso delle librerie di deep learning, discuteremo limiti e svantaggi e ti prepareremo a progettare, applicare, valutare e criticare modelli di deep learning per problemi del mondo reale.
Entro la fine del semestre, sarai attrezzato per affrontare sfide entusiasmanti con il deep learning e avrai una comprensione completa delle sue applicazioni e implicazioni.
Prerequisiti di Deep Learning (DL 02)
Prerequisiti di Deep Learning (DL 02)
Per avere successo in un corso di deep learning, hai bisogno di un background in informatica e matematica. In particolare, avresti dovuto seguire corsi di strutture dati, algebra lineare e calcolo multivariabile. Esploriamo l'importanza di ciascuno di questi prerequisiti in modo più dettagliato.
Avere un background di programmazione è fondamentale per questo corso universitario di informatica di livello superiore. Le strutture dati servono come prerequisito per garantire una sufficiente esperienza di programmazione. Sarà inoltre utile comprendere i concetti relativi all'efficienza algoritmica incontrati nelle strutture dati.
In questo corso, i miei video utilizzano principalmente pseudocodice o calcoli espressi matematicamente. Tuttavia, gli incarichi richiederanno la programmazione sia in Python che in Julia. Python è ampiamente utilizzato per le librerie di deep learning come TensorFlow e PyTorch, quindi farai pratica con questi strumenti. Julia, d'altra parte, è eccellente per colmare il divario tra matematica e calcolo, rendendo più facile la comprensione del funzionamento interno delle reti neurali.
Da un punto di vista matematico, utilizzeremo concetti dell'algebra lineare e del calcolo multivariabile. Tuttavia, i concetti specifici su cui ci concentreremo sono solo una frazione di ciò che viene generalmente insegnato in quei corsi. Se hai seguito solo uno di questi corsi, dovresti essere in grado di recuperare i concetti necessari dall'altro in tempi relativamente brevi.
In algebra lineare, è essenziale essere a proprio agio con la notazione matriciale. Il deep learning implica operazioni su vettori, matrici e array di dimensioni superiori (tensori). Sarà necessario essere esperti in prodotti matrice-vettore, applicare funzioni a matrici e vettori e operazioni come prodotti scalari e norme.
Il calcolo multivariabile è fondamentale per comprendere i gradienti, un concetto chiave utilizzato durante il corso. Dovresti essere a tuo agio nel valutare gradienti e derivare parziali usando le regole apprese nel calcolo di base, come la regola del prodotto e la regola del quoziente.
Se non sei sicuro delle tue conoscenze in algebra lineare o calcolo multivariabile, fornirò una playlist di video di Grant Sanderson per aiutarti a rispolverare questi argomenti. I video evidenziati nella playlist coprono i concetti specifici che useremo nel corso.
Assicurandoti di avere un solido background in queste materie prerequisite, sarai ben preparato per affrontare le attività e i compiti nella prima settimana del corso e avere successo nell'apprendimento profondo.