Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
CS 198-126: Lezione 3 - Introduzione al Deep Learning, Parte 2
CS 198-126: Lezione 3 - Introduzione al Deep Learning, Parte 2
In questa sezione della lezione viene spiegato il concetto di backpropagation, che è un modo più rapido per ottenere tutte le derivate parziali richieste per l'algoritmo di discesa del gradiente senza eseguire operazioni ridondanti. Il docente discute anche su come migliorare la discesa del gradiente vanilla per l'ottimizzazione del deep learning e introduce momentum, RMSprop e Adam come metodi di ottimizzazione. Vengono discussi anche l'importanza di tenere traccia della cronologia di addestramento di un modello, l'uso della normalizzazione batch e l'insieme come tecnica per migliorare le prestazioni del modello, nonché le tecniche comunemente utilizzate nell'apprendimento profondo per ridurre l'overfitting come l'abbandono e il salto delle connessioni. Infine, il docente tocca brevemente la facilità d'uso di PyTorch e apre la parola alle domande.
CS 198-126: Lezione 4 - Introduzione al Pretraining e Augmentations
CS 198-126: Lezione 4 - Introduzione al Pretraining e Augmentations
In questa lezione, il relatore spiega l'evoluzione dell'estrazione di funzionalità nell'apprendimento automatico, i vantaggi del deep learning e come utilizzare il transfer learning per migliorare l'accuratezza e la velocità dei modelli. Discutono anche del concetto di congelamento e messa a punto dei livelli nelle reti neurali e dell'importanza degli incorporamenti nel ridurre la dimensionalità delle variabili categoriali. La lezione introduce l'apprendimento auto-supervisionato e le sue diverse attività, tra cui il puzzle, la rotazione e le attività di previsione delle parole mascherate, che possono essere utilizzate per preaddestrare i modelli e trasferire le rappresentazioni apprese alle attività a valle. Infine, viene discusso il rinnovato interesse per l'apprendimento auto-supervisionato nella visione artificiale e la lezione incoraggia gli studenti a completare i compiti sul taccuino Crush alto.
semplice per dati tabulari, ma complesso per dati come testo, audio o immagini. Tuttavia, per le immagini, sono disponibili estrattori di funzionalità specializzati nella visione artificiale classica.
CS 198-126: Lezione 5 - Introduzione alla Computer Vision
CS 198-126: Lezione 5 - Introduzione alla Computer Vision
Questa conferenza sulla visione artificiale copre vari argomenti, tra cui la storia della visione artificiale e il suo sviluppo nel corso degli anni. L'istruttore spiega anche il deep learning e come migliora i classici metodi di visione artificiale. La conferenza approfondisce il concetto di convoluzioni e il modo in cui vengono utilizzate come estrattori di caratteristiche nella visione artificiale, portando alla creazione di reti neurali convoluzionali (CNN). Inoltre, la conferenza discute il ruolo dei campi ricettivi e introduce i livelli di raggruppamento come metodo per aumentare il campo ricettivo delle CNN. Nel complesso, la conferenza fornisce una panoramica della visione artificiale come campo e delle tecniche utilizzate per estrarre informazioni dalle immagini. Nella seconda parte della lezione vengono discusse varie tecniche per preservare la dimensione di un'immagine durante le convoluzioni, incluso il padding e lo stesso padding. Viene trattato anche il concetto di falcata negli strati convoluzionali, dimostrando come può imitare l'effetto di uno strato di raggruppamento. Viene spiegata l'anatomia di una CNN e i suoi iperparametri, tra cui la dimensione del kernel, il passo, l'imbottitura e gli strati di raggruppamento, con enfasi su come uno strato convoluzionale agisce come un estrattore di caratteristiche che passa blocchi di caratteristiche a bassa dimensione a un livello completamente connesso rete per la classificazione. Le lezioni trattano anche l'architettura della rete LeNet per la classificazione delle cifre scritte a mano e l'importanza di normalizzare i dati delle immagini prima di farli passare attraverso una rete neurale. Infine, l'aumento dei dati viene discusso come tecnica per la creazione di ulteriori dati di addestramento e viene sottolineata l'importanza del checkpoint del modello durante l'addestramento.
CS 198-126: Lezione 6 - Architetture avanzate di Computer Vision
CS 198-126: Lezione 6 - Architetture avanzate di Computer Vision
Questa conferenza sulle architetture avanzate di visione artificiale si concentra sulle reti neurali convoluzionali (CNN) e sulle loro varie tecniche. Il docente spiega l'architettura di AlexNet e VGG prima di approfondire tecniche avanzate come i residui per mantenere i valori residui all'indietro per una maggiore precisione e architetture più semplici. Vengono discussi l'uso di colli di bottiglia e convoluzioni uno a uno, nonché l'importanza di poter apprendere l'identità nelle architetture di visione artificiale. La conferenza copre anche le questioni relative ai gradienti in via di estinzione nelle reti neurali e come può essere alleviato con la normalizzazione batch e le reti residue. Tecniche come il pooling medio globale e la convoluzione separabile in profondità vengono spiegate in modo approfondito, seguite da una discussione sull'architettura della rete mobile e sui suoi vantaggi.
Inoltre, il docente esamina le architetture avanzate di visione artificiale e si concentra sull'ottimizzazione dei modelli di rete neurale convoluzionale utilizzando convoluzioni locali a gradini e convoluzioni una per una. Sottolinea l'importanza di comprendere queste ottimizzazioni ei problemi che possono sorgere con determinate ottimizzazioni nella costruzione di reti future in modo efficiente. La conferenza si conclude con una discussione sul compromesso tra accuratezza, prestazioni e dimensione del modello, evidenziato dal confronto del modello di rete efficiente con altre reti. Gli studenti vengono informati di un quiz imminente e di un compito a casa in scadenza il venerdì successivo.
CS 198-126: Lezione 7 - Rilevamento di oggetti
CS 198-126: Lezione 7 - Rilevamento di oggetti
La conferenza discute il rilevamento degli oggetti, in particolare l'aggiunta della localizzazione a una semplice CNN di classificazione, il metodo IOU per il rilevamento degli oggetti, il sistema R-CNN e l'ottimizzazione degli algoritmi di rilevamento degli oggetti per ridurre al minimo i tempi di elaborazione con YOLO. Il video spiega YOLO tagliando un'immagine e discute le sfide con il rilevamento di oggetti YOLO, incluso l'uso di scatole di ancoraggio per eliminare l'ambiguità. Infine, viene esplorata l'architettura YOLO, che è una rete neurale completamente convoluzionale per il rilevamento di oggetti, e l'archiviazione di un gran numero di classi per la classificazione viene presentata come una domanda di ricerca in corso. L'oratore consiglia di leggere "The Yellow Paper" sconsigliando l'RCNN a causa della sua illeggibilità.
CS 198-126: Lezione 8 - Segmentazione semantica
CS 198-126: Lezione 8 - Segmentazione semantica
La conferenza discute la segmentazione delle immagini, inclusa la segmentazione semantica e la segmentazione delle istanze. L'obiettivo principale della segmentazione è rilevare tutti gli oggetti in un'immagine e separarli. Il docente spiega come una rete neurale convoluzionale (CNN) può essere utilizzata per la segmentazione semantica e come il downsampling può aiutare con immagini a piena risoluzione computazionalmente costose. Vengono anche discussi diversi approcci per trasformare un piccolo volume in una dimensione di immagine. La conferenza introduce l'U-Net, un modello per la segmentazione semantica che combina i miglioramenti precedenti con le connessioni skip e spiega come può essere esteso alla segmentazione delle istanze utilizzando l'approccio Mask R-CNN. Viene dimostrato un modello di segmentazione semantica pre-addestrato e il relatore parla della pre-formazione e dei prossimi incarichi del corso.
CS 198-126: Lezione 9 - Codificatori automatici, VAE, modellazione generativa
CS 198-126: Lezione 9 - Codificatori automatici, VAE, modellazione generativa
In questa lezione viene introdotto il concetto di modellazione generativa, che prevede l'utilizzo dell'apprendimento automatico per creare nuove immagini basate su un set di dati. Vengono spiegati gli autoencoder, un tipo di rete neurale utilizzata per l'apprendimento delle caratteristiche, concentrandosi sulla loro struttura e su come possono apprendere le caratteristiche dei dati di input attraverso la compressione e la ricostruzione. La lezione copre anche gli autocodificatori variazionali e i loro vantaggi, nonché l'uso di spazi latenti strutturati negli autocodificatori per l'interpolazione tra le immagini. Viene discussa l'importanza della quantizzazione vettoriale per lavorare con dati discreti e viene spiegata la funzione di perdita per un codificatore automatico variazionale, che include una perdita di ricostruzione e una perdita di impegno per impedire l'hardcoding dei dati di input. La conferenza si conclude con un riepilogo degli argomenti trattati.
CS 198-126: Lezione 10 - GAN
CS 198-126: Lezione 10 - GAN
La conferenza sui GAN introduce il concetto di due reti, il discriminatore e il generatore, che competono l'una contro l'altra in una configurazione simile alla teoria dei giochi. L'input del generatore è un rumore casuale, a cui assegna un significato per generare immagini dall'aspetto reale, e il compito del discriminatore è giudicare se l'immagine è reale o falsa. I GAN utilizzano una funzione di perdita che corrisponde alla perdita di entropia incrociata negativa, con il generatore che vuole minimizzarla e il discriminatore che vuole massimizzarla. La funzione valore rappresenta quanto bene sta facendo il generatore e deve essere massimizzata dal discriminatore classificando correttamente dati falsi e reali. La conferenza copre anche problemi con l'addestramento dei GAN e la perdita non saturante che consente al generatore di avere più agenzia per cambiare.
CS 198-126: Lezione 11 - GAN avanzati
CS 198-126: Lezione 11 - GAN avanzati
Questa lezione sui GAN avanzati copre varie tecniche per migliorare la stabilità e la qualità dei modelli GAN, tra cui l'upsampling bilineare, la convoluzione trasposta, i GAN condizionali, StyleGAN e CycleGAN. La conferenza discute anche l'uso del rumore casuale controllato, la normalizzazione dell'istanza adattiva e l'elaborazione di video nei GAN. Per ottenere una migliore stabilità e risultati, il docente consiglia di utilizzare lotti di dimensioni maggiori e di troncare l'intervallo di rumore casuale durante il test, avvertendo nel contempo di non nerfare eccessivamente il discriminatore. Inoltre, si suggerisce di iniziare con un'ampia distribuzione di diverse dimensioni di spazio latente per generare una varietà di immagini. Infine, la conferenza tocca il Big Gan, che aiuta a generare GAN su scala molto ampia.
CS 198-126: Lezione 12 - Modelli di diffusione
CS 198-126: Lezione 12 - Modelli di diffusione
In questa conferenza sui modelli di diffusione, il relatore discute l'intuizione alla base dei modelli di diffusione: prevedere il rumore aggiunto a un'immagine e rimuoverlo per ottenere l'immagine originale. La conferenza copre il processo di formazione, l'architettura migliorata ed esempi di modelli di diffusione nella generazione di immagini e video. Inoltre, la conferenza approfondisce i modelli di diffusione latente, che comprimono il modello in uno spazio latente per eseguire la diffusione sulla parte semantica dell'immagine. Il relatore fornisce anche una panoramica di modelli correlati come Dolly Q, il modello Imagine di Google e Make a Video di Facebook e la loro capacità di generare modelli 3D utilizzando il testo.