Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
MIT 6.S192 - Lezione 19: Facile creazione di contenuti 3D con campi neurali coerenti, Ajay Jain
MIT 6.S192 - Lezione 19: Facile creazione di contenuti 3D con campi neurali coerenti, Ajay Jain
In questa conferenza, Ajay Jain presenta il suo lavoro sulle rappresentazioni di scene neurali, concentrandosi in particolare sul modello Neural Radiance Fields che utilizza viste di input scarsamente campionate per costruire una rappresentazione della geometria e del colore 3D di una scena. Jain discute le sfide dell'adattamento di un campo di radianza neurale a una singola scena, nonché i modi per migliorare l'efficienza dei dati del processo di addestramento aggiungendo la perdita fotometrica e la perdita di coerenza semantica. Parla anche dell'utilizzo di CLIP per rimuovere gli artefatti in NeRF e generare oggetti 3D dai sottotitoli nel progetto Dream Fields. Altri argomenti includono la creazione di oggetti in primo piano coerenti nelle scene, l'acquisizione di set di dati di oggetti 3D con sottotitoli, la riduzione dei costi di rendering e l'ottimizzazione delle prestazioni del sistema.
MIT 6.S192 - Lezione 20: Arte generativa usando la diffusione, Prafulla Dhariwal
MIT 6.S192 - Lezione 20: Arte generativa usando la diffusione, Prafulla Dhariwal
In questa conferenza, Prafulla Dhariwal di OpenAI discute i progressi della modellazione generativa per compiti creativi difficili, in particolare con i modelli di diffusione. Il processo consiste nell'iniziare con un'immagine e aggiungere lentamente rumore gaussiano ad essa, quindi invertire il processo prendendo un po' di danno rumoroso e rimuovendolo per creare immagini meno rumorose. Il modello generativo si ottiene addestrando un modello per invertire il rumore in questo modo, producendo un'immagine dal rumore puro al momento del test eseguendo il modello passo dopo passo all'indietro. Anche la previsione inversa del processo assomiglia a una distribuzione gaussiana quando la quantità di rumore aggiunta è molto piccola, che viene utilizzata per prevedere la media e la varianza del modello. Dhariwal discute anche di come utilizzare i modelli di diffusione per l'in-painting e affrontare i potenziali pericoli dei contenuti generati dall'IA.
MIT 6.S192 - Conferenza 21: Tra arte, mente e macchine, Sarah Schwettmann
MIT 6.S192 - Conferenza 21: Tra arte, mente e macchine, Sarah Schwettmann
In questa conferenza, Sarah Schwettmann discute l'intersezione tra arte, mente e macchine. Approfondisce la percezione visiva e la sfida di sperimentare un ricco mondo 3D attraverso una tela 2D, che richiede al cervello di risolvere un problema inverso e costruire una migliore spiegazione delle informazioni in arrivo. Schwettmann parla anche di progetti che coinvolgono modelli generativi profondi addestrati su opere d'arte, come l'uso dell'inversione GAN per incorporare le immagini della collezione Met nello spazio delle caratteristiche di un modello di fondazione per comprendere la struttura della creatività umana e la creazione di un vocabolario di concetti visivi per un arbitrario GAN spazio latente campionando lo spazio delle trasformazioni salienti o possibili e utilizzando quelle direzioni del campione come schermo per proiettare giudizi percettivi umani. L'interazione umana e l'etichettatura sono importanti in questo processo e il vocabolario risultante può essere applicato ad altri modelli e utilizzato per manipolare le immagini in vari modi. Nonostante il rumore nei dati dovuto alla diversa scelta delle parole, il loro metodo di distillazione dei vocabolari utilizzando qualsiasi dimensione della libreria di annotazioni può essere ridimensionato e può comportare la formazione di un sottotitolatore per etichettare automaticamente le indicazioni.
Sarah Schwettmann discute anche vari modi per esplorare e assegnare significato alle direzioni all'interno di modelli addestrati sulla creazione umana. Presenta un esperimento che cattura e apprende direzioni visive senza linguaggio, che consente agli esseri umani di definire la trasformazione che desiderano puramente visivamente interagendo con un piccolo gruppo di immagini campionate dallo spazio latente o dallo spazio delle caratteristiche. Questo metodo è utile per etichettare e comprendere le immagini con caratteristiche sfumate e difficili da spiegare. Inoltre, lo spazio latente può diventare uno schermo su cui proiettare le esperienze umane, consentendo ai ricercatori di comprendere meglio aspetti della percezione umana altrimenti difficili da formalizzare.
MIT 6.S192 - Lezione 22: Modelli probabilistici di diffusione, Jascha Sohl-Dickstein
MIT 6.S192 - Lezione 22: Modelli probabilistici di diffusione, Jascha Sohl-Dickstein
In questa conferenza, Jascha Sohl-Dickstein discute i modelli di diffusione, che vengono utilizzati per apprendere compiti separati dai dati di addestramento. I modelli sono probabilistici e possono essere utilizzati per codificare o decodificare i dati. Il processo di diffusione in avanti è un processo fisso e anche il processo inverso è vero.
Questa conferenza discute i modelli probabilistici di diffusione e spiega che, sebbene esista una corrispondenza biunivoca tra lo spazio latente e lo spazio dell'immagine, è possibile lavorare con più classi all'interno dello stesso modello. La conferenza prosegue poi spiegando come utilizzare questi modelli per generare nuove immagini.
GenRep: modelli generativi come origine dati per l'apprendimento della rappresentazione multivista in ICLR2022
Codice: https://github.com/ali-design/GenRep
GenRep: modelli generativi come origine dati per l'apprendimento della rappresentazione multivista in ICLR2022
I relatori discutono il concetto di zoo modello, in cui i modelli generativi pre-addestrati sono resi accessibili senza accesso ai dati sottostanti. Utilizzando l'apprendimento contrastivo, i ricercatori possono creare diverse visioni dello stesso oggetto, che rientreranno nello stesso quartiere all'interno dello spazio di rappresentazione. Hanno scoperto che le semplici trasformazioni gaussiane nello spazio latente erano efficaci e che la generazione di più campioni dagli IGM porta a rappresentazioni migliori. Gli IGM esperti, come StyleGAN Car in domini specifici, possono superare le rappresentazioni apprese da dati reali. Il sito Web del progetto e il codice Github sono disponibili per ulteriori esplorazioni.
Un'intervista con Gilbert Strang sull'insegnamento dei metodi a matrice nell'analisi dei dati, nell'elaborazione dei segnali e nell'apprendimento automatico
Un'intervista con Gilbert Strang sull'insegnamento dei metodi a matrice nell'analisi dei dati, nell'elaborazione dei segnali e nell'apprendimento automatico
Gilbert Strang, un rinomato matematico, sottolinea l'importanza dei progetti rispetto agli esami nell'insegnamento del deep learning, una parte cruciale dell'apprendimento automatico che si basa fortemente sull'algebra lineare. Crede che i progetti consentano agli studenti di capire come applicare il deep learning nel mondo reale e siano un modo più efficace di apprendere. Strang sottolinea inoltre che l'insegnamento riguarda l'apprendimento e il lavoro con gli studenti piuttosto che limitarsi a valutarli. Consiglia ai nuovi professori di usare un gesso grande e di prendersi il tempo di stare con la classe per avere successo nell'insegnamento.
MIT 18.065. Metodi a matrice nell'analisi dei dati, nell'elaborazione dei segnali e nell'apprendimento automatico
Introduzione al corso del Professor Strang
Il professor Strang presenta il suo nuovo corso 18.065, che copre quattro argomenti chiave: algebra lineare, deep learning, ottimizzazione e statistica. Il corso si concentrerà sulle migliori matrici, matrici simmetriche e ortogonali e la loro relazione con l'algebra lineare. Tratterà anche il deep learning, che è fondamentale per l'algebra lineare e comporta calcoli complessi che possono richiedere l'uso di GPU per giorni o addirittura settimane. Il corso toccherà la statistica, che svolge un ruolo nel mantenere i numeri nella funzione di apprendimento entro un buon intervallo, e l'ottimizzazione e la teoria della probabilità, che sono importanti nell'apprendimento degli algoritmi, e le equazioni differenziali che svolgono un ruolo chiave nelle applicazioni scientifiche e ingegneristiche . Il corso include esercizi, problemi e discussioni per fornire una presentazione completa dell'argomento.
Lezione 1: Lo spazio colonna di A contiene tutti i vettori Ax
Lezione 1: Lo spazio colonna di A contiene tutti i vettori Ax
Questa lezione si concentra sul concetto di spazio delle colonne di una matrice, che è una raccolta di tutti i vettori che si possono ottenere moltiplicando la matrice per tutti i possibili vettori. Il docente spiega che lo spazio delle colonne dipende dalla matrice e potrebbe essere l'intero spazio di R3 o un sottoinsieme più piccolo di esso. Il professore discute ulteriormente i concetti di spazio di riga, rango di colonna e rango di riga, nonché la relazione tra questi ranghi. La lezione tocca anche brevemente il primo grande teorema dell'algebra lineare, che afferma che il rango di colonna di una matrice è uguale al rango di riga della matrice. Inoltre, il professore discute i metodi per la moltiplicazione di matrici e il numero di moltiplicazioni richieste per il processo. Nel complesso, la lezione offre un'introduzione all'algebra lineare e alla sua importanza nell'apprendimento dai dati.
Lezione 2: Moltiplicazione e fattorizzazione di matrici
Lezione 2: Moltiplicazione e fattorizzazione di matrici
Questa lezione tratta le basi della moltiplicazione e della fattorizzazione delle matrici. L'autore spiega come le matrici abbiano dimensioni sia nello spazio di riga che in quello di colonna, e come lo spazio di riga abbia dimensione R mentre lo spazio nullo ha dimensione M meno R. La conferenza discute anche la relazione tra righe e soluzioni di un'equazione, così come l'ortogonalità dei vettori nello spazio bidimensionale. Infine, l'autore spiega il teorema fondamentale dell'algebra lineare, il quale afferma che le dimensioni di uno spazio emergono proprio quando si elabora la geometria.
Lezione 3. Colonne ortonormali in Q Dare Q'Q = I
3. Le colonne ortonormali in Q danno Q'Q = I
Questa sezione del video spiega il concetto di matrici ortogonali e il loro significato nell'algebra lineare numerica. L'oratore dimostra che la lunghezza al quadrato di QX deve essere la stessa di X trasposizione QX usando il fatto che Q trasposizione Q è uguale all'identità. Il video discute anche la costruzione di matrici ortogonali utilizzando vari metodi come le matrici Gordan e le matrici Householder. Viene anche spiegata l'importanza e la costruzione delle wavelet, insieme al concetto di utilizzo di autovettori ortogonali nell'elaborazione del segnale. Infine, il relatore parla di come testare vettori ortogonali con numeri complessi e menziona che le matrici ortogonali hanno autovettori ortogonali con autovalori diversi.