Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Machine Learning for Pathology - Lezione 19
Machine Learning for Pathology - Lezione 19 - MIT Deep Learning in the Life Sciences (primavera 2021)
La conferenza copre vari aspetti dell'applicazione del deep learning nella patologia computazionale, comprese le sfide e i limiti della tecnologia. L'oratore discute la necessità di cautela nel fidarsi ciecamente degli algoritmi e sottolinea l'importanza di capire cosa sta imparando una rete. La conferenza esplora diversi esempi di come il deep learning viene utilizzato nella diagnosi del cancro, nella prognosi e nella valutazione della risposta al trattamento per sviluppare strumenti prognostici e predittivi per la medicina di precisione. Il relatore discute anche le sfide dello sviluppo di trattamenti multifarmaco per la tubercolosi e propone vari progetti di laboratorio per affrontare il problema. Nel complesso, la conferenza sottolinea il potenziale del deep learning in patologia, pur riconoscendo i suoi limiti e la necessità di un approccio multidisciplinare per garantire il suo effettivo impiego in contesti clinici.
In questo video di YouTube intitolato "Machine Learning for Pathology - Lecture 19 - MIT Deep Learning in the Life Sciences (Spring 2021)", il relatore discute i tentativi del proprio team di affrontare l'eterogeneità da batch a batch e da cella a cella nell'apprendimento automatico per la patologia utilizzando il tipico normalizzazione della variazione (TVN) e approccio k-nearest neighbor. Descrivono anche l'utilizzo della profilazione morfologica per classificare i farmaci in base ai loro effetti sui batteri e lo sviluppo di un approccio basato sui dati per progettare e dare priorità alle combinazioni di farmaci utilizzando sia l'apprendimento supervisionato che non supervisionato. Inoltre, il relatore ringrazia i membri del suo laboratorio per i loro contributi agli studi sulla sinergia dei farmaci contro l'antagonismo, sottolineando l'importanza di considerare il contesto più ampio per comprendere e far progredire la ricerca nel campo.
Deep Learning per la segmentazione dell'imaging cellulare - Lezione 20
Deep Learning for Cell Imaging Segmentation - Lezione 20 - MIT ML in Life Sciences (primavera 2021)
In questo video, i relatori discutono dell'uso del deep learning per il monitoraggio delle cellule, che comporta la determinazione del movimento delle cellule nell'imaging time-lapse. Spiegano che i tradizionali metodi di tracciamento manuale sono costosi e richiedono tempo e che i metodi di deep learning possono accelerare notevolmente il processo fornendo al contempo una maggiore precisione. I relatori discutono di varie architetture di deep learning per il tracciamento cellulare, tra cui U-Net, StarDist e DeepCell. Notano inoltre che una delle sfide nel tracciamento delle celle è distinguere tra celle vicine o sovrapposte e che metodi come il tracciamento di più oggetti o gli approcci basati su grafici possono aiutare a risolvere questo problema. I relatori sottolineano l'importanza di confrontare diversi metodi di deep learning per il monitoraggio delle celle e fornire set di dati ad accesso aperto per la riproducibilità e il confronto. Evidenziano anche le potenziali applicazioni del tracciamento cellulare in vari campi, come la ricerca sul cancro e la scoperta di farmaci.
Deep Learning Registrazione e analisi delle immagini - Lezione 21
Deep Learning Image Registration and Analysis - Lezione 21 - MIT ML in Life Sciences (primavera 2021)
In questa lezione, Adrian Dalock approfondisce l'argomento dell'allineamento delle immagini mediche e il problema di ottimizzazione che ne deriva. Propone un nuovo metodo chiamato voxel morph, che prevede l'utilizzo di set di dati senza etichetta per addestrare le reti neurali per la registrazione delle immagini. Il relatore discute anche la sfida della robustezza per nuovi dati e sequenze che le reti neurali non hanno mai visto prima e propone di simulare condizioni diverse ed estreme per addestrare modelli robusti. Il relatore confronta i modelli di registrazione classici con i modelli voxel morph e synthmorph, con quest'ultimo notevolmente robusto. Infine, il relatore discute lo sviluppo di una funzione che genera modelli basati sulle proprietà desiderate piuttosto che l'apprendimento diretto di un modello e il potenziale utilizzo dell'endoscopia video della capsula per rilevare anomalie del colon.
Il relatore in questa conferenza discute vari approcci di apprendimento automatico per superare la mancanza di dati medici, in particolare nel contesto dei video di colonscopia per il rilevamento dei polipi. Introducono un'architettura di registrazione e analisi delle immagini di deep learning che utilizza pesi pre-addestrati e inizializzazione casuale per affrontare lo spostamento del dominio e migliorare le prestazioni. La lezione copre anche l'apprendimento debolmente supervisionato, l'apprendimento auto-supervisionato e la segmentazione video debolmente supervisionata. Il relatore riconosce le sfide affrontate nell'utilizzo di approcci di apprendimento automatico nell'analisi dei dati medici e incoraggia a testare questi approcci in procedure mediche reali per ridurre il carico di lavoro.
Fascicolo sanitario elettronico - Lezione 22
Fascicolo sanitario elettronico - Lezione 22 - Deep Learning in Life Sciences (Primavera 2021)
L'emergere dell'apprendimento automatico nel settore sanitario è dovuto all'adozione di cartelle cliniche elettroniche negli ospedali e alla grande quantità di dati dei pazienti che possono essere utilizzati per approfondimenti sanitari significativi. La modellazione della progressione della malattia viene discussa utilizzando i dati longitudinali trovati nei registri delle malattie, che possono porre sfide a causa di dati longitudinali ad alta dimensione, mancanza e censura sinistra e destra. La conferenza esplora l'uso di modelli non lineari come i modelli di Markov profondi per gestire queste sfide e modellare efficacemente la densità non lineare dei biomarcatori longitudinali. Inoltre, il relatore discute l'uso della conoscenza del dominio per sviluppare nuove architetture neurali per la funzione di transizione e l'importanza di incorporare la conoscenza del dominio nella progettazione del modello per una migliore generalizzazione. C'è anche la sperimentazione con la complessità del modello per quanto riguarda le funzioni degli effetti del trattamento, e il relatore prevede di rivisitare questa domanda su una coorte più ampia per determinare ulteriori risultati.
Deep Learning e Neuroscienze - Lezione 23
Apprendimento profondo e neuroscienze - Lezione 23 - Apprendimento profondo nelle scienze della vita (primavera 2021)
La conferenza discute l'interazione tra deep learning e neuroscienze, in particolare nell'area delle scienze visive. L'obiettivo è decodificare l'intelligenza visiva umana, che si riferisce alle capacità comportamentali che gli esseri umani esibiscono in risposta ai fotoni che colpiscono i loro occhi. Il relatore sottolinea la spiegazione di queste capacità nel linguaggio dei meccanismi, come le reti di neuroni simulati, per abilitare sistemi predittivi costruiti che possono beneficiare sia le scienze del cervello che l'intelligenza artificiale. La conferenza esplora come i modelli di deep learning siano ipotesi su come il cervello esegue i processi del sistema sensoriale e le potenziali applicazioni oltre alla semplice imitazione dell'evoluzione del cervello. Inoltre, la conferenza mostra esempi pratici di come le reti neurali possono manipolare i ricordi e cambiare il significato di qualcosa.
Questo video discute il potenziale del deep learning nella comprensione delle funzioni cognitive del cervello e nell'utilizzo di questa comprensione per scopi ingegneristici. Il relatore sottolinea la rilevanza delle reti neurali ricorrenti con le loro capacità di memoria e dinamiche interne in questo settore. La conferenza esplora la capacità dei sistemi neurali di apprendere attraverso l'imitazione e come questa possa essere utilizzata per apprendere rappresentazioni, calcoli e manipolazioni della memoria di lavoro. Il video copre anche la difficoltà nel trovare prove dell'apprendimento tramite feedback come condizione di apprendimento e il potenziale dei meccanismi di correzione degli errori per mettere a punto il sistema. La conferenza si conclude riflettendo sulla diversità degli argomenti trattati nel corso e su come il deep learning possa aiutare a interpretare i sistemi cognitivi in futuro.
MIT 6.S192 - Lezione 1: Estetica computazionale, design, arte | Imparare generando
MIT 6.S192 - Lezione 1: Estetica computazionale, design, arte | Imparare generando
Questa conferenza copre una varietà di argomenti relativi all'estetica computazionale, al design e all'arte. Viene discusso il ruolo dell'intelligenza artificiale nella democratizzazione dell'accesso alla creazione artistica, l'automazione del design e la spinta ai confini dell'arte, nonché le sfide nella quantificazione dell'estetica e nel raggiungimento dell'equilibrio visivo nel design utilizzando rappresentazioni di alto e basso livello. Il docente sottolinea inoltre il potenziale del design computazionale per scoprire modelli e trasmettere messaggi in modo efficace, con esempi che coinvolgono la semantica del colore e il design di copertine di riviste. Gli esperimenti di crowdsourcing vengono utilizzati per determinare le associazioni di colori con vari argomenti e vengono esplorate le potenziali applicazioni di questo metodo in diverse aree. Nel complesso, la conferenza introduce il ruolo dell'IA nelle applicazioni creative e il potenziale per rivoluzionare il modo in cui creiamo arte, design e altre forme di espressione creativa.
Il video discute l'uso dell'estetica computazionale, del design e dell'arte per generare opere creative utilizzando modelli generativi, come StyleGAN e DALL-E. Il docente sottolinea inoltre l'importanza dell'apprendimento generando e incoraggia gli spettatori a scomporre i problemi e utilizzare i dati per trovare soluzioni innovative e creative. Tuttavia, il relatore affronta anche i limiti dei modelli generativi, come i dati distorti e la capacità di generalizzare e pensare fuori dagli schemi. Tuttavia, il docente incarica gli studenti di rivedere il codice fornito e sperimentare le varie tecniche per generare immagini esteticamente gradevoli incoraggiando la partecipazione a un dibattito socratico tra Berkeley e il MIT sull'estetica computazionale e il design.
MIT 6.S192 - Lezione 2: Un dibattito socratico, Alyosha Efros e Phillip Isola
MIT 6.S192 - Lezione 2: Un dibattito socratico, Alyosha Efros e Phillip Isola
In questo video, Alyosha Efros e Phillip Isola discutono dell'idea di utilizzare le immagini per creare esperienze condivise. Sostengono che questo può aiutare a riportare alla memoria i ricordi e creare un senso di nostalgia.
Questo video è un dibattito tra due professori del MIT sul ruolo dei dati nell'intelligenza artificiale. Efros sostiene che i dati sono essenziali per l'IA, mentre Isola ribatte che i dati possono essere un ostacolo allo sviluppo dell'IA.
per visualizzare il concetto di cosa significhi che qualcosa sia memorabile.
MIT 6.S192 - Lezione 3: "GAN efficienti" di Jun-Yan Zhu
MIT 6.S192 - Lezione 3: "GAN efficienti" di Jun-Yan Zhu
La conferenza copre le sfide dell'addestramento dei modelli GAN, inclusa la necessità di calcoli elevati, grandi quantità di dati e algoritmi complicati che richiedono lunghe sessioni di formazione. Tuttavia, il docente introduce nuovi metodi che consentono ai GAN di apprendere più velocemente e di addestrarsi su un minor numero di set di dati, come la compressione dei modelli degli insegnanti utilizzando il framework generico della compressione GAN, l'aumento differenziabile e l'aumento dei dati. La conferenza dimostra anche l'editing interattivo delle immagini con i GAN e sottolinea l'importanza di set di dati ampi e diversificati per una formazione GAN di successo. I codici per l'esecuzione del modello sono disponibili su GitHub con istruzioni dettagliate per l'esecuzione del modello su diversi tipi di dati. La conferenza si conclude discutendo l'importanza della compressione del modello per scopi pratici.
MIT 6.S192 - Lezione 5: "Dipingere con i neuroni di un GAN" di David Bau
MIT 6.S192 - Lezione 5: "Dipingere con i neuroni di un GAN" di David Bau
David Bau discute l'evoluzione dell'apprendimento automatico e il potenziale per la creazione di sistemi di autoprogrammazione. Introduce le reti generative avversarie (GAN) e spiega come possono essere addestrate per generare immagini realistiche. Bau discute il suo processo per identificare le correlazioni tra neuroni specifici in un GAN progressivo e alcune caratteristiche semantiche nelle immagini generate. Dimostra come può aggiungere vari elementi a un'immagine, come porte, erba e alberi, con l'aiuto di un GAN. Inoltre, discute la sfida di aggiungere nuovi elementi a un GAN e le preoccupazioni etiche che circondano le rappresentazioni realistiche del mondo.
MIT 6.S192 - Conferenza 7: "La forma della storia dell'arte agli occhi della macchina" di Ahmed Elgemal
MIT 6.S192 - Conferenza 7: "La forma della storia dell'arte agli occhi della macchina" di Ahmed Elgemal
Ahmed Elgamal, professore di informatica e fondatore dell'Art and Artificial Intelligence Lab, discute l'uso dell'intelligenza artificiale per comprendere e generare prodotti creativi a livello umano. Elgamal discute l'approccio scientifico alla storia dell'arte e l'importanza di far progredire l'intelligenza artificiale per comprendere l'arte come fanno gli umani. Discute anche dell'uso dell'apprendimento automatico per classificare gli stili artistici, analizzando le rappresentazioni interne, identificando le differenze tra gli stili artistici e quantificando la creatività nell'arte attraverso l'intelligenza artificiale. Elgamal propone anche il concetto di oggetti primari nella storia dell'arte ed esplora il potenziale dell'intelligenza artificiale di generare arte, riconoscendo i limiti degli attuali approcci di intelligenza artificiale nelle attività creative. Tuttavia, Elgamal discute anche degli esperimenti in corso per spingere i confini della rete AI per creare arte astratta e interessante.
Ahmed Elgammal discute anche i risultati di un test di messa a punto per determinare se gli esseri umani possono distinguere l'arte creata da un GAN da quella degli umani, utilizzando le opere d'arte come base. Gli esseri umani pensavano che l'arte realizzata dalle macchine GAN fosse prodotta dagli esseri umani il 75% delle volte, sottolineando il concetto di ambiguità di stile e la sua importanza nel collegare la visione artificiale e l'apprendimento automatico con la storia dell'arte e gli interessi artistici.