Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
CS480/680 Lezione 17: Modelli di Markov nascosti
CS480/680 Lezione 17: Modelli di Markov nascosti
La conferenza introduce gli Hidden Markov Models (HMM), un tipo di modello grafico probabilistico utilizzato per sfruttare le correlazioni nei dati di sequenza che possono migliorare la precisione. Le ipotesi del modello implicano un processo stazionario e un processo markoviano per cui uno stato nascosto dipende solo dallo stato precedente. Le tre distribuzioni in HMM sono la distribuzione dello stato iniziale, la distribuzione di transizione e la distribuzione delle emissioni, con quest'ultimo tipo utilizzato a seconda del tipo di dati. L'algoritmo può essere utilizzato per il monitoraggio, la previsione, il filtraggio, il livellamento e molto probabilmente le attività di spiegazione. HMM è stato utilizzato per il riconoscimento vocale e l'apprendimento automatico, come la previsione della sequenza più probabile di output sulla base di una sequenza di input e stati nascosti per le persone anziane che utilizzano dispositivi walker per la correlazione della stabilità. È stato condotto un esperimento che coinvolge sensori e telecamere modificati su un deambulatore per riconoscere automaticamente le attività svolte dagli anziani sulla base della raccolta di dati sulle attività degli anziani in una struttura di riposo. È stata discussa anche la dimostrazione dell'apprendimento supervisionato e non supervisionato nel contesto del riconoscimento delle attività.
La lezione si concentra sull'uso delle distribuzioni di emissione gaussiana nei modelli di Markov nascosti (HMM), che è comunemente usato nelle applicazioni pratiche in cui i dati raccolti sono continui. Il docente spiega che questo metodo comporta il calcolo dei parametri di media e varianza che corrispondono alla media empirica e alla varianza dei dati e il loro utilizzo per calcolare la soluzione per le distribuzioni iniziale e di transizione. La distribuzione di transizione corrisponde ai conteggi di frequenza relativa e per ottenere le soluzioni viene utilizzata la massima verosimiglianza. Questo approccio è simile alla soluzione per miscele di gaussiane, in cui vengono utilizzate anche una distribuzione iniziale e di emissione.
CS480/680 Lezione 18: Reti neurali ricorrenti e ricorsive
CS480/680 Lezione 18: Reti neurali ricorrenti e ricorsive
In questa lezione, il relatore introduce le reti neurali ricorrenti e ricorsive come modelli adatti a dati sequenziali senza una lunghezza fissa. Le reti neurali ricorrenti possono gestire sequenze di qualsiasi lunghezza dovute a determinati nodi con output restituiti come input e il modo in cui viene calcolato l'H ad ogni passo temporale è attraverso l'uso della stessa funzione f, che implica la condivisione del peso. Tuttavia, possono soffrire di limitazioni come il mancato ricordo delle informazioni dai primi input e la deriva delle previsioni. Il docente spiega anche l'architettura della rete neurale ricorrente bidirezionale (BRNN) e il modello codificatore-decodificatore, che utilizza due RNN: un codificatore e un decodificatore, per applicazioni in cui le sequenze di input e output non corrispondono in modo naturale. Inoltre, il docente descrive i vantaggi delle unità Long Short-Term Memory (LSTM), che possono mitigare il problema del gradiente di fuga, facilitare le dipendenze a lungo raggio e consentire o bloccare selettivamente il flusso di informazioni.
Questa conferenza sulle reti neurali ricorrenti e ricorsive copre una vasta gamma di argomenti, tra cui l'uso di unità Long Short-Term Memory (LSTM) e Gated Recurrent Unit (GRU) per prevenire problemi di gradiente, nonché l'importanza dei meccanismi di attenzione nella traduzione automatica per preservare il significato della frase e l'allineamento delle parole. Il docente discute anche di come le reti neurali ricorrenti possono essere generalizzate a reti neurali ricorsive per sequenze, grafici e alberi e come analizzare frasi e produrre incorporamenti di frasi utilizzando alberi di analisi.
essendo fatto. Lo stato nascosto viene calcolato utilizzando una funzione che accetta lo stato nascosto precedente e l'input e l'output viene ottenuto utilizzando un'altra funzione che accetta lo stato nascosto come input. In definitiva, l'obiettivo è utilizzare questo calcolo per calcolare le probabilità o riconoscere le attività.
CS480/680 Lezione 20: Codificatori automatici
CS480/680 Lezione 20: Codificatori automatici
Gli autoencoder si riferiscono a una famiglia di reti strettamente correlate ai codificatori-decodificatori, con la differenza che gli autocodificatori prendono un input e producono lo stesso output. Sono importanti per la compressione, il denoising, l'ottenimento di una rappresentazione sparsa e la generazione di dati. Gli autocodificatori lineari ottengono la compressione mappando vettori ad alta dimensione su rappresentazioni più piccole, garantendo al contempo che nessuna informazione venga persa e utilizzano matrici di peso per calcolare una trasformazione lineare dall'input alla rappresentazione compressa e viceversa. Inoltre, i codificatori automatici profondi consentono mappature sofisticate, mentre i codificatori automatici probabilistici producono distribuzioni condizionali sulla rappresentazione e sull'input intermedi, che possono essere utilizzati per la generazione dei dati. L'uso di funzioni non lineari da parte degli autoencoder sfrutta il collettore non lineare, una proiezione su uno spazio dimensionale inferiore che cattura la dimensionalità intrinseca dei dati, portando a una compressione senza perdita dell'input.
CS480/680 Lezione 21: Reti generative (codificatori automatici variazionali e GAN)
CS480/680 Lezione 21: Reti generative (codificatori automatici variazionali e GAN)
Questa lezione si concentra sulle reti generative, che consentono la produzione di dati come output tramite reti come gli autocodificatori variazionali (VAE) e le reti generative avversarie (GAN). I VAE utilizzano un codificatore per mappare i dati dallo spazio originale a un nuovo spazio e quindi un decodificatore per recuperare lo spazio originale. Il docente spiega il concetto alla base dei VAE e le sfide con il calcolo dell'integrale delle distribuzioni necessarie nella formazione. I GAN sono costituiti da due reti - un generatore e un discriminatore - in cui la rete del generatore crea nuovi punti dati e la rete del discriminatore cerca di distinguere tra quelli generati e quelli reali. Vengono discusse le sfide nell'attuazione del GAN, compresa la garanzia di un equilibrio tra i punti di forza delle reti e il raggiungimento della convergenza globale. La conferenza si conclude con esempi di immagini generate e un'anteprima della lezione successiva.
CS480/680 Lezione 22: Ensemble learning (bagging and boosting)
CS480/680 Lezione 22: Ensemble learning (bagging and boosting)
La conferenza discute l'apprendimento d'insieme, in cui più algoritmi si combinano per migliorare i risultati dell'apprendimento. Le due principali tecniche esaminate sono il bagging e il boosting, e il relatore sottolinea l'importanza di combinare le ipotesi per ottenere un'ipotesi più ricca. La conferenza analizza il processo di votazione a maggioranza ponderata e la sua probabilità di errore, nonché il modo in cui il potenziamento funziona per migliorare l'accuratezza della classificazione. Il relatore copre anche i vantaggi del potenziamento e dell'apprendimento d'insieme, rilevando l'applicabilità dell'apprendimento d'insieme a molti tipi di problemi. Infine, il video segue l'esempio della sfida Netflix per dimostrare l'uso dell'apprendimento d'insieme nelle competizioni di data science.
In questa conferenza sull'apprendimento d'insieme, il relatore sottolinea l'importanza di combinare ipotesi tratte da modelli diversi per ottenere un aumento dell'accuratezza, un approccio che può essere particolarmente utile quando si parte da soluzioni già abbastanza buone. Discute l'importanza di prendere una combinazione ponderata di previsioni, osservando che bisogna fare attenzione poiché la media di due ipotesi a volte potrebbe essere peggiore delle singole ipotesi da sole. Il relatore spiega inoltre che potrebbe essere necessaria la normalizzazione dei pesi, a seconda che l'attività sia di classificazione o di regressione.
CS480/680 Lezione 23: Normalizzazione dei flussi (Priyank Jaini)
CS480/680 Lezione 23: Normalizzazione dei flussi (Priyank Jaini)
In questa conferenza, Priyank Jaini discute la normalizzazione dei flussi come metodo per la stima della densità e introduce come differiscono da altri modelli generativi, come GAN e VAE. Jaini spiega il concetto di conservazione della massa di probabilità e come viene utilizzato per derivare la formula del cambiamento delle variabili nella normalizzazione dei flussi. Spiega inoltre il processo di costruzione della struttura triangolare nella normalizzazione dei flussi utilizzando famiglie di trasformazioni e il concetto di matrici di permutazione. Jaini introduce anche il concetto di flussi di somma dei quadrati (SOS), che utilizzano polinomi di ordine superiore e possono catturare qualsiasi densità target, rendendoli universali. Infine, Jaini discute lo spazio latente ei suoi vantaggi nei metodi basati sul flusso per la generazione di immagini e chiede al pubblico di riflettere sui potenziali svantaggi dei modelli basati sul flusso.
In questa conferenza sulla normalizzazione dei flussi di Priyank Jaini, discute le sfide di catturare trasformazioni ad alta dimensione con un gran numero di parametri. La normalizzazione dei flussi richiede che entrambe le dimensioni siano le stesse per ottenere una rappresentazione esatta, a differenza dei GAN che utilizzano i colli di bottiglia per superare tali problemi. Jaini sottolinea che l'apprendimento dei parametri associati con set di dati ad alta dimensione negli esperimenti di normalizzazione dei flussi può essere difficile. Affronta anche domande su come la normalizzazione dei flussi può catturare distribuzioni multimodali e offre un codice per implementare trasformazioni affini lineari.
CS480/680 Lezione 24: Gradient boosting, bagging, decision forest
CS480/680 Lezione 24: Gradient boosting, bagging, decision forest
Questa lezione tratta il gradient boosting, il bagging e le foreste decisionali nell'apprendimento automatico. Il potenziamento del gradiente implica l'aggiunta di nuovi predittori basati sul gradiente negativo della funzione di perdita al predittore precedente, portando a una maggiore precisione nelle attività di regressione. La conferenza esplora anche come prevenire l'overfitting e ottimizzare le prestazioni utilizzando la regolarizzazione e l'interruzione anticipata dei processi di formazione. Inoltre, la lezione copre il bagging, che prevede il sottocampionamento e la combinazione di diversi studenti di base per ottenere una previsione finale. Viene anche discusso l'uso di alberi decisionali come studenti di base e la creazione di foreste casuali e viene fornito un esempio reale di Microsoft Kinect che utilizza foreste casuali per il riconoscimento del movimento. Vengono discussi i vantaggi dei metodi di ensemble per il calcolo parallelo e viene sottolineata l'importanza di comprendere gli aggiornamenti del peso nei sistemi di apprendimento automatico. Questa conferenza copre i potenziali problemi con la media dei pesi nella combinazione di predittori all'interno di reti neurali o modelli di Markov nascosti, raccomandando invece la combinazione di previsioni attraverso un voto di maggioranza o un metodo di media. Il professore suggerisce anche vari corsi correlati disponibili presso l'Università di Waterloo, diversi corsi di laurea in ottimizzazione e algebra lineare e un programma universitario di scienza dei dati incentrato su intelligenza artificiale, apprendimento automatico, sistemi di dati, statistica e argomenti di ottimizzazione. La conferenza sottolinea l'importanza degli approcci algoritmici rispetto alla sovrapposizione con la statistica e la specializzazione in argomenti di scienza dei dati rispetto alle lauree in informatica generale.
Dovremmo avere paura dell'intelligenza artificiale? con Emad Mostaque, Alexandr Wang e Andrew Ng | 39
Dovremmo avere paura dell'intelligenza artificiale? con Emad Mostaque, Alexandr Wang e Andrew Ng | 39
Gli ospiti di questo video di YouTube discutono di vari aspetti dell'intelligenza artificiale (AI), inclusi i suoi potenziali pericoli, le interruzioni in vari settori e l'importanza di riqualificare i lavoratori per rimanere rilevanti. I relatori discutono anche dell'usabilità degli strumenti di intelligenza artificiale, dell'implementazione dell'IA nell'assistenza sanitaria, della standardizzazione nei sistemi di distribuzione delle informazioni, del potenziale di creazione di ricchezza nell'IA e dell'uso di modelli linguistici nell'assistenza sanitaria e nell'istruzione. Inoltre, hanno sottolineato la necessità di un'implementazione responsabile di modelli di intelligenza artificiale, trasparenza e considerazioni etiche nella governance. Infine, i relatori rispondono brevemente ad alcune domande del pubblico su argomenti come la privacy nell'intelligenza artificiale per l'assistenza sanitaria e l'istruzione.
Il "padrino dell'IA" Geoffrey Hinton mette in guardia contro la "minaccia esistenziale" dell'IA | Amanpour e compagnia
Il "padrino dell'IA" Geoffrey Hinton mette in guardia contro la "minaccia esistenziale" dell'IA | Amanpour e compagnia
Geoffrey Hinton, noto come il "Padrino dell'IA", approfondisce le implicazioni del rapido progresso delle intelligenze digitali e il loro potenziale per superare le capacità di apprendimento umano. Esprime preoccupazione per la minaccia esistenziale rappresentata da questi sistemi di intelligenza artificiale, avvertendo che potrebbero superare il cervello umano in vari aspetti. Nonostante abbiano una capacità di archiviazione significativamente inferiore rispetto al cervello, le intelligenze digitali possiedono un'abbondanza di conoscenza del buon senso, che supera quella degli umani di migliaia di volte. Inoltre, mostrano capacità di apprendimento e comunicazione più rapide, utilizzando algoritmi superiori rispetto al cervello.
Hinton condivide un'intrigante scoperta che ha fatto utilizzando il sistema Palm di Google, in cui le IA sono state in grado di spiegare perché le battute erano divertenti, suggerendo una comprensione più profonda di alcuni concetti rispetto agli umani. Ciò evidenzia la loro notevole capacità di formare connessioni e acquisire informazioni. Sottolinea che l'intuizione e i pregiudizi umani sono incorporati nella nostra attività neurale, consentendoci di attribuire qualità di genere agli animali. Tuttavia, questi processi mentali fanno anche luce sulle potenziali minacce poste dall'IA in futuro.
Affrontando le preoccupazioni sulla sensibilità dell'IA, Hinton riconosce l'ambiguità che circonda la sua definizione e l'incertezza che circonda il suo sviluppo. Solleva diverse sfide che l'intelligenza artificiale presenta, tra cui lo spostamento del lavoro, la difficoltà di discernere la verità e il potenziale per esacerbare la disuguaglianza socio-economica. Per mitigare questi rischi, Hinton propone di implementare norme rigorose simili a quelle che regolano il denaro contraffatto, criminalizzando la produzione di video e immagini falsi generati dall'intelligenza artificiale.
Sottolineando l'importanza della collaborazione internazionale, Hinton sottolinea che cinesi, americani ed europei condividono tutti un interesse acquisito nel prevenire l'emergere di IA incontrollabili. Riconosce l'approccio responsabile di Google allo sviluppo dell'IA, ma sottolinea la necessità di un'ampia sperimentazione per consentire ai ricercatori di mantenere il controllo su questi sistemi intelligenti.
Pur riconoscendo i preziosi contributi delle intelligenze digitali in campi come la medicina, la previsione dei disastri e la comprensione dei cambiamenti climatici, Hinton non è d'accordo con l'idea di fermare del tutto lo sviluppo dell'IA. Invece, sostiene l'allocazione di risorse per comprendere e mitigare i potenziali effetti negativi dell'IA. Hinton riconosce le incertezze che circondano lo sviluppo dell'IA superintelligente e sottolinea la necessità di uno sforzo umano collettivo per plasmare un futuro ottimizzato per il miglioramento della società.
"Godfather of AI" discute i pericoli che le tecnologie in via di sviluppo rappresentano per la società
"Godfather of AI" discute i pericoli che le tecnologie in via di sviluppo rappresentano per la società
Il dottor Jeffrey Hinton, una delle principali autorità nel campo dell'intelligenza artificiale, solleva importanti preoccupazioni sui potenziali rischi posti dai sistemi di intelligenza artificiale superintelligenti. Esprime apprensione per la possibilità che questi sistemi prendano il controllo sugli umani e li manipolino per i propri programmi. Facendo una distinzione tra intelligenza umana e macchina, Hinton evidenzia i pericoli associati alla concessione all'IA della capacità di creare sotto-obiettivi, che potrebbero portare a un desiderio di maggiore potere e controllo sull'umanità.
Nonostante questi rischi, Hinton riconosce le numerose applicazioni positive dell'IA, in particolare nel campo della medicina, dove ha un immenso potenziale di avanzamento. Sottolinea che mentre la cautela è giustificata, è essenziale non arrestare del tutto il progresso dello sviluppo dell'IA.
Hinton affronta anche il ruolo dei creatori di tecnologia e le potenziali implicazioni che il loro lavoro potrebbe avere sulla società. Sottolinea che le organizzazioni coinvolte nello sviluppo dell'IA, compresi i dipartimenti della difesa, possono dare la priorità a obiettivi diversi dalla benevolenza. Ciò solleva preoccupazioni circa le intenzioni e le motivazioni alla base dell'uso della tecnologia AI. Hinton suggerisce che mentre l'intelligenza artificiale ha la capacità di portare benefici significativi alla società, il rapido ritmo del progresso tecnologico spesso supera la capacità dei governi e della legislazione di regolamentarne efficacemente l'uso.
Per affrontare i rischi associati all'intelligenza artificiale, Hinton sostiene una maggiore collaborazione tra scienziati creativi su scala internazionale. Lavorando insieme, questi esperti possono sviluppare sistemi di intelligenza artificiale più potenti esplorando contemporaneamente modi per garantire il controllo e prevenire potenziali danni. È attraverso questo sforzo collaborativo che Hinton ritiene che la società possa trovare un equilibrio tra lo sfruttamento dei potenziali benefici dell'IA e la protezione dai suoi potenziali rischi.