Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
CS480/680 Lezione 3: Regressione lineare
CS480/680 Lezione 3: Regressione lineare
La lezione sulla regressione lineare inizia con un'introduzione al problema di trovare la retta migliore che si avvicini il più possibile a un dato insieme di punti. Il docente spiega che le funzioni lineari possono essere rappresentate da una combinazione di input ponderati. La regressione lineare può essere risolta tramite l'ottimizzazione, con l'obiettivo di minimizzare la perdita euclidea variando il vettore dei pesi, cosa che può essere eseguita in modo efficiente utilizzando problemi di ottimizzazione convessi. Il processo di risoluzione di un'equazione di regressione lineare comporta la ricerca della variabile W, o pesi, che fornirà il minimo globale per la funzione obiettivo, che può essere eseguita utilizzando tecniche come l'inversione di matrice o metodi iterativi. Viene inoltre discussa l'importanza della regolarizzazione nella prevenzione dell'overfitting, con l'aggiunta di un termine di penalità alla funzione obiettivo per vincolare l'entità dei pesi e costringerli a essere il più piccoli possibile. La lezione termina discutendo l'importanza di affrontare il problema dell'overfitting nella regressione lineare.
CS480/680 Lezione 4: Apprendimento statistico
CS480/680 Lezione 4: Apprendimento statistico
In questa lezione sull'apprendimento statistico, il professore spiega vari concetti come la regola di emarginazione, la probabilità condizionata, la probabilità congiunta, la regola di Bayes e l'apprendimento bayesiano. Questi concetti implicano l'uso di distribuzioni di probabilità e il loro aggiornamento per ridurre l'incertezza durante l'apprendimento. La conferenza sottolinea l'importanza di comprendere questi concetti per giustificare e spiegare vari algoritmi. La conferenza evidenzia anche i limiti di questi concetti, in particolare nel trattare con ampi spazi di ipotesi. Nonostante questa limitazione, l'apprendimento bayesiano è considerato ottimale fintanto che il precedente è corretto, fornendo informazioni significative agli utenti.
In questa lezione, l'istruttore spiega il concetto di apprendimento bayesiano approssimato come soluzione per il problema della trattabilità con l'apprendimento bayesiano. La massima verosimiglianza e il massimo a-posteriori sono approssimazioni comunemente usate nell'apprendimento statistico, ma presentano una serie di punti deboli, come l'overfitting e previsioni meno precise rispetto all'apprendimento bayesiano. La lezione copre anche il problema di ottimizzazione derivante dalla massimizzazione della verosimiglianza, la quantità di dati necessari per diversi problemi e l'importanza delle prossime diapositive per l'assegnazione del corso. Il docente conclude sottolineando che l'algoritmo convergerà verso l'ipotesi migliore all'interno dello spazio dato, anche se alcuni rapporti non sono realizzabili.
CS480/680 Lezione 5: Regressione lineare statistica
CS480/680 Lezione 5: Regressione lineare statistica
In questa lezione sulla regressione lineare statistica, il professore copre numerosi argomenti, a partire dal concetto di massima verosimiglianza e distribuzioni di verosimiglianza gaussiana per dati rumorosi e corrotti. Spiegano l'uso delle tecniche di massima verosimiglianza per trovare i pesi che danno la massima probabilità per tutti i punti dati nel set di dati. La lezione poi approfondisce l'idea di massimo a-posteriori (MAP), gaussiana sferica e matrice di covarianza. Il relatore discute anche dell'uso dell'informazione a priori e della regolarizzazione. L'errore atteso nella regressione lineare viene quindi scomposto in due termini: uno che tiene conto del rumore e un altro dipendente dal vettore dei pesi, W, che può essere ulteriormente scomposto in bias e varianza. La conferenza si conclude con una discussione sull'uso dell'apprendimento bayesiano per il calcolo della distribuzione a posteriori. Nel complesso, la conferenza copre un'ampia gamma di argomenti relativi alla regressione lineare statistica e fornisce preziose informazioni sull'ottimizzazione dei modelli per ridurre l'errore di previsione.
La lezione si concentra sulla regressione bayesiana, che stima una distribuzione a posteriori che converge verso il vero insieme di pesi man mano che si osservano più punti dati. La distribuzione precedente risulta essere una distribuzione su coppie di W zero e W1 ed è una distribuzione di linee. Dopo aver osservato un punto dati, la distribuzione a posteriori viene calcolata utilizzando le distribuzioni a priori e di probabilità, risultando in una convinzione aggiornata sulla posizione della linea. Per fare previsioni, viene presa una combinazione ponderata delle previsioni delle ipotesi in base alla distribuzione a posteriori, portando a una previsione gaussiana con una media e una varianza date da formule specifiche. Il trucco per ottenere una previsione puntuale effettiva è prendere la media della previsione gaussiana.
CS480/680 Lezione 6: Strumenti per i rilievi (Paulo Pacheco)
CS480/680 Lezione 6: Strumenti per i rilievi (Paulo Pacheco)
In questo video, Paulo Pacheco presenta due strumenti accademici per i sondaggi: Google Scholar e RefWorks. Spiega come cercare documenti accademici e ordinarli per citazioni utilizzando Google Scholar e suggerisce di filtrare i documenti più vecchi per quelli più recenti. Pacheco sottolinea l'importanza dell'esportazione e della gestione delle citazioni e introduce RefWorks come strumento per questo compito. Fornisce inoltre suggerimenti per l'accesso alle pubblicazioni accademiche, incluso l'utilizzo di ricerche di parole chiave creative e la potenziale richiesta dell'accesso alla rete universitaria o di una VPN.
CS480/680 Lezione 6: Dataset e concorsi Kaggle
CS480/680 Lezione 6: Dataset e concorsi Kaggle
La conferenza discute di Kaggle, una comunità per i professionisti della scienza dei dati per competere in concorsi sponsorizzati utilizzando i set di dati forniti per un premio in denaro, offrendo kernel per l'addestramento del modello di apprendimento automatico e l'estrazione delle caratteristiche dei dati e una vasta selezione di quasi 17.000 set di dati da utilizzare nella progettazione di algoritmi. Il docente osserva inoltre che i repository GitHub dell'azienda possono fornire preziosi set di dati, codici e documenti pubblicati per le competizioni.
CS480/680 Lezione 6: Normalizzazione dei flussi (Priyank Jaini)
CS480/680 Lezione 6: Normalizzazione dei flussi (Priyank Jaini)
Il video fornisce un'introduzione alla normalizzazione dei flussi nei modelli generativi profondi, una tecnica che apprende una funzione per trasformare una distribuzione in un'altra, con l'obiettivo di trasformare una distribuzione nota in una distribuzione di interesse sconosciuta. Il video discute anche possibili progetti di ricerca relativi alla normalizzazione dei flussi, inclusa la conduzione di un'indagine su diversi documenti e progressi relativi alla normalizzazione dei flussi e l'analisi della trasformazione di una singola gaussiana in una combinazione di gaussiane. Il docente incoraggia l'esplorazione delle molte diverse applicazioni della normalizzazione dei flussi.
CS480/680 Lezione 6: Traduzione di parole senza supervisione (Kira Selby)
CS480/680 Lezione 6: Traduzione di parole senza supervisione (Kira Selby)
Il video discute la traduzione di parole senza supervisione, che prevede l'addestramento di un modello di apprendimento automatico per tradurre da e verso una lingua senza alcuna informazione interlinguistica o corrispondenza del dizionario. Il modello Muse viene introdotto come un approccio in grado di raggiungere un'accuratezza all'avanguardia su centinaia di lingue senza alcuna informazione interlinguistica e si avvicina ai modelli supervisionati nelle prestazioni. Il processo di traduzione di parole senza supervisione utilizza una matrice che traduce gli spazi di incorporamento di parole di lingue diverse, utilizzando GAN o reti di contraddittori generativi. Addestrando questi due modelli l'uno contro l'altro, viene creato un modo per mappare due distribuzioni in uno spazio, fornendo migliori risultati di traduzione. I modelli possono raggiungere un'accuratezza dell'82,3% nelle traduzioni da parola a parola.
CS480/680 Lezione 6: Verifica dei fatti e apprendimento per rinforzo (Vik Goel)
CS480/680 Lezione 6: Verifica dei fatti e apprendimento per rinforzo (Vik Goel)
L'informatico Vik Goel discute l'applicazione dell'apprendimento per rinforzo nel controllo dei fatti online e propone di utilizzare un sistema di raccomandazioni per inserire prove a sostegno in tempo reale. Suggerisce di utilizzare un ampio corpus di documenti accademici come fonte di dati per addestrare un classificatore a prevedere dove è necessaria una citazione. Inoltre, Goel spiega come i ricercatori hanno iniziato a codificare i precedenti umani in modelli di apprendimento per rinforzo per accelerare il processo e riconoscere diversi oggetti nei videogiochi. Ciò presenta un'area di ricerca promettente in cui ulteriori priori possono migliorare il processo di apprendimento.
CS480/680 Lezione 6: Reti somma-prodotto (Pranav Subramani)
CS480/680 Lezione 6: Reti somma-prodotto (Pranav Subramani)
La conferenza discute i concetti di reti somma-prodotto (SPN) che sono reti composte da somme e prodotti, utilizzate per la modellazione probabilistica trattabile che produce tempi di esecuzione non esponenziali e ha molte applicazioni come l'interpretabilità e il facile calcolo della densità marginale. Il video menziona anche le eccellenti prestazioni di SPN con le reti neurali convoluzionali, il suo potenziale nella costruzione di modelli generativi migliori se combinato con modelli come GAN e codificatori di variazioni dell'acqua e le potenziali aree di ricerca non sfruttate per SPN, tra cui robustezza avversaria, scenari di apprendimento per rinforzo e modellazione delle utilità previste nei giochi. Sono state inoltre evidenziate la garanzia teorica di interpretazione del modello e l'opportunità per gli accademici di apportare contributi significativi nel campo del machine learning.
CS480/680 Lezione 6: EM e modelli misti (Guojun Zhang)
CS480/680 Lezione 6: EM e modelli misti (Guojun Zhang)
Nella lezione 6 di CS480/680, il professor Guojun Zhang discute le basi dell'apprendimento non supervisionato e del clustering, concentrandosi sui modelli misti e sul loro utilizzo nei dati di clustering. La lezione è incentrata sull'algoritmo Expectation-Maximization e sui suoi processi Estep e Mstep, nonché sulla discesa del gradiente come metodo di ottimizzazione. Il potenziale progetto proposto riguarda lo studio di come si comportano l'EM e la discesa del gradiente nell'apprendimento di modelli misti, con l'obiettivo finale di proporre un algoritmo migliore per evitare minimi locali errati. Un background matematico è indicato come necessario per il progetto.