Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Lezione 24. Programmazione lineare e giochi a due
24. Programmazione lineare e giochi per due persone
Questo video di YouTube copre l'argomento della programmazione lineare e dei giochi per due persone. La programmazione lineare è il processo di ottimizzazione di una funzione di costo lineare soggetta a una serie di vincoli lineari e viene utilizzata in campi come l'economia e l'ingegneria. Il video spiega gli algoritmi utilizzati nella programmazione lineare, inclusi il metodo del simplesso e i metodi del punto interno, e il concetto di dualità, in cui il problema primale e il suo problema duale sono strettamente connessi e possono essere risolti utilizzando il metodo del simplesso. Il video illustra anche come la programmazione lineare può essere applicata ai giochi per due persone, compreso il processo di ricerca di un limite superiore del flusso massimo in una rete e la risoluzione di un gioco con una matrice. Infine, il video discute brevemente i limiti dell'applicazione di queste tecniche a giochi con tre o più persone e menziona che la prossima lezione riguarderà la discesa del gradiente stocastico.
Lezione 25. Discesa del gradiente stocastico
25. Discesa del gradiente stocastico
In questo video, viene introdotto il concetto di discesa del gradiente stocastico (SGD) come metodo di ottimizzazione per risolvere problemi di machine learning su larga scala spesso posti sotto forma di un problema di somma finita. Il relatore spiega come SGD seleziona punti dati casuali per calcolare il gradiente per accelerare il calcolo e come si comporta in modo diverso dalla discesa del gradiente batch quando si avvicina all'optimum a causa della natura fluttuante del metodo. La proprietà chiave di SGD è che la stima del gradiente stocastico è una versione imparziale del vero gradiente previsto e la varianza del gradiente stocastico deve essere controllata per ridurre il rumore. L'uso di mini-batch è discusso come mezzo di parallelismo economico nell'addestramento GPU di deep learning, ma selezionare la giusta dimensione di mini-batch è ancora una questione aperta che può influire sulla robustezza della soluzione in presenza di dati non visibili. Le sfide nell'ottimizzazione dell'SGD includono la determinazione della dimensione del mini-batch e il calcolo dei gradienti stocastici, ma i ricercatori stanno cercando di comprendere l'efficacia dell'SGD nelle reti neurali attraverso lo sviluppo di una teoria della generalizzazione.
Lezione 26. Struttura delle reti neurali per il deep learning
26. Struttura delle reti neurali per il deep learning
Questo video illustra la struttura delle reti neurali per il deep learning. L'obiettivo è classificare i dati in modo binario costruendo una rete neurale con vettori di caratteristiche che hanno m caratteristiche, creando una funzione di apprendimento in grado di classificare i dati come una delle due categorie. La non linearità è essenziale nella creazione di queste funzioni, poiché i classificatori lineari non sono in grado di separare i dati non lineari. Il video discute anche l'importanza del numero di pesi e livelli nella rete neurale e fornisce risorse come il parco giochi TensorFlow per consentire agli utenti di esercitarsi nella creazione di funzioni. Infine, il video discute la ricorsione utilizzata per dimostrare la formula per il numero di pezzi piatti ottenuti tagliando una torta e come si collega al problema di ottimizzazione della minimizzazione della perdita totale nel deep learning.
Lezione 27. Backpropagation: trova le derivate parziali
27. Backpropagation: trova le derivate parziali
Questo video copre diversi argomenti relativi alla retropropagazione e alla ricerca di derivate parziali. Il relatore dimostra l'uso della regola della catena per le derivate parziali e sottolinea l'importanza dell'ordine dei calcoli nella moltiplicazione di matrici. La retropropagazione è evidenziata come un algoritmo efficiente per il calcolo dei gradienti e vengono forniti vari esempi per dimostrarne l'efficacia. Viene discussa brevemente la convergenza della discesa del gradiente stocastico, insieme a un'idea progettuale relativa all'uso di un ordine casuale di campioni di funzioni di perdita nella discesa del gradiente stocastico. Nel complesso, il video fornisce una panoramica completa della backpropagation e delle sue applicazioni.
Lezione 30: Completamento di una matrice di rango uno, circolanti!
Lezione 30: Completamento di una matrice di rango uno, circolanti!
Nella lezione 30, il docente discute il completamento di una matrice di rango uno e di matrici circolanti. Iniziano con un determinante 2x2 e lo usano per restringere i valori che possono essere riempiti in una matrice per farla classificare uno. Il docente passa quindi a un problema combinatorio per una matrice 4x4 e introduce le matrici circolanti che presentano schemi ciclici che possono essere creati con solo quattro numeri dati. La lezione copre anche la convoluzione ciclica, gli autovalori e gli autovettori di matrici circolanti, che sono importanti nell'elaborazione del segnale.
Lezione 31. Autovettori di matrici circolanti: Matrice di Fourier
31. Autovettori di matrici circolanti: matrice di Fourier
In questo video sugli autovettori delle matrici circolanti, il relatore discute in che modo le matrici circolanti si relazionano all'elaborazione delle immagini e all'apprendimento automatico, nonché la sua connessione con la matrice di Fourier. Il relatore sottolinea l'importanza di comprendere la convoluzione e le matrici circolanti in relazione alla trasformata discreta di Fourier (DFT) e alle trasformate di Fourier. Il relatore discute gli autovettori delle matrici circolanti, in particolare la matrice di Fourier, e come sono tutti costruiti dallo stesso insieme di otto numeri che sono anche gli autovalori. Il relatore parla anche delle proprietà della matrice di Fourier, incluso il modo in cui le colonne sono ortogonali ma non ortonormali e come i suoi autovettori si sommano a zero a causa della simmetria della matrice circolante, rendendoli ortogonali tra loro. Infine, il relatore dimostra con esempi il concetto di vettore di Argan come autovettore della matrice di Fourier.
Lezione 32: ImageNet è una rete neurale convoluzionale (CNN), The Convolution Rule
Lezione 32: ImageNet è una rete neurale convoluzionale (CNN), The Convolution Rule
Nella Lezione 32 di un corso di deep learning, viene discusso il potere delle reti neurali convoluzionali (CNN) nella classificazione delle immagini, con l'esempio della competizione ImageNet vinta da una grande CNN profonda con livelli di convoluzione, livelli normali e livelli di max pooling. La lezione si concentra anche sulla regola di convoluzione, che collega moltiplicazione e convoluzione, con esempi di convoluzioni bidimensionali, l'uso del prodotto di Kronecker per una trasformata di Fourier bidimensionale e nell'elaborazione del segnale, e la differenza tra periodico e non periodico casi relativi alla convoluzione. Il docente discute anche autovettori e autovalori di una matrice circolante e l'operazione di somma di Kronecker.
Lezione 33. Le reti neurali e la funzione di apprendimento
33. Reti neurali e funzione di apprendimento
In questo video, il relatore discute la costruzione della funzione di apprendimento f per le reti neurali, che è ottimizzata mediante discesa del gradiente o discesa del gradiente stocastico e applicata ai dati di addestramento per ridurre al minimo la perdita. Spiega l'uso di un'immagine disegnata a mano per illustrare il concetto di reti neurali e la funzione di apprendimento, nonché varie funzioni di perdita utilizzate nell'apprendimento automatico, inclusa la perdita di entropia incrociata. Il relatore parla anche del problema di trovare le posizioni dei punti date le loro distanze, che è un problema classico con varie applicazioni, come nel determinare le forme delle molecole usando la risonanza magnetica nucleare. Conclude discutendo la costruzione di X, il passo finale per ottenere la struttura di una rete neurale, e cita un invito a volontari per discutere un progetto venerdì.
Lezione 34. Matrici delle distanze, problema di Procuste
34. Matrici delle distanze, problema di Procuste
L'oratore discute il problema di Procuste, che implica trovare la migliore trasformazione ortogonale che porti un insieme di vettori il più vicino possibile a un altro insieme di vettori. Spiegano diverse espressioni per calcolare la norma di Frobenius di una matrice di distanza e la sua connessione al problema di Procuste. Il relatore introduce anche il concetto di traccia delle matrici e trova la Q corretta nel problema di Procuste. Inoltre, affrontano la questione se il deep learning funzioni effettivamente e presentano la soluzione a un problema di matrice che implica la ricerca della migliore matrice ortogonale, che comporta il calcolo dell'SVD del prodotto scalare di due matrici e l'utilizzo delle matrici ortogonali dall'SVD.
Lezione 35. Trovare cluster nei grafici
35. Trovare cluster nei grafici
Questo video illustra il clustering nei grafici e come trovare i cluster utilizzando diversi algoritmi come le medie K e il clustering spettrale. La matrice laplaciana viene utilizzata nel clustering spettrale e può fornire informazioni sui cluster nel grafico attraverso i suoi autovettori. L'autovettore di Fiedler, che è l'autovettore per il più piccolo autovalore positivo, è importante per il clustering. Il relatore sottolinea anche l'importanza che gli autovettori siano ortogonali nell'identificazione di cluster diversi. Inoltre, c'è una breve anteprima della prossima lezione, che riguarderà la propagazione all'indietro usando Julia in algebra lineare. Gli studenti sono incoraggiati a presentare i loro progetti online o fuori dall'ufficio del docente.