Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Lezione 4. Autovalori e autovettori
4. Autovalori e autovettori
Questo video spiega il concetto di autovalori e autovettori e come possono essere utilizzati per calcolare trasformazioni lineari. Continua anche mostrando come gli autovettori possono essere usati per trovare equazioni lineari in un sistema.
Lezione 5. Matrici definite positive e semidefinite
5. Matrici definite e semidefinite positive
In questo video, il relatore riassume i punti salienti delle precedenti lezioni di algebra lineare, inclusi autovalori, determinanti e pivot, che forniscono tutti test per matrici definite positive. Il relatore spiega quindi la relazione tra matrici positive definite e indefinite, la loro connessione con autovalori e determinanti e come calcolare l'energia nel vettore X per una matrice. Il relatore discute anche i concetti di apprendimento profondo, reti neurali, apprendimento automatico e minimizzazione di un'energia. Toccano il concetto di funzione convessa e spiegano come può essere utilizzata nell'apprendimento profondo. Infine, il relatore introduce esercizi per matrici definite e semidefinite positive e accenna brevemente al prossimo argomento della decomposizione a valori singolari.
Lezione 6. Decomposizione del valore singolare (SVD)
6. Decomposizione del valore singolare (SVD)
Questo video spiega il concetto di Singular Value Decomposition (SVD), che viene utilizzato per fattorizzare una matrice in tre matrici, dove quella centrale è diagonale e contiene i valori singolari. L'SVD aiuta a comprendere la relazione tra A, Sigma e V, aiutando in ultima analisi a risolvere le equazioni. Il video discute l'importanza di vettori ortogonali, autovettori e autovalori in SVD e sottolinea l'ortogonalità delle matrici A e V. Il video spiega anche la rappresentazione grafica del processo SVD e la decomposizione polare di una matrice. Infine, il video discute il processo di estrazione della parte più importante di una grande matrice di dati utilizzando SVD.
Lezione 7. Eckart-Young: la matrice di rango k più vicina ad A
7. Eckart-Young: la matrice di rango k più vicina ad A
In questo video di YouTube, il docente spiega il concetto di analisi dei componenti principali (PCA), che viene utilizzato per comprendere una matrice di dati ed estrarne informazioni significative. Viene evidenziata l'importanza dei k valori singolari più grandi di una matrice, che contengono le informazioni più cruciali, e il teorema di Eckart-Young, che afferma che i primi k pezzi di una decomposizione di valori singolari forniscono la migliore approssimazione a una matrice di rango k , è introdotto. Il relatore discute anche diversi tipi di norme per vettori e matrici, comprese le norme l2, l1 e infinito. Viene evidenziata l'importanza della norma di Frobenius nella competizione Netflix e nelle scansioni MRI, insieme al concetto di matrice di rango k più vicina ad A. Il relatore discute anche l'uso di matrici ortogonali nel preservare le proprietà della matrice originale e introduce il concetto di Singular Value Decomposition (SVD) e come si collega alla PCA. Infine, viene discussa l'importanza di risolvere un sistema lineare di equazioni che coinvolgono la matrice rettangolare A e la sua trasposizione, insieme all'uso del metodo SVD per trovare il miglior rapporto tra età e altezza per un dato set di dati.
Lezione 8: Norme di vettori e matrici
Lezione 8: Norme di vettori e matrici
Questa conferenza discute il concetto di norme di vettori e matrici, comprese le norme L1 e max, e la loro applicazione in campi come il rilevamento della compressione e l'elaborazione del segnale. La lezione copre anche l'importanza della disuguaglianza triangolare nelle norme, la forma delle s-norme e la connessione tra la norma L2 di vettori e matrici. Inoltre, la conferenza esplora la norma di Frobenius e la norma nucleare, che rimane una congettura per l'ottimizzazione delle reti neurali, e sottolinea l'importanza dell'insegnamento e dell'apprendimento insieme agli studenti.
Lezione 9. Quattro modi per risolvere i problemi dei minimi quadrati
9. Quattro modi per risolvere i problemi dei minimi quadrati
In questo video, l'istruttore discute il concetto di minimi quadrati e vari modi per affrontarlo. Sottolinea l'importanza dei minimi quadrati, poiché è un problema essenziale nell'algebra lineare e funge da collante che tiene insieme l'intero corso. Il video copre la pseudo-inversa delle matrici, SVD di matrici invertibili e non invertibili e diversi metodi per risolvere i problemi dei minimi quadrati, tra cui il piano di Gauss e le colonne ortogonali. Il video discute anche l'idea di ridurre al minimo la distanza tra ax + b e le misurazioni effettive utilizzando la norma L2 al quadrato e come si collega alla regressione lineare e alle statistiche. Inoltre, il video fornisce informazioni su un progetto che utilizza il materiale appreso durante il corso, concentrandosi su aree come il machine learning e il deep learning.
Lezione 10: Indagine sulle difficoltà con Ax = b
Lezione 10: Indagine sulle difficoltà con Ax = b
In questa lezione sull'algebra lineare numerica, vengono discusse le difficoltà nel risolvere equazioni lineari della forma Ax=b. Queste difficoltà sorgono quando la matrice A è quasi singolare, rendendo la sua inversa irragionevolmente grande, e quando il problema è troppo grande con una matrice gigante impossibile da risolvere in un tempo ammissibile. Il docente delinea diverse possibilità di soluzione del problema, che vanno dal facile caso normale al caso estremamente difficile di equazioni sottodeterminate. Vengono discussi l'uso dell'algebra lineare randomizzata, i metodi iterativi e l'SVD, insieme all'importanza di trovare soluzioni che funzionino sui dati di test, in particolare con il deep learning. Inoltre, il docente sottolinea che l'SVD è ancora lo strumento migliore per diagnosticare eventuali problemi di matrice.
Lezione 11: Minimizzare ‖x‖ Soggetto ad Ax = b
Lezione 11: Minimizzare ‖x‖ Soggetto ad Ax = b
In questa conferenza, il relatore copre una serie di argomenti relativi all'algebra lineare numerica. Iniziano con la discussione dei problemi che possono sorgere quando si risolve per Ax=b, quindi passano al processo di Gram-Schmidt per trovare una base ortogonale per uno spazio e al metodo di Gram-Schmidt modificato per minimizzare ‖x‖ soggetto ad Ax = b . Il relatore introduce anche il concetto di scambio di colonne o rotazione di colonne in un algoritmo di Gram-Schmidt più professionale e discute un miglioramento del processo di Gram-Schmidt standard per l'ortonormalizzazione delle colonne di una matrice A. Toccano anche l'idea dello spazio di Krylov risolvere il problema Ax=b e l'importanza di avere una buona base per minimizzare ‖x‖ soggetto ad Ax = b. Infine, affermano di aver concluso con il problema di minimizzare x soggetto ad Ax=b e di passare ad affrontare il problema di trattare matrici molto grandi.
Lezione 12. Calcolo di autovalori e valori singolari
12. Calcolo di autovalori e valori singolari
In questo video viene introdotto il metodo QR per il calcolo di autovalori e valori singolari. Il processo prevede di iniziare con la matrice desiderata e di fattorizzarla in QR, creando una matrice triangolare superiore R che collega la base non ortogonale con la base ortogonale. Il processo viene iterato fino a quando le voci diagonali diventano piccole, a quel punto possono essere utilizzate per approssimare gli autovalori. L'oratore discute anche un metodo di spostamento per calcolare gli autovettori per accelerare il processo. Vengono inoltre evidenziati i vantaggi dell'utilizzo di MATLAB per matrici simmetriche. Il video tocca anche il concetto di vettori di Krylov per la risoluzione di problemi agli autovalori per matrici grandi.
Lezione 13: Moltiplicazione di matrici randomizzate
Lezione 13: Moltiplicazione di matrici randomizzate
Questa lezione video discute il concetto di moltiplicazione di matrici randomizzate, che prevede il campionamento delle colonne della matrice A e delle righe corrispondenti della matrice B con probabilità che sommate danno uno. Il valore medio dei campioni casuali può essere calcolato per ottenere la risposta corretta, ma ci sarà comunque varianza. La lezione prosegue discutendo i concetti di media e varianza e come scegliere le migliori probabilità che minimizzano la varianza. Il processo prevede l'introduzione di una variabile sconosciuta chiamata Lambda e l'adozione di derivate rispetto ad essa per trovare il miglior PJ. L'attenzione si sposta quindi sulla questione di come ponderare le probabilità quando si osservano quali colonne in una matrice sono più grandi o più piccole. Il docente suggerisce due possibilità: pesare le probabilità secondo la norma al quadrato o mischiare le colonne della matrice e usare probabilità uguali. Nel complesso, il video fornisce una spiegazione dettagliata della moltiplicazione di matrici randomizzate e del processo di ottimizzazione delle probabilità per ottenere la varianza minima.