Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Aula 2: Multiplicando e Fatorando Matrizes
Aula 2: Multiplicando e Fatorando Matrizes
Esta aula cobre os fundamentos da multiplicação e fatoração de matrizes. O autor explica como as matrizes têm dimensões nos espaços de linha e coluna, e como o espaço de linha tem dimensão R enquanto o espaço nulo tem dimensão M menos R. A palestra também discute a relação entre linhas e soluções para uma equação, bem como a ortogonalidade de vetores no espaço bidimensional. Por fim, o autor explica o teorema fundamental da álgebra linear, segundo o qual as dimensões de um espaço surgem logo que a geometria é trabalhada.
Aula 3. Colunas Ortonormais em Q Dê Q'Q = I
3. Colunas ortonormais em Q Dê Q'Q = I
Esta seção do vídeo explica o conceito de matrizes ortogonais e seu significado na álgebra linear numérica. O falante prova que o comprimento ao quadrado de QX deve ser o mesmo que X transposto QX usando o fato de que Q transposto Q é igual à identidade. O vídeo também discute a construção de matrizes ortogonais usando vários métodos, como matrizes Gordan e matrizes Householder. A importância e a construção de wavelets também são explicadas, juntamente com o conceito de uso de autovetores ortogonais no processamento de sinais. Por fim, o palestrante fala sobre como testar vetores ortogonais com números complexos e menciona que matrizes ortogonais possuem autovetores ortogonais com autovalores diferentes.
Aula 4. Autovalores e Autovetores
4. Autovalores e Autovetores
Este vídeo explica o conceito de autovalores e autovetores e como eles podem ser usados para calcular transformações lineares. Ele também mostra como autovetores podem ser usados para encontrar equações lineares em um sistema.
Aula 5. Matrizes Positivas Definidas e Semidefinidas
5. Matrizes Positivas Definidas e Semidefinidas
Neste vídeo, o palestrante resume os destaques das aulas anteriores sobre álgebra linear, incluindo autovalores, determinantes e pivôs, todos os quais fornecem testes para matrizes definidas positivas. O palestrante então explica a relação entre matrizes positivas definidas e indefinidas, sua conexão com autovalores e determinantes e como calcular a energia no vetor X para uma matriz. O palestrante também discute os conceitos de aprendizado profundo, redes neurais, aprendizado de máquina e minimização de energia. Eles abordam o conceito de função convexa e explicam como ela pode ser usada em aprendizado profundo. Por fim, o palestrante apresenta exercícios para matrizes positivas definidas e semidefinidas e menciona brevemente o próximo tópico de decomposição de valor singular.
Aula 6. Decomposição de Valor Singular (SVD)
6. Decomposição de Valor Singular (SVD)
Este vídeo explica o conceito de Decomposição de Valor Singular (SVD), que é usado para fatorar uma matriz em três matrizes, onde a do meio é diagonal e contém os valores singulares. O SVD ajuda a entender a relação entre A, Sigma e V, ajudando a resolver equações. O vídeo discute a importância de vetores ortogonais, autovetores e autovalores em SVD e enfatiza a ortogonalidade das matrizes A e V. O vídeo também explica a representação gráfica do processo SVD e a decomposição polar de uma matriz. Finalmente, o vídeo discute o processo de extração da parte mais importante de uma grande matriz de dados usando SVD.
Aula 7. Eckart-Young: A matriz k mais próxima de A
7. Eckart-Young: a matriz k de classificação mais próxima de A
Neste vídeo do YouTube, o palestrante explica o conceito de análise de componentes principais (PCA), que é usado para entender uma matriz de dados e extrair dela informações significativas. A importância dos maiores k valores singulares de uma matriz, que contêm as informações mais cruciais, é destacada, e o teorema de Eckart-Young, que afirma que as primeiras k partes de uma decomposição de valor singular fornecem a melhor aproximação para uma matriz de classificação k , é introduzido. O palestrante também discute diferentes tipos de normas para vetores e matrizes, incluindo as normas l2, l1 e infinito. A importância da norma Frobenius na competição Netflix e ressonâncias magnéticas é destacada, juntamente com o conceito da matriz de classificação k mais próxima de A. O palestrante também discute o uso de matrizes ortogonais na preservação das propriedades da matriz original e introduz o conceito da Decomposição de Valor Singular (SVD) e como ela se relaciona com o PCA. Por fim, é discutida a importância de resolver um sistema linear de equações envolvendo a matriz retangular A e sua transposta, juntamente com o uso do método SVD para encontrar a melhor razão entre idade e altura para um determinado conjunto de dados.
Aula 8: Normas de Vetores e Matrizes
Aula 8: Normas de Vetores e Matrizes
Esta palestra discute o conceito de normas de vetores e matrizes, incluindo as normas L1 e max, e sua aplicação em campos como detecção de compressão e processamento de sinal. A palestra também aborda a importância da desigualdade triangular nas normas, a forma das s-normas e a conexão entre a norma L2 de vetores e matrizes. Além disso, a palestra explora a norma Frobenius e a norma nuclear, que continua sendo uma conjectura para otimizar redes neurais, e enfatiza a importância de ensinar e aprender junto com os alunos.
Aula 9. Quatro Maneiras de Resolver Problemas de Mínimos Quadrados
9. Quatro maneiras de resolver problemas de mínimos quadrados
Neste vídeo, o instrutor discute o conceito de mínimos quadrados e várias formas de abordá-lo. Ele enfatiza a importância dos mínimos quadrados, pois é um problema essencial na álgebra linear e serve como a cola que mantém todo o curso unido. O vídeo aborda o pseudo-inverso de matrizes, SVD de matrizes invertíveis e não invertíveis e diferentes métodos para resolver problemas de mínimos quadrados, incluindo o plano de Gauss e colunas ortogonais. O vídeo também discute a ideia de minimizar a distância entre ax + b e as medições reais usando a norma L2 ao quadrado e como ela se relaciona com regressão linear e estatística. Além disso, o vídeo fornece informações sobre um projeto que usa o material aprendido no curso, com foco em áreas como aprendizado de máquina e aprendizado profundo.
Aula 10: Levantamento das Dificuldades com Ax = b
Aula 10: Levantamento das Dificuldades com Ax = b
Nesta palestra sobre álgebra linear numérica, são discutidas as dificuldades com a resolução de equações lineares da forma Ax=b. Essas dificuldades surgem quando a matriz A é quase singular, tornando sua inversa excessivamente grande, e quando o problema é muito grande com uma matriz gigante que é impossível de resolver em um tempo viável. O professor apresenta várias possibilidades de resolução do problema, desde o caso normal fácil até o caso extremamente difícil de equações indeterminadas. O uso de álgebra linear aleatória, métodos iterativos e o SVD são discutidos, juntamente com a importância de encontrar soluções que funcionem em dados de teste, particularmente com aprendizado profundo. Além disso, o palestrante enfatiza que o SVD ainda é a melhor ferramenta para diagnosticar qualquer problema de matriz.
Aula 11: Minimizando “x” Sujeito a Ax = b
Aula 11: Minimizando “x” Sujeito a Ax = b
Nesta palestra, o palestrante cobre uma variedade de tópicos relacionados à álgebra linear numérica. Eles começam discutindo os problemas que podem surgir ao resolver para Ax=b, depois passam para o processo de Gram-Schmidt para encontrar uma base ortogonal para um espaço e o método de Gram-Schmidt modificado para minimizar “x” sujeito a Ax = b . O palestrante também apresenta o conceito de troca de coluna ou pivô de coluna em um algoritmo de Gram-Schmidt mais profissional e discute uma melhoria no processo padrão de Gram-Schmidt para ortonormalizar as colunas de uma matriz A. Eles também abordam a ideia do espaço de Krylov para resolver o problema Ax=b e a importância de ter uma boa base para minimizar ‖x‖ sujeito a Ax = b. Finalmente, eles mencionam que terminaram com o problema de minimizar x sujeito a Ax=b e estão lidando com a questão de lidar com matrizes muito grandes.