Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Aula 12. Calculando Autovalores e Valores Singulares
12. Cálculo de Autovalores e Valores Singulares
Neste vídeo, é apresentado o método QR para calcular autovalores e valores singulares. O processo envolve começar com a matriz desejada e fatorá-la em QR, criando uma matriz triangular superior R que conecta a base não ortogonal com a base ortogonal. O processo é iterado até que as entradas diagonais se tornem pequenas, ponto em que elas podem ser usadas para aproximar os autovalores. O palestrante também discute um método de deslocamento para calcular autovetores para acelerar o processo. Os benefícios do uso do MATLAB para matrizes simétricas também são destacados. O vídeo também aborda o conceito de vetores Krylov para resolver problemas de autovalor para grandes matrizes.
Aula 13: Multiplicação de Matrizes Randomizadas
Aula 13: Multiplicação de Matrizes Randomizadas
Esta videoaula discute o conceito de multiplicação aleatória de matrizes, que envolve a amostragem das colunas da matriz A e das linhas correspondentes da matriz B com probabilidades que somam um. O valor médio das amostras aleatórias pode ser calculado para obter a resposta correta, mas ainda haverá variação. A palestra continua a discutir os conceitos de média e variância e como escolher as melhores probabilidades que minimizam a variância. O processo envolve a introdução de uma variável desconhecida chamada Lambda e derivações em relação a ela para encontrar o melhor PJ. O foco então muda para a questão de como ponderar as probabilidades ao observar quais colunas em uma matriz são maiores ou menores. O palestrante sugere duas possibilidades: ponderar as probabilidades de acordo com a norma ao quadrado ou misturar as colunas da matriz e usar probabilidades iguais. No geral, o vídeo fornece uma explicação detalhada da multiplicação de matrizes aleatórias e o processo de otimização de probabilidades para obter a menor variância.
Aula 14. Mudanças de classificação baixa em A e seu inverso
14. Mudanças de classificação baixa em A e seu inverso
O vídeo discute o conceito de matrizes de posto baixo e sua importância em matrizes de funções, particularmente a fórmula de inversão de matrizes que encontra o inverso de uma matriz N por n em termos de uma matriz 1 por 1 mais simples. A fórmula é útil para encontrar o inverso de matrizes com perturbações de classificação baixa e pode simplificar o processo de encontrar inversos. O palestrante mostra como a fórmula funciona apresentando a fórmula para a segunda matriz e mostra como a mesma lógica foi aplicada para chegar à resposta. O vídeo também discute aplicações práticas desta fórmula, particularmente em problemas de mínimos quadrados e o filtro de Kalman.
Aula 15. Matrizes A(t) Dependendo de t, Derivada = dA/dt
15. Matrizes A(t) Dependendo de t, Derivada = dA/dt
Este vídeo aborda vários tópicos relacionados a matrizes, incluindo mudanças em matrizes e suas inversas, bem como mudanças em autovalores e valores singulares ao longo do tempo. O palestrante explica as principais fórmulas para calcular essas mudanças e enfatiza a importância de entender o cálculo na álgebra linear. Além disso, a palestra discute a importância da normalização e explora teoremas entrelaçados para autovalores em matrizes simétricas e de classificação 1. Por fim, o vídeo termina com uma revisão dos tópicos abordados e com a promessa de expandi-los em palestras futuras.
possível, eles ainda podem derivar desigualdades para entender o tamanho da mudança. A palestra também aborda a configuração da matriz A, que depende do tempo (T) e o inverso A inverso.
Aula 16. Derivadas de Valores Inversos e Singulares
16. Derivadas de Valores Inversos e Singulares
Este vídeo cobre uma variedade de tópicos, incluindo a derivada dos valores inversos e singulares de uma matriz, entrelaçamento e a norma nuclear de uma matriz. O palestrante apresenta uma fórmula para a derivada de valores singulares, usando o SVD, para entender como uma matriz muda ao longo do tempo, enquanto estabelece limites para mudanças em autovalores em matrizes simétricas. A desigualdade de Vial é introduzida como uma forma de estimar os valores lambda de uma matriz, e a busca de bases é usada em problemas de completação de matrizes. O palestrante também discute a ideia de que a norma nuclear de uma matriz vem de uma norma que não é bem uma norma e introduz o conceito de laço e sensoriamento comprimido a ser discutido na próxima palestra.
Aula 17: Diminuindo Rapidamente Valores Singulares
Aula 17: Diminuindo Rapidamente Valores Singulares
A palestra enfoca matrizes e suas classificações, e como os valores singulares decrescentes são predominantes na matemática computacional. O palestrante examina matrizes de classificação baixa e demonstra como elas têm muitos zeros em sua sequência de valores singulares, tornando mais eficiente enviar a matriz a um amigo na forma de classificação inferior do que na forma de classificação completa. Eles também introduzem a classificação numérica de uma matriz, que é definida permitindo algum espaço de manobra para definir a tolerância de valores singulares de uma matriz. Ao amostrar funções suaves, que podem ser bem aproximadas por polinômios, a classificação numérica pode ser baixa, resultando em uma aproximação de classificação baixa da matriz X. A palestra também inclui exemplos de matrizes gaussianas e de Vandermonde para explicar como elas podem levar a matrizes de baixo escalão e discute a utilidade dos números de Zolotarev na delimitação de valores singulares.
Aula 18: Parâmetros de contagem em SVD, LU, QR, pontos de sela
Aula 18: Parâmetros de contagem em SVD, LU, QR, pontos de sela
Nesta palestra, o palestrante analisa várias fatorações de matrizes, como L&U, Q&R e matrizes de autovetores, e conta o número de parâmetros livres em cada uma dessas matrizes. Eles também discutem o cálculo de Qs versus SVD e contam o número de parâmetros no SVD para uma matriz rank-R. O palestrante também explica o conceito de pontos de sela em matrizes e como encontrá-los usando técnicas de otimização e multiplicadores de Lagrange. Por fim, o palestrante discute o sinal dos autovalores de uma matriz simétrica e como o quociente de Rayleigh pode ajudar a determinar o valor máximo e o autovetor correspondente da matriz.
Aula 19. Continuação dos Pontos de Sela, Princípio Maxmin
19. Continuação dos Pontos de Sela, Princípio Maxmin
Neste vídeo, o palestrante continua discutindo pontos de sela e como encontrar valores mínimos e máximos usando o quociente de Rayleigh no espaço bidimensional. O teorema do entrelaçamento é explicado, o que envolve escrever pontos de sela como o máximo de um mínimo para encontrar rapidamente máximos e mínimos. O palestrante também adverte contra o overfitting ao ajustar dados com um polinômio de alto grau e discute dois laboratórios abertos para a classe, envolvendo pontos de sela e uma rede neural simples. Os conceitos de média e variância em estatísticas e variância e covariância da amostra são explicados, com o palestrante observando que a matriz de covariância para saídas totalmente dependentes não seria invertível, e para cenários de pesquisa com várias pessoas morando em uma casa, alguma covariância é esperada, mas não totalmente independente.
Aula 20. Definições e Desigualdades
20. Definições e Desigualdades
Nesta seção do vídeo, o palestrante discute vários conceitos da teoria da probabilidade, incluindo valor esperado, variância e matrizes de covariância. A desigualdade de Markov e a desigualdade de Chebyshev também foram introduzidas como ferramentas fundamentais para estimar probabilidades. O palestrante passa então a explicar a relação entre a desigualdade de Markov e a desigualdade de Chebychev, ilustrando como elas levam ao mesmo resultado. O conceito de covariância e matriz de covariância, uma ferramenta fundamental na teoria da probabilidade, também foi introduzido. O vídeo também explora a ideia de probabilidades e tensores conjuntos, explicando como colar moedas adiciona dependência e altera as probabilidades. Por fim, o palestrante discute as propriedades da matriz de covariância, enfatizando que ela é sempre semidefinida positiva e é uma combinação de matrizes semidefinidas positivas de posto 1.
Aula 21: Minimizando uma função passo a passo
Aula 21: Minimizando uma função passo a passo
Esta palestra em vídeo discute os algoritmos básicos usados para minimizar uma função e suas taxas de convergência, particularmente o método de Newton e a descida mais íngreme. Ele também destaca a importância da convexidade, que garante que a função tenha um mínimo, e introduz o conceito de conjuntos convexos e funções convexas. O palestrante explica como testar a convexidade em uma função, que determina se ela possui pontos de sela ou mínimos locais, em oposição a um mínimo global. O vídeo termina com uma discussão sobre Levenberg Marquardt, uma versão mais barata do método de Newton que não é totalmente de segunda ordem.