Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Lección 4. Valores propios y vectores propios
4. Valores propios y vectores propios
Este video explica el concepto de valores propios y vectores propios, y cómo se pueden usar para calcular transformaciones lineales. También continúa mostrando cómo se pueden usar los vectores propios para encontrar ecuaciones lineales en un sistema.
Lección 5. Matrices Positivas Definidas y Semidefinidas
5. Matrices Positivas Definidas y Semidefinidas
En este video, el orador resume los aspectos más destacados de las conferencias anteriores sobre álgebra lineal, incluidos los valores propios, los determinantes y los pivotes, todos los cuales brindan pruebas para matrices definidas positivas. Luego, el orador explica la relación entre las matrices positivas definidas e indefinidas, su conexión con los valores propios y los determinantes, y cómo calcular la energía en el vector X para una matriz. El orador también analiza los conceptos de aprendizaje profundo, redes neuronales, aprendizaje automático y minimización de energía. Tocan el concepto de una función convexa y explican cómo se puede usar en el aprendizaje profundo. Finalmente, el disertante introduce ejercicios para matrices positivas definidas y semidefinidas y menciona brevemente el próximo tema de la descomposición en valores singulares.
Lección 6. Descomposición en valores singulares (SVD)
6. Descomposición de valores singulares (SVD)
Este video explica el concepto de descomposición de valores singulares (SVD), que se utiliza para factorizar una matriz en tres matrices, donde la del medio es diagonal y contiene los valores singulares. El SVD ayuda a comprender la relación entre A, Sigma y V y, en última instancia, ayuda a resolver ecuaciones. El video analiza la importancia de los vectores ortogonales, los vectores propios y los valores propios en SVD y enfatiza la ortogonalidad de las matrices A y V. El video también explica la representación gráfica del proceso SVD y la descomposición de polos de una matriz. Finalmente, el video analiza el proceso de extracción de la parte más importante de una gran matriz de datos utilizando SVD.
Lección 7. Eckart-Young: La matriz de rango k más cercana a A
7. Eckart-Young: La matriz de rango k más cercana a A
En este video de YouTube, el disertante explica el concepto de análisis de componentes principales (PCA), que se utiliza para comprender una matriz de datos y extraer información significativa de ella. Se destaca la importancia de los k valores singulares más grandes de una matriz, que contienen la información más crucial, y el teorema de Eckart-Young, que establece que las primeras k partes de una descomposición de valores singulares proporcionan la mejor aproximación a una matriz de rango k , es presentado. El orador también analiza diferentes tipos de normas para vectores y matrices, incluidas las normas l2, l1 e infinity. Se destaca la importancia de la norma de Frobenius en la competencia de Netflix y las resonancias magnéticas, junto con el concepto de la matriz de rango k más cercana a A. El orador también analiza el uso de matrices ortogonales para preservar las propiedades de la matriz original e introduce el concepto de Descomposición de Valor Singular (SVD) y cómo se relaciona con PCA. Por último, se analiza la importancia de resolver un sistema lineal de ecuaciones que involucre la matriz rectangular A y su transpuesta, junto con el uso del método SVD para encontrar la mejor relación entre la edad y la altura para un conjunto de datos dado.
Lección 8: Normas de Vectores y Matrices
Lección 8: Normas de Vectores y Matrices
Esta lección analiza el concepto de normas de vectores y matrices, incluidas las normas L1 y max, y su aplicación en campos como la detección de compresión y el procesamiento de señales. La conferencia también cubre la importancia de la desigualdad triangular en las normas, la forma de las s-normas y la conexión entre la norma L2 de vectores y matrices. Además, la conferencia explora la norma de Frobenius y la norma nuclear, que sigue siendo una conjetura para optimizar las redes neuronales, y enfatiza la importancia de enseñar y aprender junto con los estudiantes.
Lección 9. Cuatro formas de resolver problemas de mínimos cuadrados
9. Cuatro formas de resolver problemas de mínimos cuadrados
En este video, el instructor analiza el concepto de mínimos cuadrados y varias formas de abordarlo. Él enfatiza la importancia de los mínimos cuadrados, ya que es un problema esencial en álgebra lineal y sirve como el pegamento que mantiene unido todo el curso. El video cubre el pseudo-inverso de matrices, SVD de matrices invertibles y no invertibles, y diferentes métodos para resolver problemas de mínimos cuadrados, incluido el plan de Gauss y las columnas ortogonales. El video también analiza la idea de minimizar la distancia entre ax + b y las medidas reales usando la norma L2 al cuadrado y cómo se relaciona con la regresión lineal y las estadísticas. Además, el video brinda información sobre un proyecto que utiliza el material aprendido en el curso, centrándose en áreas como el aprendizaje automático y el aprendizaje profundo.
Lección 10: Encuesta de Dificultades con Ax = b
Lección 10: Encuesta de Dificultades con Ax = b
En esta lección sobre álgebra lineal numérica, se analizan las dificultades para resolver ecuaciones lineales de la forma Ax=b. Estas dificultades surgen cuando la matriz A es casi singular, lo que hace que su inversa sea irrazonablemente grande, y cuando el problema es demasiado grande con una matriz gigante que es imposible de resolver en un tiempo factible. El disertante esboza varias posibilidades para resolver el problema, que van desde el caso normal fácil hasta el caso extremadamente difícil de ecuaciones indeterminadas. Se analiza el uso de álgebra lineal aleatoria, métodos iterativos y SVD, junto con la importancia de encontrar soluciones que funcionen con datos de prueba, particularmente con aprendizaje profundo. Además, el disertante enfatiza que el SVD sigue siendo la mejor herramienta para diagnosticar cualquier problema de matriz.
Clase 11: Minimizando ‖x‖ Sujeto a Ax = b
Clase 11: Minimizando ‖x‖ Sujeto a Ax = b
En esta conferencia, el orador cubre una variedad de temas relacionados con el álgebra lineal numérica. Comienzan discutiendo los problemas que pueden surgir al resolver Ax=b, luego pasan al proceso de Gram-Schmidt para encontrar una base ortogonal para un espacio y al método de Gram-Schmidt modificado para minimizar ‖x‖ sujeto a Ax = b . El orador también introduce el concepto de intercambio de columnas o columna pivotante en un algoritmo de Gram-Schmidt más profesional y analiza una mejora en el proceso estándar de Gram-Schmidt para ortonormalizar las columnas de una matriz A. También tocan la idea del espacio de Krylov. para resolver el problema Ax=b y la importancia de tener una buena base para minimizar ‖x‖ sujeto a Ax = b. Finalmente, mencionan que han terminado con el problema de minimizar x sujeto a Ax=b y están pasando a abordar el tema de tratar con matrices muy grandes.
Lección 12. Cálculo de valores propios y valores singulares
12. Cálculo de valores propios y valores singulares
En este video, se presenta el método QR para calcular valores propios y valores singulares. El proceso implica comenzar con la matriz deseada y factorizarla en QR, creando una matriz triangular superior R que conecta la base no ortogonal con la base ortogonal. El proceso se repite hasta que las entradas diagonales se vuelven pequeñas, momento en el que se pueden usar para aproximar los valores propios. El orador también analiza un método de cambio para calcular los vectores propios para acelerar el proceso. También se destacan los beneficios de usar MATLAB para matrices simétricas. El video también aborda el concepto de vectores de Krylov para resolver problemas de valores propios para matrices grandes.
Lección 13: Multiplicación de matrices aleatorias
Lección 13: Multiplicación de matrices aleatorias
Esta videolección analiza el concepto de multiplicación aleatoria de matrices, que implica muestrear las columnas de la matriz A y las filas correspondientes de la matriz B con probabilidades que suman uno. El valor medio de las muestras aleatorias se puede calcular para obtener la respuesta correcta, pero aún habrá varianza. La lección continúa discutiendo los conceptos de media y varianza y cómo elegir las mejores probabilidades que minimicen la varianza. El proceso consiste en introducir una variable desconocida llamada Lambda y derivar con respecto a ella para encontrar el mejor PJ. Luego, el enfoque cambia a la cuestión de cómo ponderar las probabilidades al observar qué columnas en una matriz son más grandes o más pequeñas. El disertante sugiere dos posibilidades: ponderar probabilidades según el cuadrado normal o mezclar las columnas de la matriz y usar probabilidades iguales. En general, el video proporciona una explicación detallada de la multiplicación de matrices aleatorias y el proceso de optimización de probabilidades para obtener la varianza más pequeña.