Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Lección 14. Cambios de bajo rango en A y su inversa
14. Cambios de bajo rango en A y su inversa
El video analiza el concepto de matrices de bajo rango y su importancia en las matrices de funciones, particularmente la fórmula de inversión de matrices que encuentra el inverso de una matriz N por n en términos de una matriz más simple de 1 por 1. La fórmula es útil para encontrar la inversa de matrices que tienen perturbaciones de bajo rango y puede simplificar el proceso de encontrar inversas. El orador muestra cómo funciona la fórmula al presentar la fórmula de la segunda matriz y muestra cómo se aplicó la misma lógica para llegar a la respuesta. El video también analiza las aplicaciones prácticas de esta fórmula, particularmente en problemas de mínimos cuadrados y el filtro de Kalman.
Lección 15. Matrices A(t) en función de t, Derivada = dA/dt
15. Matrices A(t) En función de t, Derivada = dA/dt
Este video cubre varios temas relacionados con las matrices, incluidos los cambios en las matrices y su inversa, así como los cambios en los valores propios y singulares a lo largo del tiempo. El disertante explica fórmulas clave para calcular estos cambios y enfatiza la importancia de comprender el cálculo en álgebra lineal. Además, la conferencia analiza la importancia de la normalización y explora teoremas de entrelazado para valores propios en matrices simétricas y de rango 1. Por último, el video concluye con una revisión de los temas tratados y la promesa de ampliarlos en futuras conferencias.
posible, aún pueden derivar desigualdades para comprender qué tan grande podría ser el cambio. La lección también cubre la configuración de la matriz A, que depende del tiempo (T) y la inversa A inversa.
Lección 16. Derivadas de Valores Inversos y Singulares
16. Derivadas de valores inversos y singulares
Este video cubre una variedad de temas que incluyen la derivada de los valores inverso y singular de una matriz, el entrelazado y la norma nuclear de una matriz. El disertante presenta una fórmula para la derivada de valores singulares, utilizando el SVD, para comprender cómo cambia una matriz con el tiempo, al tiempo que establece límites para los cambios en los valores propios en matrices simétricas. La desigualdad de Vial se presenta como una forma de estimar los valores lambda de una matriz, y la búsqueda de bases se utiliza en los problemas de completación de matrices. El orador también discute la idea de que la norma nuclear de una matriz proviene de una norma que no es del todo una norma e introduce el concepto de Lasso y la detección comprimida que se discutirá en la próxima lección.
Lección 17: Valores singulares rápidamente decrecientes
17: Valores singulares rápidamente decrecientes
La conferencia se centra en las matrices y sus rangos, y en la rapidez con la que los valores singulares decrecientes prevalecen en las matemáticas computacionales. El disertante examina matrices de rango bajo y demuestra cómo tienen muchos ceros en su secuencia de valores singulares, lo que hace que sea más eficiente enviar la matriz a un amigo en forma de rango bajo que en forma de rango completo. También introducen el rango numérico de una matriz, que se define permitiendo cierto margen de maniobra para definir la tolerancia de los valores singulares de una matriz. Al muestrear funciones suaves, que pueden aproximarse bien mediante polinomios, el rango numérico puede ser bajo, lo que da como resultado una aproximación de bajo rango de la matriz X. La lección también incluye ejemplos de matrices gaussianas y de Vandermonde para explicar cómo pueden llevar a matrices de rango bajo y analiza la utilidad de los números de Zolotarev para delimitar valores singulares.
Lección 18: Parámetros de conteo en SVD, LU, QR, Puntos de silla
18: Parámetros de conteo en SVD, LU, QR, Puntos de silla
En esta lección, el orador revisa varias factorizaciones de matrices, como L&U, Q&R y matrices de vectores propios, y cuenta la cantidad de parámetros libres en cada una de estas matrices. También analizan el cálculo de Qs frente a SVD y cuentan el número de parámetros en el SVD para una matriz de rango R. El disertante también explica el concepto de puntos silla en matrices y cómo encontrarlos usando técnicas de optimización y multiplicadores de Lagrange. Por último, el disertante analiza el signo de los valores propios de una matriz simétrica y cómo el cociente de Rayleigh puede ayudar a determinar el valor máximo y el vector propio correspondiente de la matriz.
Lección 19. Puntos de silla (continuación), principio de Maxmin
19. Puntos de silla (continuación), principio de Maxmin
En este video, el orador continúa discutiendo los puntos de silla y cómo encontrar valores mínimos y máximos usando el cociente de Rayleigh en un espacio bidimensional. Se explica el teorema del entrelazado, que consiste en escribir puntos de silla como el máximo de un mínimo para encontrar rápidamente máximos y mínimos. El orador también advierte contra el sobreajuste al ajustar datos con un polinomio de alto grado y analiza dos laboratorios abiertos para la clase, que involucran puntos de silla y una red neuronal simple. Se explican los conceptos de media y varianza en estadísticas y varianza y covarianza de muestra, y el orador señala que la matriz de covarianza para salidas totalmente dependientes no sería invertible, y para escenarios de sondeo con varias personas viviendo en una casa, se espera algo de covarianza pero no del todo independiente.
Lección 20. Definiciones y Desigualdades
20. Definiciones y Desigualdades
En esta sección del video, el orador analiza varios conceptos en la teoría de la probabilidad, incluido el valor esperado, la varianza y las matrices de covarianza. La desigualdad de Markov y la desigualdad de Chebyshev también se introdujeron como herramientas fundamentales para estimar probabilidades. Luego, el orador procede a explicar la relación entre la desigualdad de Markov y la desigualdad de Chebychev, ilustrando cómo conducen al mismo resultado. También se introdujo el concepto de covarianza y matriz de covarianza, una herramienta fundamental en la teoría de la probabilidad. El video también explora la idea de las probabilidades conjuntas y los tensores, y explica cómo pegar monedas agrega dependencia y altera las probabilidades. Finalmente, el disertante discute las propiedades de la matriz de covarianza, enfatizando que siempre es semidefinida positiva y es una combinación de matrices semidefinidas positivas de rango 1.
Lección 21: Minimizando una función paso a paso
Lección 21: Minimizando una función paso a paso
Esta video conferencia analiza los algoritmos básicos utilizados para minimizar una función y sus tasas de convergencia, en particular el método de Newton y el descenso más pronunciado. También destaca la importancia de la convexidad, que asegura que la función tenga un mínimo, e introduce el concepto de conjuntos convexos y funciones convexas. El disertante explica cómo probar la convexidad en una función, lo que determina si tiene puntos de silla o mínimos locales, en lugar de un mínimo global. El video concluye con una discusión de Levenberg Marquardt, una versión más económica del método de Newton que no es completamente de segundo orden.
Lección 22. Descenso de gradiente: descenso al mínimo
22. Descenso de pendiente: cuesta abajo hasta el mínimo
En el video, "Gradient Descent: Downhill to a Minimal", el orador analiza la importancia del gradiente descendente en la optimización y el aprendizaje profundo, donde el objetivo es minimizar una función. El orador presenta el gradiente y la arpillera, e ilustra los pasos del descenso más pronunciado usando una función cuadrática. El orador también analiza cómo interpretar el gradiente y la arpillera, así como su papel en la medición de la convexidad. El ponente profundiza en la elección de la tasa de aprendizaje adecuada, destacando la importancia del número de condición en el control de la velocidad de convergencia. El video también brinda ejemplos prácticos y fórmulas para ayudar a comprender el concepto de descenso de gradiente, incluido el método de la bola pesada.
Lección 23. Acelerar el descenso de gradiente (Usar Momentum)
23. Acelerar el descenso de gradiente (usar impulso)
Este video analiza el concepto de impulso en el descenso acelerado de gradientes. El presentador explica la fórmula básica de descenso de gradiente y muestra cómo agregar impulso puede resultar en un descenso más rápido que el método ordinario, lo que en última instancia produce mejoras significativas. También analizan un modelo continuo de descenso más pronunciado y explican cómo se puede analizar como una ecuación diferencial de segundo orden con un término de cantidad de movimiento. El presentador enfatiza la importancia de minimizar ambos valores propios cuando se usa el impulso para minimizar el valor propio más grande al elegir valores para s y beta para hacer que los valores propios de la matriz sean lo más pequeños posible. También discuten el método de Nesterov y sugieren que es posible obtener más mejoras retrocediendo dos o tres pasos o más.