Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Lección 24. Programación Lineal y Juegos de Dos Personas
24. Programación lineal y juegos de dos personas
Este video de YouTube cubre el tema de la programación lineal y los juegos de dos personas. La programación lineal es el proceso de optimización de una función de coste lineal sujeta a un conjunto de restricciones lineales y se utiliza en campos como la economía y la ingeniería. El video explica los algoritmos utilizados en la programación lineal, incluido el método simplex y los métodos de puntos interiores, y el concepto de dualidad, donde el problema primal y su problema dual están estrechamente relacionados y pueden resolverse mediante el método simplex. El video también cubre cómo se puede aplicar la programación lineal a juegos de dos personas, incluido el proceso de encontrar un límite superior en el flujo máximo en una red y resolver un juego con una matriz. Finalmente, el video analiza brevemente las limitaciones de aplicar estas técnicas a juegos de tres o más personas y menciona que la próxima lección cubrirá el descenso de gradiente estocástico.
Lección 25. Descenso de Gradiente Estocástico
25. Descenso de gradiente estocástico
En este video, se presenta el concepto de descenso de gradiente estocástico (SGD) como un método de optimización para resolver problemas de aprendizaje automático a gran escala que a menudo se plantean en forma de un problema de suma finita. El orador explica cómo SGD selecciona puntos de datos aleatorios para calcular el gradiente para acelerar el cálculo y cómo se comporta de manera diferente al descenso del gradiente por lotes a medida que se acerca al óptimo debido a la naturaleza fluctuante del método. La propiedad clave de SGD es que la estimación del gradiente estocástico es una versión imparcial del gradiente real esperado y la varianza del gradiente estocástico debe controlarse para reducir el ruido. El uso de minilotes se analiza como un medio de paralelismo económico en el entrenamiento de GPU de aprendizaje profundo, pero seleccionar el tamaño correcto de minilotes sigue siendo una pregunta abierta que puede afectar la solidez de la solución en presencia de datos ocultos. Los desafíos en la optimización de SGD incluyen determinar el tamaño del mini lote y calcular gradientes estocásticos, pero los investigadores están tratando de comprender la eficacia de SGD en redes neuronales mediante el desarrollo de una teoría de generalización.
Lección 26. Estructura de Redes Neuronales para Deep Learning
26. Estructura de redes neuronales para aprendizaje profundo
Este video analiza la estructura de las redes neuronales para el aprendizaje profundo. El objetivo es clasificar los datos de forma binaria mediante la construcción de una red neuronal con vectores de características que tienen m características, creando una función de aprendizaje que puede clasificar los datos en una de dos categorías. La no linealidad es esencial para crear estas funciones, ya que los clasificadores lineales no pueden separar datos no lineales. El video también analiza la importancia de la cantidad de pesos y capas en la red neuronal, y brinda recursos como el área de juegos de TensorFlow para que los usuarios practiquen la creación de funciones. Finalmente, el video analiza la recursividad utilizada para probar la fórmula para la cantidad de piezas planas obtenidas al cortar un pastel y cómo se relaciona con el problema de optimización de minimizar la pérdida total en el aprendizaje profundo.
Lección 27. Propagación hacia atrás: encontrar derivadas parciales
27. Propagación hacia atrás: encontrar derivadas parciales
Este video cubre varios temas relacionados con la retropropagación y la búsqueda de derivadas parciales. El disertante demuestra el uso de la regla de la cadena para derivadas parciales y enfatiza la importancia del orden de los cálculos en la multiplicación de matrices. La retropropagación se destaca como un algoritmo eficiente para calcular gradientes y se dan varios ejemplos para demostrar su eficacia. Se analiza brevemente la convergencia del descenso de gradiente estocástico, junto con una idea de proyecto relacionada con el uso de un orden aleatorio de muestras de función de pérdida en el descenso de gradiente estocástico. En general, el video proporciona una descripción completa de la retropropagación y sus aplicaciones.
Lección 30: Completando una Matriz de Rango Uno, Circulantes!
Clase 30: Completando una Matriz de Rango Uno, Circulantes!
En la lección 30, el disertante analiza cómo completar una matriz de rango uno y matrices circulantes. Comienzan con un determinante de 2x2 y lo usan para reducir los valores que se pueden completar en una matriz para que sea de rango uno. Luego, el disertante pasa a un problema combinatorio para una matriz de 4x4 e introduce matrices circulantes que presentan patrones cíclicos que se pueden crear con solo cuatro números dados. La lección también cubre la convolución cíclica, los valores propios y los vectores propios de las matrices circulantes, que son importantes en el procesamiento de señales.
Lección 31. Vectores propios de matrices circulantes: matriz de Fourier
31. Vectores propios de matrices circulantes: matriz de Fourier
En este video sobre vectores propios de matrices circulantes, el orador analiza cómo las matrices circulantes se relacionan con el procesamiento de imágenes y el aprendizaje automático, así como su conexión con la matriz de Fourier. El disertante enfatiza la importancia de comprender las matrices de convolución y circulantes en relación con la transformada discreta de Fourier (DFT) y las transformadas de Fourier. El disertante analiza los vectores propios de las matrices circulantes, particularmente la matriz de Fourier, y cómo se construyen todos a partir del mismo conjunto de ocho números que también son los valores propios. El disertante también habla sobre las propiedades de la matriz de Fourier, incluyendo cómo las columnas son ortogonales pero no ortonormales y cómo sus vectores propios suman cero debido a la simetría de la matriz circulante, haciéndolas ortogonales entre sí. Finalmente, el disertante demuestra el concepto del Vector de Argán como vector propio de la Matriz de Fourier con ejemplos.
Lección 32: ImageNet es una red neuronal convolucional (CNN), la regla de convolución
32: ImageNet es una red neuronal convolucional (CNN), la regla de convolución
En la lección 32 de un curso de aprendizaje profundo, se analiza el poder de las redes neuronales convolucionales (CNN) en la clasificación de imágenes, con el ejemplo de la competencia ImageNet ganada por una gran CNN profunda con capas de convolución, capas normales y capas de agrupación máxima. La conferencia también se enfoca en la regla de convolución, que conecta la multiplicación y la convolución, con ejemplos de convoluciones bidimensionales, el uso del producto de Kronecker para una transformada bidimensional de Fourier y en el procesamiento de señales, y la diferencia entre periódico y no periódico. casos con respecto a la convolución. El disertante también analiza los vectores propios y los valores propios de una matriz circulante y la operación de suma de Kronecker.
Lección 33. Redes Neuronales y la Función de Aprendizaje
33. Redes neuronales y la función de aprendizaje
En este video, el orador analiza la construcción de la función de aprendizaje f para redes neuronales, que se optimiza mediante el descenso de gradiente o el descenso de gradiente estocástico y se aplica a los datos de entrenamiento para minimizar la pérdida. Explica el uso de una imagen dibujada a mano para ilustrar el concepto de redes neuronales y la función de aprendizaje, así como varias funciones de pérdida utilizadas en el aprendizaje automático, incluida la pérdida de entropía cruzada. El ponente también habla del problema de encontrar las posiciones de los puntos dadas sus distancias, que es un problema clásico con varias aplicaciones, como en la determinación de formas de moléculas usando resonancia magnética nuclear. Concluye discutiendo la construcción de X, el paso final para obtener la estructura de una red neuronal, y menciona una convocatoria de voluntarios para discutir un proyecto el viernes.
Lección 34. Matrices de Distancia, Problema de Procrustes
34. Matrices de distancia, problema de Procrustes
El orador analiza el problema de Procrustes, que consiste en encontrar la mejor transformación ortogonal que lleve un conjunto de vectores lo más cerca posible de otro conjunto de vectores. Explican diferentes expresiones para calcular la norma de Frobenius de una matriz de distancias y su conexión con el problema de Procrustes. El ponente también introduce el concepto de la traza de matrices y encuentra la Q correcta en el problema de Procrustes. Además, abordan la cuestión de si el aprendizaje profundo realmente funciona y presentan la solución a un problema de matriz que implica encontrar la mejor matriz ortogonal, lo que implica calcular la SVD del producto escalar de dos matrices y usar las matrices ortogonales de la SVD.
Lección 35. Hallar conglomerados en gráficas
35. Encontrar grupos en gráficos
Este video analiza el agrupamiento en gráficos y cómo encontrar agrupamientos usando diferentes algoritmos como K-means y agrupamiento espectral. La matriz laplaciana se utiliza en la agrupación espectral y puede proporcionar información sobre las agrupaciones en el gráfico a través de sus vectores propios. El vector propio de Fiedler, que es el vector propio para el valor propio positivo más pequeño, es importante para la agrupación. El orador también enfatiza la importancia de que los vectores propios sean ortogonales para identificar diferentes grupos. Además, hay una breve vista previa de la próxima lección, que cubrirá la propagación hacia atrás usando Julia en álgebra lineal. Se alienta a los estudiantes a enviar sus proyectos en línea o fuera de la oficina del instructor.