Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
CS 198-126: Clase 3: Introducción al aprendizaje profundo, Parte 2
CS 198-126: Clase 3: Introducción al aprendizaje profundo, Parte 2
En esta sección de la lección, se explica el concepto de retropropagación, que es una forma más rápida de obtener todas las derivadas parciales necesarias para el algoritmo de descenso de gradiente sin realizar operaciones redundantes. El disertante también analiza cómo mejorar el descenso de gradiente de vainilla para la optimización del aprendizaje profundo y presenta impulso, RMSprop y Adam como métodos de optimización. También se analiza la importancia de realizar un seguimiento del historial de entrenamiento de un modelo, el uso de la normalización por lotes y el ensamblaje como técnica para mejorar el rendimiento del modelo, así como las técnicas comúnmente utilizadas en el aprendizaje profundo para ayudar a disminuir el sobreajuste, como la deserción y la omisión de conexiones. Finalmente, el disertante aborda brevemente la facilidad de uso de PyTorch y abre el turno de preguntas.
CS 198-126: Clase 4: Introducción al entrenamiento previo y aumentos
CS 198-126: Clase 4: Introducción al entrenamiento previo y aumentos
En esta conferencia, el orador explica la evolución de la extracción de características en el aprendizaje automático, las ventajas del aprendizaje profundo y cómo se puede utilizar el aprendizaje por transferencia para mejorar la precisión y la velocidad de los modelos. También discuten el concepto de congelar y ajustar capas en redes neuronales y la importancia de las incrustaciones para reducir la dimensionalidad de las variables categóricas. La conferencia presenta el aprendizaje autosupervisado y sus diferentes tareas, incluidas las tareas de rompecabezas, rotación y predicción de palabras enmascaradas, que se pueden usar para entrenar modelos y transferir representaciones aprendidas a tareas posteriores. Finalmente, se analiza el interés renovado en el aprendizaje autosupervisado en visión por computadora, y la conferencia alienta a los estudiantes a completar la tarea en el cuaderno High Crush.
sencillo para datos tabulares, pero complejo para datos como texto, audio o imágenes. Sin embargo, para las imágenes, hay extractores de características especializados disponibles en la visión por computadora clásica.
CS 198-126: Lección 5 - Introducción a la visión artificial
CS 198-126: Lección 5 - Introducción a la visión artificial
Esta conferencia sobre visión por computadora cubre varios temas, incluida la historia de la visión por computadora y su desarrollo a lo largo de los años. El instructor también explica el aprendizaje profundo y cómo mejora los métodos clásicos de visión por computadora. La conferencia profundiza en el concepto de convoluciones y cómo se utilizan como extractores de características en la visión por computadora, lo que lleva a la creación de redes neuronales convolucionales (CNN). Además, la conferencia analiza el papel de los campos receptivos e introduce capas de agrupación como un método para aumentar el campo receptivo de las CNN. En general, la conferencia proporciona una descripción general de la visión artificial como campo y las técnicas utilizadas para extraer información de las imágenes. En la segunda parte de la lección, se analizan varias técnicas para preservar el tamaño de una imagen durante las circunvoluciones, incluido el relleno y el mismo relleno. También se cubre el concepto de zancada en capas convolucionales, lo que demuestra cómo puede imitar el efecto de una capa de agrupación. Se explica la anatomía de una CNN y sus hiperparámetros, incluido el tamaño del núcleo, la zancada, el relleno y las capas de agrupación, con énfasis en cómo una capa convolucional actúa como un extractor de características que pasa bloques de características de baja dimensión a una capa completamente conectada. red para la clasificación. Las conferencias también cubren la arquitectura de la red LeNet para clasificar dígitos escritos a mano y la importancia de normalizar los datos de imágenes antes de pasarlos a través de una red neuronal. Finalmente, el aumento de datos se analiza como una técnica para crear datos de entrenamiento adicionales y se enfatiza la importancia de los puntos de control del modelo mientras se entrena.
CS 198-126: Clase 6 - Arquitecturas avanzadas de visión por computadora
CS 198-126: Clase 6 - Arquitecturas avanzadas de visión por computadora
Esta lección sobre arquitecturas avanzadas de visión artificial se centra en las redes neuronales convolucionales (CNN) y sus diversas técnicas. El disertante explica la arquitectura de AlexNet y VGG antes de profundizar en técnicas avanzadas como residuales para mantener valores residuales hacia atrás para una mayor precisión y arquitecturas más simples. Se discute el uso de cuellos de botella y convoluciones uno por uno, así como la importancia de poder aprender la identidad en arquitecturas de visión por computadora. La conferencia también cubre los problemas de los gradientes que desaparecen en las redes neuronales y cómo se pueden aliviar con la normalización por lotes y las redes residuales. Se explican en profundidad técnicas como la agrupación de promedio global y la convolución separable en profundidad, seguidas de una discusión sobre la arquitectura de la red móvil y sus beneficios.
Además, el disertante examina las arquitecturas avanzadas de visión por computadora y se enfoca en optimizar los modelos de redes neuronales convolucionales mediante el uso de convoluciones locales escalonadas y convoluciones uno por uno. Él enfatiza la importancia de comprender estas optimizaciones y los problemas que pueden surgir con ciertas optimizaciones para construir redes futuras de manera eficiente. La conferencia concluye con una discusión sobre la compensación entre precisión, rendimiento y tamaño del modelo, destacada por la comparación del modelo de red eficiente con otras redes. Se informa a los estudiantes sobre un próximo examen y una tarea para el hogar que vence el viernes siguiente.
CS 198-126: Clase 7 - Detección de objetos
CS 198-126: Clase 7 - Detección de objetos
La conferencia analiza la detección de objetos, agregando específicamente la localización a una CNN de clasificación simple, el método IOU para la detección de objetos, el sistema R-CNN y la optimización de los algoritmos de detección de objetos para minimizar el tiempo de procesamiento con YOLO. El video explica YOLO cortando una imagen y analiza los desafíos con la detección de objetos de YOLO, incluido el uso de cuadros de anclaje para eliminar la ambigüedad. Finalmente, se explora la arquitectura YOLO, que es una red neuronal completamente convolucional para la detección de objetos, y se presenta como una pregunta de investigación en curso el almacenamiento de una gran cantidad de clases para su clasificación. El orador recomienda leer "The Yellow Paper" mientras desaconseja a RCNN debido a la imposibilidad de leer.
CS 198-126: Clase 8 - Segmentación semántica
CS 198-126: Clase 8 - Segmentación semántica
La conferencia trata sobre la segmentación de imágenes, incluida la segmentación semántica y la segmentación de instancias. El objetivo principal de la segmentación es detectar todos los objetos en una imagen y separarlos. El disertante explica cómo se puede usar una red neuronal convolucional (CNN) para la segmentación semántica y cómo la reducción de muestreo puede ayudar con imágenes de resolución completa costosas desde el punto de vista computacional. También se analizan diferentes enfoques para transformar un volumen pequeño de nuevo en un tamaño de imagen. La conferencia presenta U-Net, un modelo para la segmentación semántica que combina mejoras anteriores con conexiones de omisión, y explica cómo se puede expandir a la segmentación de instancias utilizando el enfoque Mask R-CNN. Se demuestra un modelo de segmentación semántica previamente entrenado y el orador habla sobre la capacitación previa y las próximas tareas del curso.
CS 198-126: Lección 9 - Codificadores automáticos, VAE, modelado generativo
CS 198-126: Lección 9 - Codificadores automáticos, VAE, modelado generativo
En esta lección, se presenta el concepto de modelado generativo, que implica el uso del aprendizaje automático para crear nuevas imágenes basadas en un conjunto de datos. Se explican los codificadores automáticos, un tipo de red neuronal utilizada para el aprendizaje de funciones, centrándose en su estructura y cómo pueden aprender las funciones de los datos de entrada a través de la compresión y la reconstrucción. La conferencia también cubre los codificadores automáticos variacionales y sus beneficios, así como el uso de espacios latentes estructurados en codificadores automáticos para interpolar entre imágenes. Se analiza la importancia de la cuantificación vectorial para trabajar con datos discretos y se explica la función de pérdida para un codificador automático variacional, que incluye una pérdida de reconstrucción y una pérdida de compromiso para evitar la codificación de los datos de entrada. La conferencia termina con una recapitulación de los temas tratados.
CS 198-126: Clase 10 - GAN
CS 198-126: Clase 10 - GAN
La conferencia sobre GAN presenta el concepto de dos redes, el discriminador y el generador, que compiten entre sí en una configuración similar a la teoría de juegos. La entrada del generador es un ruido aleatorio, al que asigna significado para generar imágenes que parecen reales, y el trabajo del discriminador es juzgar si la imagen es real o falsa. Las GAN utilizan una función de pérdida que corresponde a la pérdida de entropía cruzada negativa, en la que el generador desea minimizarla y el discriminador desea maximizarla. La función de valor representa qué tan bien está funcionando el generador y debe ser maximizada por el discriminador al clasificar correctamente los datos falsos y reales. La conferencia también cubre problemas con el entrenamiento de GAN y la pérdida de no saturación que permite que el generador tenga más capacidad para cambiar.
CS 198-126: Clase 11 - GAN avanzadas
CS 198-126: Clase 11 - GAN avanzadas
Esta conferencia sobre GAN avanzadas cubre varias técnicas para mejorar la estabilidad y la calidad de los modelos GAN, incluido el muestreo ascendente bilineal, la convolución transpuesta, las GAN condicionales, StyleGAN y CycleGAN. La conferencia también analiza el uso de ruido aleatorio controlado, la normalización de instancias adaptativas y el procesamiento de videos en GAN. Para lograr una mejor estabilidad y resultados, el disertante recomienda usar tamaños de lote más grandes y truncar el rango de ruido aleatorio durante la prueba, al tiempo que advierte contra el nerfeo excesivo del discriminador. Además, se sugiere comenzar con una amplia distribución de diferentes tamaños de espacio latente para generar una variedad de imágenes. Finalmente, la conferencia toca el Big Gan, que ayuda a generar GAN a escalas muy grandes.
CS 198-126: Clase 12 - Modelos de difusión
CS 198-126: Clase 12 - Modelos de difusión
En esta conferencia sobre modelos de difusión, el orador analiza la intuición detrás de los modelos de difusión: predecir el ruido agregado a una imagen y eliminarlo para obtener la imagen original. La conferencia cubre el proceso de capacitación, la arquitectura mejorada y ejemplos de modelos de difusión en la generación de imágenes y videos. Además, la conferencia profundiza en los modelos de difusión latente, que comprimen el modelo en un espacio latente para ejecutar la difusión en la parte semántica de la imagen. El orador también brinda una descripción general de los modelos relacionados, como Dolly Q, el modelo Imagine de Google y Make a Video de Facebook, y su capacidad para generar modelos 3D utilizando texto.