Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Lección 9 Aprendizaje profundo 2: modelos generativos, GAN, codificadores automáticos variacionales (VAEs) (MLVU2019)
9 Aprendizaje profundo 2: modelos generativos, GAN, codificadores automáticos variacionales (VAEs) (MLVU2019)
El video cubre varios temas relacionados con el aprendizaje profundo, incluidos datos divididos para proyectos de aprendizaje profundo, transferencia de aprendizaje y un enfoque en modelos generativos. El disertante explora el concepto de usar redes neuronales para generar resultados aleatorios y distribuciones de probabilidad, explicando diferentes métodos de entrenamiento de generadores como redes adversarias generativas y codificadores automáticos. También profundizan en la importancia de las GAN, las GAN condicionales, la esteganografía y los codificadores automáticos en diversas aplicaciones de aprendizaje automático, como la manipulación de datos y la reducción de la dimensionalidad. El orador analiza la manipulación de datos en el espacio latente para manipulaciones de datos de alto nivel sin muchos datos etiquetados y la necesidad de un enfoque alternativo como codificadores automáticos variacionales.
Esta segunda parte del video explora los codificadores automáticos variacionales (VAEs), un tipo de modelo generativo destinado a abordar el problema del colapso de modo que a menudo se ve con otros modelos. Se utilizan dos redes neuronales para codificar la entrada en el espacio latente y decodificarla nuevamente en el espacio de entrada, lo que permite la optimización tanto de la codificación como de la decodificación. El orador descompone la función de pérdida en un término de divergencia KL y un término de probabilidad logarítmica esperada, que se puede utilizar para optimizar la red. Se explican los desafíos de maximizar una expectativa en VAE y se analiza el truco de la reparametrización como una forma de superar este problema. El orador compara VAE con otras técnicas como GAN y PCA, y concluye que, si bien los VAE son más potentes, también son más difíciles de entrenar.
Clase 10 Modelos de árbol y conjuntos: árboles de decisión, AdaBoost, aumento de gradiente (MLVU2019)
10 modelos de árbol y conjuntos: árboles de decisión, AdaBoost, aumento de gradiente (MLVU2019)
Esta primera parte del video presenta los árboles de decisión, un popular modelo de aprendizaje automático que se utiliza para la clasificación y la regresión, que funcionan segmentando el espacio de la instancia y eligiendo una clase para cada segmento. El video también analiza cómo se pueden entrenar los árboles de decisión mediante la obtención de información y cómo la poda puede ayudar a mitigar el sobreajuste. El orador enfatiza la importancia de dividir los datos en conjuntos de entrenamiento, validación y prueba para garantizar la equidad entre los modelos. Además, el video analiza el aprendizaje conjunto, donde se entrenan y combinan múltiples árboles de decisión u otros modelos para abordar problemas como la alta varianza y la inestabilidad. El impulso también se presenta como una técnica de conjunto de modelos, que implica clasificar clasificadores de forma secuencial y volver a ponderar los datos para mejorar el conjunto. Finalmente, se explica el algoritmo Adaboost, que selecciona clasificadores que minimizan una función de pérdida para mejorar el conjunto.
Esta segunda parte del video cubre varios modelos y conjuntos de árboles, incluidos AdaBoost y el aumento de gradiente. AdaBoost es un método de impulso popular para modelos de clasificación que pondera instancias de datos en función del rendimiento del clasificador. El aumento de gradiente implica inicializar un modelo con una función constante, calcular los residuos, ajustar un nuevo modelo a los residuos etiquetados y agregarlo al conjunto. El orador explica las diferencias entre el aumento de gradiente y AdaBoost y señala que los conjuntos no se usan mucho en la investigación, ya que pueden confundir los resultados. Además, el embolsado reduce la varianza y el impulso reduce el sesgo.
Lección 11 Datos secuenciales: modelos de Markov, incrustaciones de palabras y LSTM
11 Datos secuenciales: modelos de Markov, incrustaciones de palabras y LSTM
En este video, el orador analiza los diferentes tipos de datos secuenciales que se encuentran en el aprendizaje automático, como los datos numéricos o simbólicos organizados en el tiempo o en secuencia. Presentan modelos de Markov, incrustaciones de palabras y LSTM como modelos para abordar estos problemas. El video describe el proceso de entrenamiento y predicción con datos secuenciales, incluido el concepto de validación y entrenamiento en datos que ocurrieron antes de que se probara el objeto específico. Además, el ponente explica cómo modelar secuencias con redes neuronales, incluido cómo manejar secuencias de diferentes longitudes y modelado de tiempo, y el proceso de entrenamiento de una red neuronal recurrente utilizando retropropagación en el tiempo. Finalmente, el video cubre aspectos de clasificación de secuencias a etiquetas, que se pueden mejorar con modelos de Markov cuando las redes neuronales recurrentes olvidan las cosas rápidamente.
El video cubre una variedad de temas relacionados con el procesamiento secuencial de datos, incluidos los modelos de Markov y sus limitaciones, las redes de memoria a corto plazo (LSTM) y sus ventajas, el uso de LSTM para la generación de texto e imágenes, las técnicas de forzado del maestro y los subtítulos de imágenes. El orador proporciona explicaciones detalladas de la estructura LSTM y las diversas puertas que contiene, así como también cómo entrenar y muestrear estas redes para tareas como la generación de texto de Shakespeare y subtítulos de imágenes. También se analiza la importancia de usar capas incrustadas para mejorar los LSTM a nivel de palabra, junto con el espectro de métodos disponibles para el procesamiento de secuencias, desde modelos más simples hasta modelos más potentes como los LSTM.
12 modelos matriciales: sistemas de recomendación, PCA y convoluciones gráficas
12 modelos matriciales: sistemas de recomendación, PCA y convoluciones gráficas
En la primera parte del video, el orador analiza los modelos matriciales y sus aplicaciones en los sistemas de recomendación, que pueden usarse para recomendaciones de productos, noticias y redes sociales. Los sistemas de recomendación se basan en comentarios explícitos e implícitos, así como en información secundaria, y pueden manipularse para difundir información falsa si no se diseñan correctamente. La factorización de matrices es un método común para predecir calificaciones basadas en el comportamiento del usuario, con el problema de optimización de encontrar matrices U y M para hacer que UTM sea lo más cercano posible a R resuelto a través de métodos de error cuadrático y calculando la norma de Frobenius. El orador también analiza los métodos para optimizar este problema mediante el descenso de gradiente y explica la regla de actualización de gradiente para el filtrado colaborativo. Además, el orador cubre cinco formas de mejorar el modelo de factorización matricial, incluido el control del usuario y el sesgo de la película, el uso de me gusta implícitos y la incorporación de información del sitio. Por último, el orador analiza el poder de la factorización de matrices en el entorno clásico de aprendizaje automático, las extensiones de PCA en la factorización de matrices y la utilidad de los modelos gráficos para almacenar datos.
La segunda parte del video presenta varios modelos matriciales para sistemas de recomendación, incluidas convoluciones de gráficos para la clasificación de nodos y la predicción de enlaces. Las convoluciones de gráficos mezclan incrustaciones de nodos al multiplicar la matriz de adyacencia con las incrustaciones originales, pero este enfoque tiene limitaciones para representar gráficos sociales grandes. Los métodos de validación tradicionales no funcionan para los modelos de características mixtas que se usan en los sistemas de recomendación, por lo que se necesita un aprendizaje transductivo, en el que solo se retienen las etiquetas del conjunto de entrenamiento, pero no las características. Además, el modelado de datos de tiempo y calificaciones requiere tener en cuenta los datos de marca de tiempo y el aprendizaje transductivo. El video concluye con un resumen de la conferencia y una vista previa de la siguiente discusión sobre el aprendizaje por refuerzo.
13 Aprendizaje por refuerzo: Gradientes de políticas, Q Learning, AlphaGo, AlphaStar (MLVU2019)
13 Aprendizaje por refuerzo: Gradientes de políticas, Q Learning, AlphaGo, AlphaStar (MLVU2019)
El video proporciona una introducción al aprendizaje por refuerzo y sus componentes fundamentales, analizando ejemplos como el carro robótico de equilibrio de postes y el juego de tres en raya. El ponente profundiza en los desafíos del aprendizaje por refuerzo, incluidas las funciones no diferenciables, la demora en recibir recompensas y el problema de la asignación de créditos. El problema de la asignación de créditos se aborda a través de técnicas como búsqueda aleatoria, gradientes de políticas y Q-learning, donde el orador explica cada algoritmo, sus beneficios y sus limitaciones. El algoritmo Q-learning se analiza con mayor detalle, con una explicación de cómo funciona utilizando una gran tabla de números para representar los valores Q. La presentación concluye con una explicación de cómo Q-learning profundo y AlphaGo han revolucionado el campo del aprendizaje por refuerzo.
Segmentar imágenes y videos en Python usando Segment Anything Model (SAM) | YOLOv5 | YOLOv8 y SAM
Segmentar imágenes y videos en Python usando Segment Anything Model (SAM) | YOLOv5 | YOLOv8 y SAM
Este video presenta el Segment Anything Model (SAM), un modelo de IA que puede identificar y extraer objetos de imágenes y videos para diversas tareas. El SAM está entrenado en un enorme conjunto de datos de 11 000 millones de imágenes y 1 100 millones de máscaras y tiene un gran rendimiento en una variedad de tareas de segmentación. El video proporciona instrucciones paso a paso para usar SAM en un sistema local, incluido cómo instalar los paquetes necesarios, descargar puntos de control de modelos previamente entrenados y realizar segmentaciones en imágenes y videos usando Python. El video también muestra cómo usar SAM con YOLOv5 o YOLOv8 para crear cuadros delimitadores alrededor de objetos de interés. El SAM también tiene aplicaciones potenciales en la animación.
Curso YOLOv8 - Aplicación web de detección de objetos en tiempo real usando YOLOv8 y Flask - Cámara web/cámara IP
Curso YOLOv8 - Aplicación web de detección de objetos en tiempo real usando YOLOv8 y Flask - Cámara web/cámara IP
El curso YOLOv8 es una serie de tutoriales que guían a los espectadores a través de la creación de una aplicación web de detección de objetos en tiempo real utilizando YOLOv8 y Flask. Los tutoriales cubren la instalación del software necesario, como Python y PyCharm, la creación de un entorno virtual, la instalación de paquetes y la prueba de detección de objetos en imágenes y cámaras web. Los tutoriales también cubren la conversión de salida de tensores a enteros, el etiquetado de los objetos detectados y el almacenamiento del video de salida con las detecciones. A los espectadores se les muestra cómo integrar YOLOv8 con Flask y cómo ejecutar la aplicación web de detección de objetos en tiempo real tanto en videos como en transmisiones de cámaras web en vivo.
En la segunda parte del video, el presentador demuestra cómo crear una aplicación web usando Flask y YOLOv8 para la detección de objetos en transmisiones y videos de cámaras web en vivo, además de mostrar el entrenamiento y la inferencia de un modelo personalizado para la detección de equipos de protección personal. La aplicación web tiene una página de inicio, una página de video y una página de transmisión de cámara web en vivo, con estilo CSS para cada página, y el presentador recorre los archivos HTML y Flask utilizados para el proyecto. El video demuestra el proceso de importar un conjunto de datos, prepararlo para entrenar el modelo YOLOv8, entrenar el modelo, analizar los resultados y probar el modelo en videos de demostración. En general, el video proporciona un tutorial completo para desarrollar y probar una aplicación web de detección de objetos en tiempo real.
El presentador también analiza los cambios realizados en una aplicación web que utiliza el modelo YOLOv8 entrenado en un conjunto de datos de equipo de protección personal (PPE). Los cambios incluyen la modificación del código para asignar diferentes colores a los cuadros delimitadores y los rectángulos de etiquetas en función de los nombres de las clases y establecer una puntuación de confianza superior a 0,5 para que aparezcan los cuadros delimitadores y los rectángulos. El presentador demuestra la detección exitosa de elementos de PPE en un video y una transmisión de cámara web en vivo, lo que marca el final del curso.
Seguimiento de objetos en tiempo real con YOLOv8 y DeepSORT | Conteo de vehículos (vehículos que entran y salen)
Seguimiento de objetos en tiempo real con YOLOv8 y DeepSORT | Conteo de vehículos (vehículos que entran y salen)
El video demuestra la implementación del seguimiento de objetos en tiempo real utilizando YOLOv8 y DeepSORT para contar la cantidad de vehículos que ingresan y salen de una carretera. El presentador brinda una guía paso a paso, comenzando con la clonación del repositorio de GitHub, la instalación de los paquetes necesarios, la configuración del directorio y el examen del script de seguimiento. El tutorial cubre el uso de colas dobles, preprocesamiento, regresión no máxima y función Deep SORT para generar ID únicos y determinar nombres de clase. El presentador también explica cómo agregar una función de conteo de vehículos usando una línea en la pantalla, y cada vez que el rastro de un vehículo se cruza con esta línea, el conteo aumenta. La interfaz de usuario se configura mediante una función específica. Finalmente, el presentador muestra cómo la salida actual del script puede detectar intersecciones con la línea y contar los vehículos que entran y salen del área.
Seguimiento y segmentación de objetos en tiempo real con YOLOv8 | Conteo de Vehículos (Entradas y Salidas)
Seguimiento y segmentación de objetos en tiempo real con YOLOv8 | Conteo de Vehículos (Entradas y Salidas)
Este tutorial de vídeo se centra en la implementación de la segmentación y el seguimiento de objetos en tiempo real mediante YOLOv8 y el algoritmo de ordenación profunda. Específicamente, demuestra cómo contar y distinguir entre los diferentes subtipos de vehículos que ingresan y salen de un área determinada. El tutorial cubre varios aspectos, incluida la estimación de la velocidad, la medición de la dirección y la segmentación y el seguimiento precisos de cada vehículo con su ID y sus rutas. El presentador también brinda los pasos necesarios para implementar esto en varios IDE y ofrece el código final para sus seguidores de Patreon.
Seguimiento de objetos con YOLOv8: seguimiento de vehículos, conteo (entradas y salidas) y estimación de velocidad
Seguimiento de objetos con YOLOv8: seguimiento de vehículos, conteo (entradas y salidas) y estimación de velocidad
El tutorial en video describe cómo implementar el seguimiento de objetos, el conteo de vehículos y la estimación de velocidad usando YOLOv8 y DeepSORT. El presentador comparte un enlace al repositorio de GitHub que contiene el código y recorre el proceso de clonación del repositorio, descarga de archivos DeepSORT, importación de bibliotecas relevantes y definición de una lista DQ de datos para rastrear objetos. También explican cómo determinar la dirección del vehículo e incrementar el conteo en consecuencia. Además, el presentador muestra cómo estimar la velocidad de los vehículos mediante la implementación de la fórmula de la distancia euclidiana basada en las coordenadas X e Y de los objetos rastreados, y configura un espacio para la pantalla de conteo. En última instancia, la salida de la secuencia de comandos muestra la cantidad y la velocidad de los objetos, lo que indica que la implementación se ha realizado correctamente.