Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Lección 3: Aprendizaje profundo práctico para codificadores 2022
Lección 3: Aprendizaje profundo práctico para codificadores 2022
Este video proporciona una introducción al aprendizaje profundo práctico para programadores. Cubre los conceptos básicos de la multiplicación de matrices y los gradientes, y demuestra cómo usar un modelo de aprendizaje profundo para predecir la probabilidad de razas de perros y gatos. Este video proporciona una breve introducción al aprendizaje profundo para codificadores, incluida una discusión sobre cómo la multiplicación de matrices puede llevar mucho tiempo para tener una idea intuitiva. La próxima lección se centrará en el procesamiento del lenguaje natural, que se trata de tomar datos de texto y hacer predicciones basadas en su prosa.
Lección 4: Aprendizaje profundo práctico para codificadores 2022
Lección 4: Aprendizaje profundo práctico para codificadores 2022
Este video explica cómo construir un modelo de aprendizaje profundo para la competencia Coders 2022. El autor cubre cómo crear un conjunto de validación, cómo usar los datos de la competencia para probar el rendimiento de su modelo y cómo evitar el sobreajuste en la configuración del mundo real. En este video, Jeremy explica cómo usar el coeficiente de correlación de Pearson para medir la relación entre dos variables y cómo usar Pytorch para entrenar un modelo que se comporta como un alumno de fast.ai. También analiza un problema con las predicciones generadas por las técnicas de PNL y cómo se puede resolver utilizando una función sigmoidea.
Lección 5: Aprendizaje profundo práctico para codificadores 2022
Lección 5: Aprendizaje profundo práctico para codificadores 2022
Este video proporciona un tutorial sobre cómo construir y entrenar un modelo lineal usando aprendizaje profundo. El video comienza discutiendo las operaciones en el lugar, que cambian los valores de las variables dentro de una función dada. A continuación, el video muestra cómo calcular la pérdida para un modelo lineal utilizando un descenso de gradiente hacia atrás. Finalmente, el video proporciona una función que inicializa y actualiza los coeficientes dentro de un modelo lineal. El video concluye demostrando cómo ejecutar la función e imprimir la pérdida. Este video explica cómo calcular la mejor división binaria para una columna dada en un conjunto de datos. Esto es particularmente útil para las competencias de aprendizaje automático, ya que proporciona un modelo de referencia para la comparación.
Lección 6: Aprendizaje profundo práctico para codificadores 2022
Lección 6: Aprendizaje profundo práctico para codificadores 2022
Este video de YouTube proporciona una guía sobre cómo comenzar con el aprendizaje profundo para programadores. El enfoque principal está en el aprendizaje profundo práctico para codificadores, con consejos sobre cómo configurar una competencia, obtener un conjunto de validación e iterar rápidamente. El video también analiza la importancia de la importancia de las características y los gráficos de dependencia parcial, y cómo crearlos utilizando un modelo de aprendizaje automático.
Este video proporciona una descripción general de cómo usar el aprendizaje profundo para mejorar la precisión de los proyectos de codificación. Explica que los conjuntos de datos a menudo pueden tener una amplia variedad de tamaños de entrada y relaciones de aspecto, lo que dificulta la creación de representaciones precisas con rectángulos. Sugiere usar representaciones cuadradas en su lugar, que se ha encontrado que funcionan bien en la mayoría de los casos.
Lección 7: Aprendizaje profundo práctico para codificadores 2022
Lección 7: Aprendizaje profundo práctico para codificadores 2022
En la Lección 7 de Aprendizaje profundo práctico para codificadores 2022, Jeremy explica cómo escalar modelos de aprendizaje profundo al reducir la memoria necesaria para modelos más grandes. Demuestra un truco llamado acumulación de gradiente, que consiste en no actualizar los pesos en cada ciclo de cada mini lote, sino hacerlo cada pocas veces, lo que permite usar tamaños de lote más grandes sin necesidad de GPU más grandes. Además, Jeremy analiza la validación cruzada de k-fold y la creación de un modelo de aprendizaje profundo que predice tanto el tipo de arroz como la enfermedad presente en la imagen utilizando una función de pérdida diferente llamada pérdida de entropía cruzada. En general, el video proporciona consejos y trucos prácticos para construir modelos de aprendizaje profundo más complejos.
En este video, el orador explora la creación de sistemas de recomendación utilizando filtrado colaborativo y producto punto en PyTorch. Describe la predicción de multiplicación de matrices de clasificaciones de películas y calcula la función de pérdida, una medida de qué tan bien coinciden las clasificaciones predichas con las clasificaciones reales. Introduce el concepto de incrustaciones, que permite acelerar los multiplicadores de matrices con variables ficticias. Luego, el orador explica cómo agregar sesgo y regularización a la matriz para diferenciar las calificaciones de los usuarios y evitar el sobreajuste. Finalmente, se discute el tema de la búsqueda de hiperparámetros, enfatizando la necesidad de datos granulares para recomendaciones precisas. En general, el video desglosa conceptos complejos de aprendizaje profundo para crear una comprensión práctica para los espectadores.
Lección 8 - Aprendizaje profundo práctico para codificadores 2022
Lección 8 - Aprendizaje profundo práctico para codificadores 2022
Este video cubre los conceptos básicos del aprendizaje profundo para programadores. Explica cómo crear parámetros para modelos de aprendizaje profundo usando la biblioteca Pytorch, cómo usar PCA para reducir la cantidad de factores en un conjunto de datos y cómo usar una red neuronal para predecir el precio de venta de subasta de equipos industriales pesados.
Este video de YouTube proporciona una descripción general del aprendizaje profundo para programadores. El ponente explica que la tenacidad es importante en este campo, y aconseja que si quieres tener éxito, debes seguir adelante hasta que algo esté terminado. También recomienda ayudar a otros principiantes en forums.fast.ai.
Lección 9: Fundamentos de aprendizaje profundo para difusión estable, 2022
Lección 9: Fundamentos de aprendizaje profundo para difusión estable, 2022
Este video proporciona una introducción al aprendizaje profundo y analiza cómo funcionan los modelos de difusión estables y cómo se pueden aplicar para generar nuevas imágenes. El video incluye una demostración de cómo usar la biblioteca Difusores para crear imágenes que parecen dígitos escritos a mano. También introduce el concepto de difusión estable, que es un método para entrenar Redes Neuronales. La idea básica es modificar las entradas a una red neuronal para cambiar la salida. En este video, el instructor explica cómo crear una red neuronal que podrá identificar correctamente los dígitos escritos a mano a partir de entradas ruidosas. Este video analiza cómo entrenar un modelo de aprendizaje automático mediante un algoritmo de aprendizaje profundo. El modelo se inicializa con un conjunto de variables latentes (que representan los datos) y utiliza un decodificador para comprender los datos sin procesar. A continuación, se utiliza un codificador de texto para crear subtítulos legibles por máquina para los datos. Finalmente, se entrena una U-Net usando los subtítulos como entrada, y los gradientes (la "función de puntaje") se usan para ajustar los niveles de ruido en los datos de entrenamiento.
Desafíos en el aprendizaje profundo (Dr. Razvan Pascanu - DeepMind)
Desafíos en el aprendizaje profundo (Dr. Razvan Pascanu - DeepMind)
El Dr. Razvan Pascanu de DeepMind analiza varios desafíos en el aprendizaje profundo en este video. Destaca la importancia de la adaptabilidad y el cambio de enfoque de las métricas de rendimiento, y sugiere que las limitaciones de los recursos computacionales en los sistemas de aprendizaje profundo en realidad pueden ser beneficiosas. Además, explora los desafíos del aprendizaje continuo y el subcampo del aprendizaje automático relacionado con esto, incluido el impacto del tamaño y la arquitectura en el rendimiento de los modelos de aprendizaje profundo. El Dr. Pascanu también analiza el papel del descenso de gradiente estocástico, la importancia de los sesgos explícitos y el concepto de entrenamiento previo y la adición de sesgos inductivos en los modelos de aprendizaje profundo.
El Dr. Razvan Pascanu de DeepMind analiza el problema del olvido en el aprendizaje profundo y cómo los modelos pueden recuperarse. Si bien aún puede quedar algo de conocimiento después de que ocurre el olvido, es difícil determinar cuánta información se pierde. El Dr. Pascanu menciona cómo los artículos recientes sobre el olvido dirigido se han centrado en la privacidad de los datos, pero se necesita más investigación y enfoque en esta área.
CS 198-126: Modern Computer Vision Otoño de 2022 (Universidad de California, Berkeley) Clase 1: Introducción al aprendizaje automático
CS 198-126: Clase 1: Introducción al aprendizaje automático
En esta lección sobre aprendizaje automático, el instructor cubre una amplia gama de temas, incluida una introducción al curso, una descripción general del aprendizaje automático, diferentes tipos de aprendizaje automático, canalización de aprendizaje automático, etiquetado de datos y función de pérdida. También se analiza el concepto de compensación de sesgo-varianza, sobreajuste y desajuste. El instructor enfatiza la importancia de elegir la función correcta durante el proceso de aprendizaje automático y el papel de los hiperparámetros en el proceso. El objetivo general del aprendizaje automático es predecir con precisión nuevos datos, no solo ajustar los datos de entrenamiento. El disertante alienta a los estudiantes a asistir a la clase y hacer un esfuerzo por aprender sobre el aprendizaje automático y el aprendizaje profundo.
CS 198-126: Clase 2: Introducción al aprendizaje profundo, Parte 1
CS 198-126: Clase 2: Introducción al aprendizaje profundo, Parte 1
En esta conferencia de YouTube sobre Introducción al aprendizaje profundo, el instructor analiza los conceptos básicos de los modelos de aprendizaje profundo y cómo entrenarlos mediante el descenso de gradiente, cubriendo diferentes componentes básicos para las redes neuronales y por qué el aprendizaje profundo es una tecnología tan predominante. La conferencia presenta el perceptrón y el apilamiento de múltiples perceptrones para crear una red neuronal más compleja y sofisticada, y explica cómo calcular la salida mediante la multiplicación de matrices y una adición final, con la capa intermedia utilizando una función de activación de ReLU. El ponente aborda el uso de la función Softmax y la función de activación ReLU, utilizando funciones de pérdida como métricas para evaluar el rendimiento del modelo y el concepto de optimización del descenso de gradiente. Finalmente, el instructor analiza la idea del aprendizaje profundo y cómo una gran red neuronal provoca una baja pérdida a pesar de su capacidad para memorizar los datos. Además, el disertante introduce el concepto de ajuste de hiperparámetros en redes neuronales para mejorar su rendimiento con conjuntos de datos específicos. Señala que no existen valores universales para los hiperparámetros y sugiere explorar diferentes opciones, como números de capa y funciones de activación. Debido a limitaciones de tiempo, la conferencia finaliza abruptamente, pero el disertante les asegura a los estudiantes que el próximo cuestionario no será demasiado difícil y estará accesible en la plataforma GreatScope.