Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
MIT 6.S192 - Clase 19: Creación sencilla de contenido 3D con campos neuronales consistentes, Ajay Jain
MIT 6.S192 - Clase 19: Creación sencilla de contenido 3D con campos neuronales consistentes, Ajay Jain
En esta conferencia, Ajay Jain presenta su trabajo sobre representaciones de escenas neuronales, centrándose específicamente en el modelo Neural Radiance Fields, que utiliza vistas de entrada escasamente muestreadas para construir una representación de la geometría y el color 3D de una escena. Jain analiza los desafíos de adaptar un campo de radiación neuronal a una sola escena, así como las formas de mejorar la eficiencia de los datos del proceso de capacitación al agregar pérdida fotométrica y pérdida de consistencia semántica. También habla sobre el uso de CLIP para eliminar artefactos en NeRF y generar objetos 3D a partir de subtítulos en el proyecto Dream Fields. Otros temas incluyen la creación de objetos de primer plano consistentes en escenas, la adquisición de conjuntos de datos de objetos 3D subtitulados, la reducción de los costos de representación y la optimización del rendimiento del sistema.
MIT 6.S192 - Conferencia 20: Arte generativo usando difusión, Prafulla Dhariwal
MIT 6.S192 - Conferencia 20: Arte generativo usando difusión, Prafulla Dhariwal
En esta conferencia, Prafulla Dhariwal de OpenAI analiza el progreso del modelado generativo para tareas creativas difíciles, en particular con modelos de difusión. El proceso implica comenzar con una imagen y agregarle lentamente ruido gaussiano, luego invertir el proceso tomando algunos daños por ruido y eliminando el ruido para crear imágenes con menos ruido. El modelo generativo se obtiene entrenando un modelo para invertir ruido como este, produciendo una imagen a partir de ruido puro en el momento de la prueba ejecutando el modelo paso a paso hacia atrás. La predicción inversa del proceso también parece una distribución gaussiana cuando la cantidad de ruido añadido es muy pequeña, que se utiliza para predecir la media y la varianza del modelo. Dhariwal también analiza cómo usar modelos de difusión para pintar y abordar los peligros potenciales del contenido generado por IA.
MIT 6.S192 - Conferencia 21: Entre el arte, la mente y las máquinas, Sarah Schwettmann
MIT 6.S192 - Conferencia 21: Entre el arte, la mente y las máquinas, Sarah Schwettmann
En esta conferencia, Sarah Schwettmann analiza la intersección entre el arte, la mente y las máquinas. Ella profundiza en la percepción visual y el desafío de experimentar un rico mundo en 3D a través de un lienzo en 2D, lo que requiere que el cerebro resuelva un problema inverso y construya la mejor explicación de la información entrante. Schwettmann también habla sobre proyectos que involucran modelos generativos profundos entrenados en obras de arte, como el uso de inversión GAN para incrustar imágenes de la colección Met en el espacio de características de un modelo básico para comprender la estructura de la creatividad humana y la creación de un vocabulario de concepto visual para un arbitrario. GAN el espacio latente muestreando el espacio de transformaciones destacadas o posibles y usando esas direcciones de muestra como una pantalla para proyectar juicios perceptuales humanos. La interacción humana y el etiquetado son importantes en este proceso, y el vocabulario resultante puede aplicarse a otros modelos y usarse para manipular imágenes de varias maneras. A pesar del ruido en los datos debido a la elección variable de palabras, su método de destilación de vocabularios utilizando cualquier tamaño de biblioteca de anotaciones se puede ampliar y puede implicar entrenar a un subtitulador para etiquetar direcciones automáticamente.
Sarah Schwettmann también analiza varias formas de explorar y asignar significado a las direcciones dentro de modelos entrenados en la creación humana. Ella presenta un experimento que captura y aprende direcciones visuales sin lenguaje, lo que permite a los humanos definir la transformación que desean de manera puramente visual al interactuar con un pequeño lote de imágenes muestreadas del espacio latente o del espacio de funciones. Este método es útil para etiquetar y comprender imágenes con características matizadas y difíciles de explicar. Además, el espacio latente puede convertirse en una pantalla en la que se pueden proyectar las experiencias humanas, lo que permite a los investigadores comprender mejor aspectos de la percepción humana que de otro modo serían difíciles de formalizar.
MIT 6.S192 - Clase 22: Modelos probabilísticos de difusión, Jascha Sohl-Dickstein
MIT 6.S192 - Clase 22: Modelos probabilísticos de difusión, Jascha Sohl-Dickstein
En esta conferencia, Jascha Sohl-Dickstein analiza los modelos de difusión, que se utilizan para aprender tareas que están separadas de los datos de entrenamiento. Los modelos son probabilísticos y se pueden utilizar para codificar o decodificar datos. El proceso de difusión directa es un proceso fijo y el proceso inverso también es cierto.
Esta lección analiza los modelos probabilísticos de difusión y explica que, si bien existe una correspondencia uno a uno entre el espacio latente y el espacio de la imagen, es posible trabajar con múltiples clases dentro del mismo modelo. Luego, la conferencia continúa explicando cómo usar estos modelos para generar nuevas imágenes.
GenRep: modelos generativos como fuente de datos para el aprendizaje de representación multivista en ICLR2022
Código: https://github.com/ali-design/GenRep
GenRep: modelos generativos como fuente de datos para el aprendizaje de representación multivista en ICLR2022
Los presentadores discuten el concepto de zoológicos modelo, donde los modelos generativos previamente entrenados se hacen accesibles sin acceso a los datos subyacentes. Al utilizar el aprendizaje contrastivo, los investigadores pueden crear diferentes vistas del mismo objeto, que caerán en el mismo vecindario dentro del espacio de representación. Descubrieron que las transformaciones gaussianas simples en el espacio latente eran efectivas y que generar más muestras de IGM conduce a mejores representaciones. Los IGM expertos, como StyleGAN Car en dominios específicos, pueden superar las representaciones aprendidas de datos reales. El sitio web del proyecto y el código de Github están disponibles para una mayor exploración.
Una entrevista con Gilbert Strang sobre la enseñanza de métodos matriciales en análisis de datos, procesamiento de señales y aprendizaje automático
Una entrevista con Gilbert Strang sobre la enseñanza de métodos matriciales en análisis de datos, procesamiento de señales y aprendizaje automático
Gilbert Strang, un matemático de renombre, enfatiza la importancia de los proyectos sobre los exámenes en la enseñanza del aprendizaje profundo, una parte crucial del aprendizaje automático que se basa en gran medida en el álgebra lineal. Él cree que los proyectos les permiten a los estudiantes comprender cómo aplicar el aprendizaje profundo en el mundo real y son una forma más efectiva de aprender. Strang también enfatiza que la enseñanza se trata de aprender y trabajar con los estudiantes en lugar de solo calificarlos. Aconseja a los nuevos profesores que usen tiza grande y que se tomen su tiempo para permanecer en la clase a fin de tener éxito en la enseñanza.
MIT 18.065. Métodos matriciales en análisis de datos, procesamiento de señales y aprendizaje automático
Introducción al curso por el profesor Strang
El profesor Strang presenta su nuevo curso 18.065, que cubre cuatro temas clave: álgebra lineal, aprendizaje profundo, optimización y estadística. El curso se centrará en las mejores matrices, matrices simétricas y ortogonales y su relación con el álgebra lineal. También cubrirá el aprendizaje profundo, que es fundamental para el álgebra lineal e implica cálculos complejos que pueden requerir el uso de GPU durante días o incluso semanas. El curso abordará la estadística, que juega un papel en mantener los números en la función de aprendizaje dentro de un buen rango, y la optimización y la teoría de la probabilidad, que son importantes en el aprendizaje de algoritmos y ecuaciones diferenciales, que juegan un papel clave en las aplicaciones de ciencia e ingeniería. . El curso incluye ejercicios, problemas y discusiones para proporcionar una presentación completa del tema.
Lección 1: El espacio columna de A contiene todos los vectores Ax
Lección 1: El espacio columna de A contiene todos los vectores Ax
Esta lección se enfoca en el concepto del espacio columna de una matriz, que es una colección de todos los vectores que se pueden obtener al multiplicar la matriz con todos los vectores posibles. El disertante explica que el espacio de la columna depende de la matriz y podría ser todo el espacio de R3 o un subconjunto más pequeño de este. El profesor analiza además los conceptos de espacio de fila, rango de columna y rango de fila, así como la relación entre estos rangos. La conferencia también aborda brevemente el primer gran teorema del álgebra lineal, que establece que el rango de la columna de una matriz es igual al rango de la fila de la matriz. Además, el profesor analiza los métodos para la multiplicación de matrices y el número de multiplicaciones necesarias para el proceso. En general, la conferencia ofrece una introducción al álgebra lineal y su importancia en el aprendizaje de los datos.
Lección 2: Multiplicación y Factorización de Matrices
Lección 2: Multiplicación y Factorización de Matrices
Esta lección cubre los conceptos básicos de la multiplicación y factorización de matrices. El autor explica cómo las matrices tienen dimensiones en los espacios de filas y columnas, y cómo el espacio de filas tiene dimensión R mientras que el espacio nulo tiene dimensión M menos R. La lección también analiza la relación entre las filas y las soluciones de una ecuación, así como la ortogonalidad de los vectores en el espacio bidimensional. Finalmente, el autor explica el teorema fundamental del álgebra lineal, que establece que las dimensiones de un espacio salen bien cuando se resuelve la geometría.
Lección 3. Columnas ortonormales en Q Da Q'Q = I
3. Columnas ortonormales en Q Da Q'Q = I
Esta sección del video explica el concepto de matrices ortogonales y su significado en el álgebra lineal numérica. El hablante prueba que la longitud al cuadrado de QX debe ser la misma que X transpone QX usando el hecho de que Q transpone Q es igual a la identidad. El video también analiza la construcción de matrices ortogonales utilizando varios métodos, como las matrices de Gordan y las matrices de Houseer. También se explica la importancia y la construcción de las wavelets, junto con el concepto de usar vectores propios ortogonales en el procesamiento de señales. Finalmente, el disertante habla sobre cómo probar vectores ortogonales con números complejos y menciona que las matrices ortogonales tienen autovectores ortogonales con diferentes autovalores.