Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Aprendizaje profundo del MIT en ciencias de la vida: primavera de 2021
Aprendizaje profundo del MIT en ciencias de la vida: primavera de 2021
El curso "Aprendizaje profundo en ciencias de la vida" aplica el aprendizaje automático a varias tareas de ciencias de la vida y lo imparte un investigador en aprendizaje automático y genómica con un personal docente de estudiantes de doctorado y estudiantes universitarios del MIT. El curso cubre los fundamentos del aprendizaje automático, los circuitos reguladores de genes, la variación en la enfermedad, las interacciones y el plegamiento de proteínas, y las imágenes usando TensorFlow a través de Python en una plataforma de Google Cloud. El curso constará de cuatro conjuntos de problemas, un cuestionario y un proyecto de equipo, con sesiones de tutoría intercaladas para ayudar a los estudiantes a diseñar sus propios proyectos. El instructor enfatiza la importancia de construir un equipo con habilidades e intereses complementarios y proporciona varios hitos y resultados a lo largo del período. El curso tiene como objetivo proporcionar experiencia del mundo real, incluida la redacción de propuestas de subvenciones y becas, revisión por pares, informes anuales y desarrollo de habilidades de comunicación y colaboración. El orador discute las diferencias entre la IA tradicional y el aprendizaje profundo, que construye una representación interna de una escena basada en estímulos observables, y enfatiza la importancia del aprendizaje profundo en las ciencias de la vida debido a la convergencia de datos de entrenamiento, poder de cómputo y nuevos algoritmos. .
El video es una conferencia introductoria sobre el aprendizaje profundo en las ciencias de la vida, que explica la importancia del aprendizaje automático y el aprendizaje profundo en la exploración de la complejidad del mundo. La charla se centra en el concepto de inferencia bayesiana y cómo juega un papel crucial en el aprendizaje automático clásico y profundo junto con las diferencias entre los enfoques de aprendizaje generativo y discriminativo. La conferencia también destaca el poder de las máquinas de vectores de soporte, el rendimiento de la clasificación y el álgebra lineal para comprender las redes en los sistemas biológicos. El orador señala que el curso cubrirá varios temas en aprendizaje profundo, incluida la regularización, evitar el sobreajuste y conjuntos de entrenamiento. La conferencia concluye abordando cuestiones relacionadas con la interpretabilidad de las neuronas artificiales y las redes profundas para futuras conferencias.
La historia interna del asombroso potencial de ChatGPT | Greg Brockman | TED
La historia interna del asombroso potencial de ChatGPT | Greg Brockman | TED
En esta sección del video, Greg Brockman analiza el papel de la IA en la mejora de la educación. Argumenta que los métodos de educación tradicionales a menudo son ineficientes e ineficaces, con estudiantes que luchan por retener el conocimiento y maestros que luchan por enseñar de una manera que involucre a todos los estudiantes. Brockman sugiere que la IA podría ayudar a resolver estos problemas al proporcionar experiencias de aprendizaje personalizadas para cada estudiante. Con herramientas de IA, es posible monitorear el progreso de los estudiantes en tiempo real, ajustando el plan de estudios a sus necesidades y preferencias. Esto podría conducir a experiencias de aprendizaje más atractivas y eficientes, lo que permitiría a los estudiantes retener más conocimientos y a los profesores concentrarse en tareas más importantes. Brockman también enfatiza la importancia de diseñar herramientas de inteligencia artificial teniendo en cuenta la privacidad, asegurando que los datos de los estudiantes estén protegidos y se usen solo con fines educativos.
Aprendizaje profundo del MIT en ciencias de la vida: primavera de 2021
Aprendizaje profundo del MIT en ciencias de la vida: primavera de 2021
El curso "Aprendizaje profundo en ciencias de la vida" aplica el aprendizaje automático a varias tareas de ciencias de la vida y lo imparte un investigador en aprendizaje automático y genómica con un personal docente de estudiantes de doctorado y estudiantes universitarios del MIT. El curso cubre los fundamentos del aprendizaje automático, los circuitos reguladores de genes, la variación en la enfermedad, las interacciones y el plegamiento de proteínas, y las imágenes usando TensorFlow a través de Python en una plataforma de Google Cloud. El curso constará de cuatro conjuntos de problemas, un cuestionario y un proyecto de equipo, con sesiones de tutoría intercaladas para ayudar a los estudiantes a diseñar sus propios proyectos. El instructor enfatiza la importancia de construir un equipo con habilidades e intereses complementarios y proporciona varios hitos y resultados a lo largo del período. El curso tiene como objetivo proporcionar experiencia del mundo real, incluida la redacción de propuestas de subvenciones y becas, revisión por pares, informes anuales y desarrollo de habilidades de comunicación y colaboración. El orador discute las diferencias entre la IA tradicional y el aprendizaje profundo, que construye una representación interna de una escena basada en estímulos observables, y enfatiza la importancia del aprendizaje profundo en las ciencias de la vida debido a la convergencia de datos de entrenamiento, poder de cómputo y nuevos algoritmos. .
El video es una conferencia introductoria sobre el aprendizaje profundo en las ciencias de la vida, que explica la importancia del aprendizaje automático y el aprendizaje profundo en la exploración de la complejidad del mundo. La charla se centra en el concepto de inferencia bayesiana y cómo juega un papel crucial en el aprendizaje automático clásico y profundo junto con las diferencias entre los enfoques de aprendizaje generativo y discriminativo. La conferencia también destaca el poder de las máquinas de vectores de soporte, el rendimiento de la clasificación y el álgebra lineal para comprender las redes en los sistemas biológicos. El orador señala que el curso cubrirá varios temas en aprendizaje profundo, incluida la regularización, evitar el sobreajuste y conjuntos de entrenamiento. La conferencia concluye abordando cuestiones relacionadas con la interpretabilidad de las neuronas artificiales y las redes profundas para futuras conferencias.
Fundamentos del aprendizaje automático: Clase 02 (primavera de 2021)
Fundamentos del aprendizaje automático - Aprendizaje profundo en ciencias de la vida Clase 02 (primavera de 2021)
Esta lección cubre los fundamentos del aprendizaje automático, introduciendo conceptos como conjuntos de prueba y entrenamiento, tipos de modelos como discriminativo y generativo, evaluación de funciones de pérdida, regularización y sobreajuste, y redes neuronales. El disertante continúa explicando la importancia de los hiperparámetros, evaluando la precisión en las ciencias de la vida, las pruebas de correlación y los cálculos de probabilidad para las pruebas de modelos. Finalmente, se discuten los conceptos básicos de las redes neuronales profundas y la estructura de una neurona, destacando el papel de la no linealidad en el aprendizaje de funciones complejas.
En la segunda sección de la lección, se explica el concepto de funciones de activación en el aprendizaje profundo, así como el proceso de aprendizaje de ajustar los pesos para que coincidan con la función de salida utilizando derivadas parciales para ajustar las actualizaciones de peso para minimizar los errores, que es la base del gradiente. aprendizaje basado en El concepto de retropropagación se introduce como un método para propagar derivadas a través de una red neuronal con el fin de ajustar los pesos. Se analizan los diversos métodos para optimizar los pesos en múltiples capas de modelos de aprendizaje profundo, incluido el descenso de gradiente estocástico y el concepto de capacidad del modelo y la dimensión VC. También se analiza la eficacia de la capacidad de un modelo en un gráfico y el sesgo y la varianza, junto con varias técnicas de regularización, como la detención temprana y la disminución del peso. Se enfatiza la importancia de encontrar el equilibrio correcto de complejidad y se alienta a los estudiantes a presentarse a sus compañeros de clase de manera positiva.
Redes neuronales convolucionales de CNN - Clase 03 (primavera de 2021)
Redes neuronales convolucionales de CNN - Aprendizaje profundo en ciencias biológicas - Clase 03 (primavera de 2021)
Esta videolección cubre el tema de las redes neuronales convolucionales (CNN) en el aprendizaje profundo para las ciencias de la vida. El orador discute los principios de la corteza visual y cómo se relacionan con las CNN, incluidos los componentes básicos de los sistemas visuales humanos y animales, como los componentes básicos de suma y pesaje y el umbral de activación de polarización de una neurona. Explican que las CNN usan neuronas especializadas para operaciones de detección de bajo nivel y capas de unidades ocultas para el aprendizaje de conceptos abstractos. La conferencia también cubre el papel de las capas de convolución y agrupación, el uso de múltiples filtros para extraer múltiples características y el concepto de transferencia de aprendizaje. Finalmente, también se analizan las no linealidades y el uso de relleno para abordar los casos extremos en la convolución. En general, la conferencia destaca el poder y el potencial de las CNN en una variedad de aplicaciones de ciencias de la vida.
La segunda parte de la conferencia cubre varios conceptos relacionados con las redes neuronales convolucionales (CNN). En la conferencia, el orador habla sobre la importancia de mantener el tamaño de entrada en las CNN, el aumento de datos como un medio para lograr la invariancia a las transformaciones y las diferentes arquitecturas de CNN y sus aplicaciones. La conferencia también cubre los desafíos asociados con el aprendizaje en las CNN profundas, los hiperparámetros y su impacto en el rendimiento general y los enfoques para el ajuste de los hiperparámetros. El ponente destaca la importancia de comprender los principios fundamentales de las CNN y destaca su versatilidad como técnica aplicable en múltiples entornos.
RNN de redes neuronales recurrentes, GNN de redes neuronales gráficas, LSTM de memoria a largo plazo - Clase 04 (primavera de 2021)
RNN de redes neuronales recurrentes, GNN de redes neuronales gráficas, LSTM de memoria a largo plazo
Este video cubre una variedad de temas que comienzan con las redes neuronales recurrentes (RNN) y su capacidad para codificar el contexto temporal, que es fundamental para el aprendizaje de secuencias. El orador introduce el concepto de modelos de Markov ocultos y sus limitaciones, lo que lleva a la discusión de los módulos de memoria a corto plazo (LSTM) como un enfoque poderoso para tratar con secuencias largas. El video también analiza el módulo transformador, que aprende relaciones temporales sin desenrollar ni usar RNN. Se introducen las redes neuronales gráficas y sus posibles aplicaciones para resolver problemas de redes clásicos y en biología computacional. La charla concluye con una discusión sobre las fronteras de la investigación en redes neuronales de grafos, como su aplicación en modelos de grafos degenerativos y la inferencia de grafos latentes.
Esta segunda parte del video analiza los módulos de redes neuronales recurrentes (RNN), redes neuronales gráficas (GNN) y memoria a largo plazo (LSTM). Explica cómo las redes neuronales feedforward tradicionales tienen limitaciones cuando se trata de datos basados en gráficos, pero los GNN pueden manejar una amplia gama de invariancias y propagar información a través del gráfico. Los oradores también analizan las redes convolucionales gráficas (GCN) y sus ventajas y desafíos. Además, el video describe la importancia de las funciones de atención para hacer que las GNN sean más potentes y flexibles.
Aprendizaje profundo interpretable - Aprendizaje profundo en ciencias biológicas - Clase 05 (primavera de 2021)
Aprendizaje profundo interpretable - Aprendizaje profundo en ciencias biológicas - Clase 05 (primavera de 2021)
Este video analiza la importancia de la interpretabilidad en los modelos de aprendizaje profundo, especialmente en el campo de las ciencias de la vida, donde las decisiones pueden tener consecuencias nefastas. El ponente explica dos tipos de interpretabilidad: integrarla en el diseño del modelo desde el principio y desarrollar métodos de interpretabilidad post hoc para modelos ya construidos. Continúan explorando diferentes técnicas para interpretar modelos, incluida la visualización del peso, la construcción de modelos sustitutos y la maximización de la activación, y analizan la importancia de comprender las representaciones internas del modelo. El disertante también explica varios métodos para interpretar las decisiones individuales, como los métodos basados en ejemplos y de atribución. Además, el disertante discute el desafío de interpretar conceptos complejos y las limitaciones de las interpretaciones de modelos de redes neuronales, así como explorar hipótesis relacionadas con la discontinuidad de gradientes en redes neuronales de aprendizaje profundo.
En la segunda parte de la conferencia, el ponente abordó los desafíos de los gradientes discontinuos y las funciones saturadas en los modelos de aprendizaje profundo en el campo de las ciencias de la vida. Propusieron métodos como promediar pequeñas perturbaciones de entrada en múltiples muestras para obtener un gradiente más suave, utilizando ruido aleatorio para resaltar las características más destacadas en la clasificación de imágenes y técnicas de retropropagación como redes neuronales deconvolucionales y retropropagación guiada para interpretar modelos reguladores de genes. El orador también discutió la evaluación cuantitativa de los métodos de atribución, incluido el procedimiento de volteo de píxeles y el enfoque de eliminación y reemplazo de puntaje. Finalmente, enfatizaron la necesidad de la interpretabilidad en los modelos de aprendizaje profundo y las diversas técnicas para lograrlo.
Modelos generativos, redes antagónicas GAN, codificadores automáticos variacionales VAE, aprendizaje de representación - Clase 06 (primavera de 2021)
Modelos generativos, redes antagónicas GAN, codificadores automáticos variacionales VAE, aprendizaje de representación - Clase 06 (primavera de 2021)
Este video analiza el concepto de aprendizaje de representación en el aprendizaje automático, enfatizando su importancia en las tareas de clasificación y el potencial de innovación en el desarrollo de nuevas arquitecturas. Las tareas autosupervisadas y de pretexto se introducen como formas de aprender representaciones sin requerir datos etiquetados, a través de técnicas como codificadores automáticos y codificadores automáticos variacionales (VAEs). El orador también analiza modelos generativos, como VAE y redes adversarias generativas (GAN), que pueden generar nuevos datos manipulando la representación del espacio latente. Se discuten los pros y los contras de cada método, destacando su efectividad pero también sus limitaciones. En general, el video proporciona una descripción general completa de los diferentes enfoques para el aprendizaje de representación y los modelos generativos en el aprendizaje automático.
El video explora los conceptos de redes adversarias generativas (GAN), codificadores automáticos variacionales (VAE) y aprendizaje de representación en modelos generativos. Las GAN implican que el generador y el discriminador tienen objetivos opuestos, y el proceso de entrenamiento es lento para las muestras falsas, pero las mejoras en la resolución y la función del objetivo pueden dar lugar a imágenes de apariencia realista. El orador demuestra cómo las GAN pueden generar habitaciones arquitectónicamente plausibles y transferir una habitación a otra. Los VAE modelan explícitamente funciones de densidad y capturan la diversidad de imágenes del mundo real a través de parámetros espaciales latentes significativos. El orador fomenta la creatividad y la experimentación con arquitecturas y modelos abiertos, y la aplicación de modelos generativos y el aprendizaje de la representación en varios dominios es un campo de rápido crecimiento con posibilidades ilimitadas.
Genómica regulatoria: aprendizaje profundo en ciencias de la vida: Clase 07 (primavera de 2021)
Genómica regulatoria: aprendizaje profundo en ciencias de la vida: clase 07 (primavera de 2021)
La conferencia cubre el campo de la genómica reguladora, incluidos los fundamentos biológicos de la regulación génica, los métodos clásicos para la genómica reguladora, el descubrimiento de motivos utilizando redes neuronales convolucionales y el uso de modelos de aprendizaje automático para comprender cómo la secuencia codifica las propiedades de regulación génica. El orador explica la importancia de los motivos reguladores en la regulación génica y cómo las alteraciones de estos motivos pueden provocar enfermedades. Introducen un nuevo modelo utilizando una red neuronal convolucional que asigna lecturas de secuenciación al genoma y cuenta cuántos extremos de cinco primos tiene cada par de bases en las dos hebras. El modelo se puede usar para múltiples lecturas de diferentes proteínas y se puede ajustar por separado o simultáneamente usando un modelo multitarea. El orador también muestra cómo el modelo puede analizar cualquier tipo de ensayo, incluidos los datos genómicos, utilizando marcos de interpretación que descubren historias biológicas sobre cómo la sintaxis afecta la cooperatividad de TF. Los modelos pueden hacer predicciones que se validan mediante experimentos CRISPR de alta resolución.
El video analiza cómo el aprendizaje profundo puede mejorar la calidad de los datos ATAC-seq de baja cobertura al mejorar y eliminar los picos de señal. AttackWorks es un modelo de aprendizaje profundo que toma datos de cobertura y utiliza una arquitectura de red neuronal residual para mejorar la precisión de la señal e identificar sitios de cromatina accesibles. El orador demuestra cómo se puede usar AttackWorks para manejar datos de baja calidad y aumentar la resolución del estudio de la accesibilidad de la cromatina unicelular. También describen un experimento específico sobre células madre hematopoyéticas que utilizó ATAC-seq para identificar elementos reguladores específicos involucrados en la preparación del linaje. El orador invita a los estudiantes a buscar pasantías o colaboraciones.
parece. Una vez que tienen este modelo entrenado, pueden aplicarlo a pequeñas poblaciones de muy pocas células para predecir cómo se verían los datos si tuvieran más células para secuenciar. Este enfoque aumenta significativamente la resolución a la que pueden estudiar la accesibilidad de la cromatina de una sola célula y muestran que los modelos son transferibles entre experimentos, tipos de células e incluso especies.
Aprendizaje profundo para la genómica regulatoria - Unión de reguladores, TF de factores de transcripción - Clase 08 (primavera de 2021)
Aprendizaje profundo para la genómica regulatoria - Unión de reguladores, TF de factores de transcripción - Clase 08 (primavera de 2021)
El video analiza el uso del aprendizaje profundo para la genómica reguladora y se centra en cómo la secuencia de ADN puede revelar diferentes motivos presentes en las regiones potenciadoras y promotoras, y su bucle 3D. El video explica cómo la tecnología de captura de confirmación de cromosomas (3C) puede investigar la organización cromosómica, y la tecnología Hi-C puede identificar dominios asociados topológicamente (TAD), que interactúan entre sí, y el patrón de compartimiento en el genoma. Los filtros convolucionales se aplican en cada posición de la secuencia de ADN para detectar diferentes características o motivos, y el marco de aprendizaje profundo puede aprender propiedades, filtros y motivos comunes de la secuencia de ADN, lo que permite llevar a cabo diversas tareas de predicción. El video también menciona cómo el aprendizaje multitarea es beneficioso, y el uso de capas adicionales en la red de aprendizaje profundo para reconocer y combinar múltiples representaciones de bloques de construcción de motivos de factores de transcripción podría permitir un reconocimiento más eficiente de motivos complejos.
El orador en este video analiza el uso del aprendizaje profundo para la genómica reguladora con un enfoque en la unión del factor de transcripción y la predicción de la expresión génica. Exploran el uso de estructuras de convolución y convoluciones dilatadas para traer grandes regiones de ADN y hacer predicciones en un marco multitarea para datos de cromatina y expresión génica. El orador también cubre el uso de conexiones residuales para entrenar redes neuronales profundas y explica cómo el modelo puede predecir contactos 3D utilizando datos y modelos IC. En general, el aprendizaje profundo puede ser una herramienta poderosa para analizar datos genómicos y hacer predicciones basadas en secuencias de ADN con suficientes datos y las transformaciones correctas.