Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Hacia la singularidad: neurociencia que inspira a la IA
Hacia la singularidad: neurociencia que inspira a la IAEste video analiza el potencial de la inteligencia artificial para alcanzar un punto de inteligencia general y los diversos desafíos que deberán superarse en el camino.
También analiza el potencial de los robots para ser considerados como una especie y las ventajas y desventajas de este enfoque.
está limitado en cuanto a la cantidad de información que puede transferir entre los dos. Y ese es un factor muy limitante en el poder general de la computadora estándar. Por el contrario, el cerebro funciona masivamente de una manera masivamente paralela, cada neurona está haciendo lo mejor que puede todo el tiempo. Incluso la mejor IA actual que tenemos sigue siendo muy, muy diferente al cerebro. Es... se podría decir que está inspirado en el cerebro, pero no está copiando el cerebro. En el cerebro hay cantidades masivas de conexiones de retroalimentación. Entonces, obviamente, cuando procesamos la entrada sensorial, y eso llega a las regiones superiores del cerebro, y se procesa y abstrae más de la entrada original que vemos. Pero también hay una gran cantidad de comentarios provenientes de esas regiones superiores que regresan a las áreas de percepción. Y esta retroalimentación dirige hacia dónde miramos y
Stanford CS230: aprendizaje profundo | Otoño 2018 | Conferencia 1 - Introducción a la clase y logística, Andrew Ng
Stanford CS230: aprendizaje profundo | Otoño 2018 | Conferencia 1 - Introducción a la clase y logística, Andrew Ng
Andrew Ng, el instructor del curso CS230 Deep Learning de Stanford, presenta el curso y explica el formato de aula invertida. Destaca la repentina popularidad del aprendizaje profundo debido al aumento de los registros digitales, lo que permite sistemas de aprendizaje profundo más efectivos. Los objetivos principales del curso son que los estudiantes se conviertan en expertos en algoritmos de aprendizaje profundo y comprendan cómo aplicarlos para resolver problemas del mundo real. Ng enfatiza la importancia del conocimiento práctico en la construcción de sistemas de aprendizaje automático eficientes y efectivos y espera enseñar y derivar sistemáticamente algoritmos de aprendizaje automático mientras los implementa de manera efectiva con los procesos correctos. El curso cubrirá las redes neuronales de convolución y los modelos de secuencia a través de videos en Coursera y asignaciones de programación en Jupyter Notebooks.
La primera lección del curso CS230 Deep Learning de Stanford presenta la variedad de aplicaciones del mundo real que se desarrollarán a través de asignaciones de programación y proyectos de estudiantes, que se pueden personalizar y diseñar para que coincidan con los intereses de los estudiantes. Los ejemplos de proyectos de estudiantes anteriores van desde la predicción del precio de las bicicletas hasta la detección de señales de terremotos. El proyecto final se enfatiza como el aspecto más importante del curso, y la tutoría personalizada está disponible a través del equipo de TA y los instructores. También se analiza la logística del curso, incluida la formación de equipos para proyectos grupales, la realización de cuestionarios en Coursera y la combinación del curso con otras clases.
Clase 2 - Intuición de aprendizaje profundo
Stanford CS230: aprendizaje profundo | Otoño 2018 | Clase 2 - Intuición de aprendizaje profundo
La primera parte de la conferencia se centra en varias aplicaciones de aprendizaje profundo, incluida la clasificación de imágenes, el reconocimiento facial y la transferencia de estilos de imágenes. El instructor explica la importancia de varios factores, como el tamaño del conjunto de datos, la resolución de la imagen y la función de pérdida en el desarrollo de un modelo de aprendizaje profundo. También se analiza el concepto de codificación de imágenes utilizando redes profundas para crear representaciones útiles, con énfasis en la función de pérdida de tripletes utilizada en el reconocimiento facial. Además, el disertante explica el agrupamiento utilizando el algoritmo K-Means para la clasificación de imágenes y la extracción de estilo y contenido de las imágenes. En general, la sección presenta a los estudiantes las diversas técnicas y consideraciones involucradas en el desarrollo exitoso de modelos de aprendizaje profundo.
La segunda parte del video cubre una variedad de temas de aprendizaje profundo, como la generación de imágenes, el reconocimiento de voz y la detección de objetos. El orador enfatiza la importancia de consultar con expertos cuando se encuentran problemas y los elementos críticos de un proyecto exitoso de aprendizaje profundo: una canalización estratégica de adquisición de datos y búsqueda de arquitectura y ajuste de hiperparámetros. El video también analiza diferentes funciones de pérdida utilizadas en el aprendizaje profundo, incluida la función de pérdida de detección de objetos, que incluye una raíz cuadrada para penalizar los errores en las cajas más pequeñas con más fuerza que en las cajas más grandes. El video concluye con un resumen de los próximos módulos y tareas, incluidas las sesiones obligatorias de tutoría de proyectos de TA y las secciones de TA de los viernes centradas en la transferencia de estilo neuronal y el llenado de un formulario de AWS para obtener posibles créditos de GPU.
Clase 3 - Proyectos de aprendizaje profundo de ciclo completo
Stanford CS230: aprendizaje profundo | Otoño 2018 | Clase 3 - Proyectos de aprendizaje profundo de ciclo completoEn esta lección sobre proyectos de aprendizaje profundo de ciclo completo, el instructor enfatiza la importancia de considerar todos los aspectos de la creación de una aplicación de aprendizaje automático exitosa, incluida la selección de problemas, la recopilación de datos, el diseño de modelos, las pruebas, la implementación y el mantenimiento. A través del ejemplo de la construcción de un dispositivo activado por voz, el instructor analiza los componentes clave involucrados en los proyectos de aprendizaje profundo y alienta a los estudiantes a centrarse en proyectos factibles con un impacto positivo potencial y contribuciones únicas a sus respectivos campos. El instructor también destaca la importancia de recopilar datos rápidamente, tomar buenas notas durante todo el proceso e iterar durante el desarrollo, al tiempo que analiza enfoques específicos para la activación del habla y la detección de la actividad de la voz.
La segunda parte de la conferencia se enfoca en la importancia del monitoreo y mantenimiento en proyectos de aprendizaje automático, particularmente la necesidad de monitorear y actualizar continuamente los modelos para garantizar que funcionen bien en el mundo real. El disertante aborda el problema del cambio de datos, que puede hacer que los modelos de aprendizaje automático pierdan precisión, y destaca la necesidad de monitoreo constante, recopilación de datos y rediseño de modelos para garantizar que los modelos continúen funcionando de manera efectiva. La conferencia también analiza el impacto de usar un sistema que no sea ML versus una red neuronal entrenada en un sistema de detección de actividad de voz y sugiere que las reglas codificadas a mano son generalmente más sólidas para cambiar los datos. El disertante concluye la necesidad de prestar mucha atención a la privacidad de los datos y obtener el consentimiento del usuario al recopilar datos para los modelos de reentrenamiento.
Para abordar este desafío, se usa un algoritmo más simple para detectar si alguien está hablando antes de pasar el clip de audio a la red neuronal más grande para su clasificación. Este algoritmo más simple se conoce como detección de actividad de voz (VAD) y es un componente estándar en muchos sistemas de reconocimiento de voz, incluidos los que se usan en los teléfonos celulares.
Clase 4 - Ataques adversarios / GAN
Stanford CS230: aprendizaje profundo | Otoño 2018 | Clase 4 - Ataques adversarios / GAN
Esta lección presenta el concepto de ejemplos contradictorios, que son entradas que se han modificado ligeramente para engañar a una red neuronal previamente entrenada. La conferencia explica la base teórica de cómo funcionan estos ataques y analiza las aplicaciones maliciosas de utilizar ejemplos adversarios en el aprendizaje profundo. La lección también presenta las redes adversarias generativas (GAN) como una forma de entrenar un modelo que puede generar imágenes que parecen reales, y la lección analiza la función de costo para el generador en un modelo GAN. La conferencia concluye explicando el gráfico logarítmico de la salida de D cuando se da un ejemplo generado.
La conferencia cubre varios temas relacionados con las redes antagónicas generativas (GAN), incluidos consejos y trucos para entrenar GAN y sus aplicaciones en la traducción de imagen a imagen y redes antagónicas generativas no emparejadas que utilizan la arquitectura CycleGAN. También se analiza la evaluación de las GAN, con métodos como la anotación humana, las redes de clasificación y la puntuación de inicio y la distancia de inicio de Frechet como métodos populares para verificar el realismo de las imágenes generadas.
Clase 5 - IA + Salud
Stanford CS230: aprendizaje profundo | Otoño 2018 | Clase 5 - IA + Salud
La conferencia proporciona una descripción general de las aplicaciones de IA en el cuidado de la salud en esta conferencia. Desglosa los tipos de preguntas que la IA puede responder, como descriptivas, de diagnóstico, predictivas y prescriptivas. Luego, el autor presenta tres estudios de casos de su laboratorio que demuestran la aplicación de la IA a diferentes problemas de atención médica. Un ejemplo es la detección de arritmias cardíacas graves, que los expertos podrían haber diagnosticado erróneamente pero que una máquina podría detectar. Otro ejemplo es el uso de redes neuronales convolucionales para identificar anomalías de los exámenes de RM de rodilla, identificando específicamente la probabilidad de un desgarro de LCA y un desgarro de menisco. Finalmente, el orador analiza cuestiones relacionadas con la distribución de datos y el aumento de datos en la IA del cuidado de la salud.
La segunda parte cubre varios temas relacionados con la implementación del aprendizaje profundo en aplicaciones de atención médica. Se analiza la importancia del aumento de datos, como lo demuestra la solución de una empresa a los problemas de reconocimiento de voz en los automóviles autónomos causados por personas que hablan con el asistente virtual mientras miran hacia atrás. También se analizan los hiperparámetros involucrados en el aprendizaje de transferencia para aplicaciones de atención médica, como decidir cuántas capas agregar y cuáles congelar. Luego, la conferencia pasa al análisis de imágenes, donde se destaca la importancia de agregar límites a los conjuntos de datos etiquetados. Se discuten las ventajas y diferencias entre la detección de objetos y la segmentación en el análisis de imágenes médicas, y se introduce el tema de la clasificación binaria para imágenes médicas etiquetadas con cero o uno. La conferencia concluye discutiendo la importancia de los datos en el aprendizaje profundo y las próximas evaluaciones del curso.
Clase 6 - Estrategia del proyecto de aprendizaje profundo
Stanford CS230: aprendizaje profundo | Otoño 2018 | Clase 6 - Estrategia del proyecto de aprendizaje profundo
En este video, el orador analiza la importancia de elegir una buena métrica para medir el éxito de un proyecto de aprendizaje automático. La métrica elegida debe reflejar el problema en cuestión y el resultado deseado. El orador proporciona los ejemplos de exactitud, precisión, recuperación y puntaje F1 y explica cuándo se debe usar cada uno. También discuten la diferencia entre el conjunto de validación y el conjunto de prueba y explican por qué es importante usar ambos. Además, el orador enfatiza la necesidad de un modelo de referencia como punto de comparación para medir la efectividad del algoritmo de aprendizaje. Finalmente, el orador responde algunas preguntas de la audiencia sobre la elección del umbral para la clasificación binaria y cómo lidiar con el desequilibrio de clases.
Clase 7 - Interpretabilidad de la Red Neuronal
Stanford CS230: aprendizaje profundo | Otoño 2018 | Clase 7 - Interpretabilidad de la Red NeuronalEn esta lección, el disertante presenta varios métodos para interpretar y visualizar redes neuronales, como mapas de prominencia, sensibilidad de oclusión y mapas de activación de clases. Los mapas de activación de clase se utilizan para interpretar las capas intermedias de una red neuronal al mapear la salida al espacio de entrada para visualizar qué partes de la entrada fueron más discriminatorias en el proceso de toma de decisiones. El profesor también analiza la agrupación de promedios globales como una forma de mantener la información espacial en una red neuronal convolucional y la deconvolución como una forma de aumentar la muestra de la altura y el ancho de las imágenes para tareas como la segmentación de imágenes. Además, la conferencia explora la suposición de ortogonalidad en los filtros convolucionales y cómo se puede utilizar la convolución de subpíxeles para la reconstrucción en aplicaciones de visualización.
La conferencia cubre varios métodos para interpretar y visualizar redes neuronales, incluida la convolución de subpíxeles, la deconvolución 2D, el muestreo ascendente, la desagrupación y el uso de herramientas como la caja de herramientas DeepViz y el algoritmo Deep Dream. El ponente explica cómo visualizar filtros en la primera capa de una red puede facilitar la interpretación, pero a medida que profundizamos, la red se vuelve más difícil de entender. Al examinar las activaciones en diferentes capas, el hablante muestra cómo ciertas neuronas responden a características específicas. Si bien existen limitaciones para interpretar las redes neuronales, las técnicas de visualización pueden proporcionar información y aplicaciones potenciales, como la segmentación, la reconstrucción y la generación de redes antagónicas.
Clase 8 - Asesoramiento profesional / Lectura de trabajos de investigación
Stanford CS230: aprendizaje profundo | Otoño 2018 | Clase 8 - Asesoramiento profesional / Lectura de trabajos de investigaciónEn esta conferencia, el profesor Andrew Ng brinda consejos sobre cómo leer de manera eficiente artículos de investigación y mantenerse al día con el campo del aprendizaje profundo en rápida evolución. Destaca la importancia de resumir el trabajo en las secciones introductorias y finales, así como prestar atención a las figuras y tablas. Ng también comparte consejos profesionales, y recomienda que los candidatos a un puesto de trabajo tengan un conocimiento amplio y profundo en múltiples áreas de inteligencia artificial y aprendizaje automático, y que se centren en trabajar con personas en lugar de grandes marcas para maximizar las oportunidades de crecimiento. Sugiere consistencia en la lectura de documentos y la construcción de habilidades tanto horizontales como verticales a través de cursos y proyectos para una base sólida en el aprendizaje automático.
Clase 9 - Aprendizaje por refuerzo profundo
Stanford CS230: aprendizaje profundo | Otoño 2018 | Clase 9 - Aprendizaje por refuerzo profundo
La conferencia presenta el aprendizaje de refuerzo profundo, que combina el aprendizaje profundo y el aprendizaje de refuerzo. El aprendizaje por refuerzo se utiliza para tomar buenas secuencias de decisiones en situaciones con etiquetas retrasadas y se aplica en diferentes campos, como la robótica, los juegos y la publicidad. El aprendizaje de refuerzo profundo reemplaza la tabla Q con una función Q que es una red neuronal. El disertante analiza los desafíos de aplicar el aprendizaje por refuerzo profundo, pero describe una técnica para crear un valor objetivo para las puntuaciones Q en función de la ecuación de Bellman para entrenar la red. La conferencia también analiza la importancia de la repetición de la experiencia en el entrenamiento del aprendizaje por refuerzo profundo y el equilibrio entre la explotación y la exploración en los algoritmos de RL. También se analiza la aplicación práctica del aprendizaje por refuerzo profundo al juego Breakout.
La conferencia analiza varios temas relacionados con el aprendizaje de refuerzo profundo (DRL). Se analiza el equilibrio entre exploración y explotación en DRL y se propone una solución que utiliza un hiperparámetro que decide la probabilidad de exploración. Se explora la importancia del conocimiento humano en DRL y cómo puede aumentar los procesos algorítmicos de toma de decisiones. La conferencia también cubre los gradientes de políticas, los diferentes métodos para su implementación y la prevención del sobreajuste. Además, se destacan los desafíos en entornos de recompensas escasas y se analiza brevemente una solución de un documento reciente llamado "Unificación de las metas basadas en recuentos para la exploración". Por último, la conferencia menciona brevemente los artículos YOLO y YOLO v2 de Redmon et al. en cuanto a la detección de objetos.