Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Héroes del aprendizaje profundo: Andrew Ng entrevista al director de investigación de Baidu, Yuanqing Lin
Héroes del aprendizaje profundo: Andrew Ng entrevista al director de investigación de Baidu, Yuanqing Lin
Yuanqing Lin, director de investigación de Baidu y director del Laboratorio Nacional de Aprendizaje Profundo de China, analiza la fundación del laboratorio nacional y su impacto en la comunidad de aprendizaje profundo.
Lin brinda información sobre la inversión de China en aprendizaje profundo y cómo ha llevado al crecimiento en varios sectores. Destaca la importancia de los bucles de retroalimentación en el desarrollo de IA y cómo esto ayuda a crear mejores algoritmos y tecnologías.
Lin aconseja a las personas que establezcan una base sólida en el aprendizaje automático y que comiencen con un marco de código abierto para ingresar al campo con éxito.
Heroes of Deep Learning: Dawn Song sobre inteligencia artificial, aprendizaje profundo y seguridad
Heroes of Deep Learning: Dawn Song sobre inteligencia artificial, aprendizaje profundo y seguridad
Dawn Song, experta en aprendizaje profundo y seguridad informática, habló sobre su trayectoria profesional y su trabajo en inteligencia artificial, aprendizaje profundo y seguridad en una entrevista.
Song enfatizó la importancia de identificar problemas o preguntas clave para guiar la lectura al ingresar por primera vez al campo y desarrollar una base sólida en la representación para facilitar la investigación en otros dominios.
También destacó la creciente importancia de construir sistemas resistentes de IA y aprendizaje automático y su trabajo en el desarrollo de mecanismos de defensa contra ataques de caja negra.
Song compartió su trabajo sobre privacidad y seguridad, incluido el entrenamiento de modelos de lenguaje privados diferenciales y el desarrollo de una plataforma de computación en la nube que prioriza la privacidad en blockchain en Oasis Labs. Finalmente, Song aconsejó a las personas que ingresan a nuevos campos que sean valientes y que no tengan miedo de comenzar desde cero.
La revolución de la IA | Explicación de la inteligencia artificial | Nuevas Tecnologías | robótica
La revolución de la IA | Explicación de la inteligencia artificial | Nuevas Tecnologías | robótica
Este video explora la revolución de la IA, comenzando con el futuro de los vehículos autónomos y los robots de autoaprendizaje capaces de navegar terrenos complejos, realizar misiones de búsqueda y rescate e interactuar con humanos en espacios de trabajo colaborativos. El desarrollo de la robótica de enjambre muestra un enorme potencial para mejorar áreas como la agricultura, la atención médica y la respuesta a desastres. Los investigadores están trabajando para hacer que los robots sean más conscientes de sí mismos y capaces de comunicarse a través del procesamiento del lenguaje natural, creando avatares digitales hiperrealistas y androides más parecidos a los humanos, que podrían servir como asistentes holográficos o compañeros para los ancianos y los socialmente aislados. Si bien los beneficios de la IA para mejorar la sociedad son inmensos, también existe la necesidad de consideraciones éticas y responsabilidad por parte de los desarrolladores para garantizar la alineación de la IA con intenciones positivas.
Sumérgete en el hardware de IA de ChatGPT
Sumérgete en el hardware de IA de ChatGPT
¿Qué hardware se usó para entrenar ChatGPT y qué se necesita para que siga funcionando? En este video, veremos el hardware de IA detrás de ChatGPT y descubriremos cómo Microsoft y OpenAI usan el aprendizaje automático y las GPU de Nvidia para crear redes neuronales avanzadas.
El video analiza el hardware utilizado para el entrenamiento y la inferencia en ChatGPT, un modelo de IA de conversación de chat natural basado en texto. La supercomputadora de IA de Microsoft se construyó con más de 10 000 GPU Nvidia V100 y 285 000 núcleos de CPU para el entrenamiento de GPT-3, lo que también contribuyó a la creación de ChatGPT. ChatGPT probablemente se ajustó en la infraestructura de Azure, utilizando 4480 GPU Nvidia A100 y más de 70 000 núcleos de CPU para el entrenamiento. A modo de inferencia, es probable que ChatGPT se ejecute en una única instancia de Nvidia DGX o HGX A100 en servidores de Microsoft Azure. El video también menciona el costo de ejecutar ChatGPT a escala y el impacto potencial del nuevo hardware de IA, como las unidades de procesamiento neuronal y los motores de IA.
El CEO de Nvidia, Jensen Huang, explica cómo su gran apuesta por la IA finalmente está dando sus frutos - Entrevista completa
El CEO de Nvidia, Jensen Huang, explica cómo su gran apuesta por la IA finalmente está dando sus frutos - Entrevista completaEl CEO de Nvidia, Jensen Huang, destaca la historia de agilidad y reinvención de la compañía, y enfatiza su voluntad de hacer grandes apuestas y olvidar los errores del pasado para seguir siendo relevante en la industria tecnológica de rápido movimiento. La ambición de Nvidia siempre fue ser una empresa de plataformas informáticas, y su misión de crear una informática acelerada de uso más general la llevó al éxito en inteligencia artificial. Huang también analiza la democratización de la tecnología de IA y su impacto potencial en las pequeñas empresas emergentes y en diversas industrias. Alienta a las personas a aprovechar la IA para aumentar su productividad y destaca el enfoque único de Nvidia para proporcionar plataformas informáticas aceleradas de propósito general versátiles y de alto rendimiento. Finalmente, Huang analiza la importancia de la resiliencia, la diversidad y la redundancia en la industria manufacturera, y la próxima gran reinvención de la empresa en IA que se encuentra con el mundo físico a través de la creación de Omniverse.
Sam Altman, director ejecutivo de OpenAI | IA para la próxima era
Sam Altman, director ejecutivo de OpenAI | IA para la próxima era
El CEO de OpenAI, Sam Altman, analiza el potencial de la inteligencia artificial para mejorar los modelos de lenguaje, los modelos multimodales y el aprendizaje automático, así como su impacto potencial en los mercados financieros. También predice que el campo seguirá siendo competitivo, con nuevas aplicaciones que aparecerán regularmente.
parte importante de la vida.
Demis Hassabis de DeepMind sobre el futuro de la IA | La entrevista TED
Demis Hassabis de DeepMind sobre el futuro de la IA | La entrevista TED
En la entrevista de TED, Demis Hassabis analiza el futuro de la inteligencia artificial y cómo conducirá a una mayor creatividad. Argumenta que los juegos son un campo de entrenamiento ideal para la inteligencia artificial y que el ajedrez debería enseñarse en las escuelas como parte de un plan de estudios más amplio que incluya cursos sobre diseño de juegos.
Futuro de la Inteligencia Artificial (2030 - 10,000 AD+)
Futuro de la Inteligencia Artificial (2030 - 10,000 AD+)
El video predice que la tecnología de IA seguirá creciendo y evolucionando, lo que conducirá a la aparición de superinteligencia y robots con conciencia a nivel humano en las próximas décadas. Los seres virtuales con autoconciencia y emociones serán comunes, y los robots humanoides se volverán tan avanzados que podrán mezclarse con los humanos sin problemas. Habrá grupos de oposición que lucharán por los derechos de los seres virtuales conscientes, mientras que los humanos se fusionarán con las IA para lograr el progreso intelectual de un siglo en solo una hora. Las superinteligencias más evolucionadas podrán crear humanoides que pueden transformarse en cualquier persona y volar en el aire, mientras que las sondas robóticas conscientes compuestas por nanobots autorreplicantes se enviarán a otras galaxias a través de agujeros de gusano. En el futuro, los humanos y los híbridos de IA trascenderán a dimensiones superiores, asemejándose a las deidades del pasado.
Construyamos GPT: desde cero, en código, explicado
Construyamos GPT: desde cero, en código, explicado
Construimos un Transformador preentrenado generativamente (GPT), siguiendo el documento "La atención es todo lo que necesita" y GPT-2 / GPT-3 de OpenAI. Hablamos de las conexiones a ChatGPT, que ha conquistado el mundo. Vemos a GitHub Copilot, en sí mismo un GPT, ayudándonos a escribir un GPT (meta :D!). Recomiendo a las personas que vean los videos makemore anteriores para familiarizarse con el marco de modelado de lenguaje autorregresivo y los conceptos básicos de tensores y PyTorch nn, que damos por sentado en este video.
Este video presenta el algoritmo GPT y muestra cómo construirlo desde cero usando código. El algoritmo se utiliza para predecir el siguiente carácter en una secuencia de texto y se implementa como un módulo PyTorch. El video cubre cómo configurar el modelo, cómo entrenarlo y cómo evaluar los resultados.
Este video muestra cómo construir un módulo de autoatención en código. El módulo utiliza una capa lineal de interacción para realizar un seguimiento de la atención de una sola cabeza individual. El módulo de autoatención se implementa como una matriz tabular, que enmascara el peso de cada columna y luego lo normaliza para crear afinidades dependientes de los datos entre tokens.
MIT 6.801 Visión artificial, otoño de 2020. Clase 1: Introducción a la visión artificial
Clase 1: Introducción a la visión artificial
La conferencia "Introducción a la visión artificial" proporciona una descripción completa de la logística y los objetivos del curso, con énfasis en el enfoque basado en la física para el análisis de imágenes. Cubre los componentes de visión artificial, los problemas mal planteados, la orientación de la superficie y los desafíos del procesamiento de imágenes. El disertante también presenta el método de optimización de mínimos cuadrados y el modelo estenopeico utilizado en las cámaras. También se analizan brevemente el sistema de coordenadas centrado en la cámara, el eje óptico y el uso de vectores. El curso tiene como objetivo preparar a los estudiantes para cursos de visión artificial más avanzados y aplicaciones reales de matemáticas y física en la programación.
El orador también analiza varios conceptos relacionados con la formación de imágenes, incluida la notación vectorial para la proyección en perspectiva, la iluminación de la superficie, el escorzo de los elementos de la superficie y cómo se pueden resolver los problemas de visión 3D utilizando imágenes 2D. El disertante explica cómo la iluminación sobre una superficie varía con el ángulo de incidencia y la relación del coseno entre la longitud del rojo y la longitud de la superficie, que se puede utilizar para medir el brillo de diferentes partes de una superficie. Sin embargo, determinar la orientación de cada pequeña faceta de un objeto puede ser difícil debido a dos incógnitas. El orador también explica la razón por la que podemos resolver un problema de visión 3D utilizando imágenes 2D y concluye mencionando que las matemáticas para la tomografía son simples, pero las ecuaciones son complicadas, lo que dificulta realizar inversiones.