Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Lección 21. Ajuste de un algoritmo TSP
Lección 21. Ajuste de un algoritmo TSP
Este video de YouTube se enfoca en el problema del viajante de comercio (TSP), un problema difícil de NP que existe desde hace muchos años. El orador pasa por varios algoritmos y enfoques para optimizar el espacio de búsqueda y podar la búsqueda para hacer que el algoritmo TSP sea más rápido, como implementar un mejor algoritmo de árbol de expansión mínimo, permitir la optimización del compilador y modificar el cálculo de distancia para usar un algoritmo de búsqueda de tabla. La necesidad de limitar el espacio de búsqueda y pensar de manera creativa para optimizar los programas en cuanto a velocidad y rendimiento se enfatiza a lo largo del video, lo que brinda información valiosa para resolver TSP y otros problemas relacionados.
En este video, el orador analiza varias técnicas para optimizar el algoritmo TSP, como el almacenamiento en caché, la evaluación diferida y el almacenamiento de datos en una tabla hash, enfatizando la importancia de los datos empíricos sobre la intuición. También comparte su experiencia en la resolución del problema TSP y la importancia de la ingeniería de desempeño en su profesión. El orador brinda información sobre el proceso de optimización de código, incluido el desarrollo incremental y la generación recursiva, y alienta a la audiencia a usar estas técnicas, ya que son fáciles de implementar. Por último, el ponente expresa su agradecimiento por dedicarse a la ingeniería de rendimiento y desarrollar algoritmos que mejoran varios servicios de Google, así como por las amistades que ha hecho a lo largo de su carrera.
Lección 22. Optimización de grafos
Lección 22. Optimización de grafos
El video analiza el concepto de un gráfico, varias formas de representarlo y técnicas de optimización para mejorar la eficiencia de los algoritmos de gráficos. El orador explora las aplicaciones de los gráficos en el modelado de relaciones y en la búsqueda del camino más corto o la forma más económica de llegar a un destino, junto con formas óptimas de almacenar gráficos en la memoria para agregar, eliminar o escanear bordes. El video también cubre la optimización del rendimiento de la memoria caché en las búsquedas de gráficos mediante el uso de vectores de bits, junto con la implementación del algoritmo de búsqueda paralela en amplitud con sumas de prefijos para filtrar los valores negativos. Finalmente, el ponente habla de sus experimentos sobre un grafo aleatorio con diez millones de vértices y cien millones de aristas, destacando la importancia del determinismo en el código para garantizar la fiabilidad y la coherencia.
El video también analiza varias técnicas de optimización de gráficos, incluida la implementación del operador min derecho, el código BFS paralelo determinista, la técnica de optimización de dirección y la compresión de gráficos. La técnica de optimización de dirección implica un enfoque ascendente para explorar los bordes entrantes cuando la frontera es grande y se ha aplicado a otros algoritmos de gráficos, mientras que la compresión de gráficos tiene como objetivo reducir el uso de memoria al codificar las diferencias entre bordes consecutivos y reducir la cantidad de bits utilizados. para almacenar estos valores. Además, el video enfatiza la importancia de probar las optimizaciones en diferentes tipos de gráficos para determinar dónde funcionan bien y dónde no.
Lección 23. Alto Rendimiento en Lenguajes Dinámicos
Lección 23. Alto Rendimiento en Lenguajes Dinámicos
Los desafíos de escribir código crítico para el rendimiento en lenguajes de escritura dinámica de alto nivel se analizan en este video, con un enfoque en el lenguaje de programación Julia. Julia tiene como objetivo proporcionar capacidades interactivas de alto nivel al mismo tiempo que ofrece el mismo nivel de rendimiento que los lenguajes de nivel inferior como C y Fortran. La capacidad de Julia para escribir código genérico que funciona para varios tipos, la metaprogramación integrada y las rutas de código optimizadas lo hacen más rápido que Python en situaciones como la generación de grandes matrices de vandermonde y código optimizado para polinomios específicos en funciones especiales. Además, las rutas de código optimizadas de Julia asignan cuadros mucho más rápido que Python, lo que lo convierte en una mejor opción para manejar estructuras de datos dinámicas como matrices. Finalmente, el video analiza las capacidades de inferencia de tipo y envío múltiple de Julia, lo que permite inferir recursivamente diferentes versiones de una función para diferentes argumentos y tipos.
En este video también se explica cómo funciona el polimorfismo paramétrico en Julia y cómo permite crear infinitas familias de tipos. Al definir un tipo parametrizado, como un tipo de punto con parámetros para X e Y, y establecer esos parámetros en un subtipo real, se puede crear un conjunto completo de tipos que se pueden "ejecutar" con un subtipo particular. Además, el orador analiza las capacidades y bibliotecas de Julia para implementar subprocesos, recolección de basura y paralelismo de memoria distribuida, así como su amplia gama de soporte Unicode para identificadores. Además, se enfatiza la importancia de tener variables con nombres propios y descriptivos, y el ponente menciona un proyecto que está explorando la fusión de la tecnología Julia con la tecnología Silk, lo que puede conducir a nuevos desarrollos en el futuro.
Richard Feynman: ¿Pueden pensar las máquinas?
Richard Feynman: ¿Pueden pensar las máquinas?
En el video "Richard Feynman: ¿Pueden pensar las máquinas?", Feynman argumenta que si bien las máquinas son mejores que los humanos en muchas cosas como la aritmética, la resolución de problemas y el procesamiento de grandes cantidades de datos, las máquinas nunca lograrán un pensamiento e inteligencia similares a los humanos. Las máquinas tienen dificultades para reconocer imágenes debido a complejidades como variaciones en la luz y la distancia, y aunque las computadoras reconocen patrones, no pueden descubrir nuevas ideas y relaciones por sí mismas. Feynman también analiza la efectividad del uso de máquinas para la predicción del clima y otras tareas complejas, citando el ejemplo de un hombre llamado Lumic que usó una lista de heurísticas para ganar el campeonato de juegos navales en California. Para hacer máquinas inteligentes, Feynman sugiere que los desarrolladores eviten las distorsiones psicológicas que evolucionan furtivamente y, en cambio, se centren en encontrar nuevas formas de evitar el trabajo, ya que las máquinas muestran las debilidades necesarias de la inteligencia.
Ojo con la IA: Ilya Sutskever
Ojo con la IA: Ilya Sutskever
Ilya Sutskever analiza una variedad de temas relacionados con la IA en este video. Comparte su interés inicial en la IA y el aprendizaje automático y describe cómo su colaboración con Jeff Hinton condujo al desarrollo de la red neuronal convolucional AlexNet. Sutskever también habla sobre los desafíos y limitaciones de los modelos de lenguaje, argumentando que hacen más que aprender regularidades estadísticas y que representar ideas y conceptos es un logro importante. También analiza la necesidad de grandes cantidades de datos y procesadores más rápidos en el entrenamiento de IA y sugiere la posibilidad de una forma de democracia de gran ancho de banda en la que las personas ingresen datos para especificar cómo deben comportarse los sistemas.
Matemáticas para el aprendizaje automático - Cálculo multivariante - Especialización completa en línea
Matemáticas para el aprendizaje automático - Cálculo multivariante - Especialización completa en línea
Parte 1
Parte 2
parte 3
parte 4
Serie de oradores ETL: Ilya Sutskever, OpenAI
Serie de oradores ETL: Ilya Sutskever, OpenAI
En un video de YouTube titulado "ETL Speaker Series: Ilya Sutskever, OpenAI", Ilya Sutskever, cofundadora y científica en jefe de OpenAI, analiza temas como los grandes modelos de lenguaje, la premisa detrás de las neuronas artificiales, la conciencia en la IA y la estructura financiera de Organizaciones de IA sin fines de lucro. Sutskever enfatiza la importancia del progreso técnico y de hacer una buena investigación para el éxito de OpenAI y alienta a los estudiantes interesados en la IA y el espíritu empresarial a explorar sus ideas únicas. También predice que las mejoras en varias capas de la pila de aprendizaje profundo y la capacitación especializada tendrán un gran impacto en el futuro. Finalmente, los anfitriones agradecen a Sutskever por su perspicaz discusión y lo invitan a participar en futuros eventos, al mismo tiempo que dirigen a los espectadores al sitio web del rincón electrónico de Stanford para obtener más recursos sobre el espíritu empresarial y la innovación.
Ilya Sutskever (Científico Jefe de OpenAI) - Creación de AGI, Alineación, Espías, Microsoft e Ilustración
Ilya Sutskever (Científico Jefe de OpenAI) - Creación de AGI, Alineación, Espías, Microsoft e Ilustración
El científico jefe de OpenAI, Ilya Sutskever, cubre una variedad de temas en este video, incluido el potencial de usos ilícitos de GPT, la importancia de la confiabilidad en los sistemas de IA, el papel de la colaboración hombre-máquina en la construcción de AGI, las limitaciones de software y hardware de AGI, y el potencial de la investigación académica. Él cree que será necesaria una combinación de enfoques para reducir la probabilidad de desalineación en la construcción de AGI, y que los avances necesarios para la IA sobrehumana pueden no sentirse necesariamente como avances en retrospectiva. También enfatiza el valor del aporte humano en los modelos de enseñanza y sugiere que el impacto de los modelos lingüísticos puede ir más allá del mundo digital.
Lección 1: Aprendizaje profundo práctico para codificadores 2022
Lección 1: Aprendizaje profundo práctico para codificadores 2022
En este video de YouTube "Lección 1: aprendizaje profundo práctico para programadores 2022", el instructor presenta el curso, destaca el rápido ritmo de cambio en el aprendizaje profundo y demuestra la facilidad de crear un sistema "ave o no pájaro" usando Python. El curso tiene como objetivo mostrar a las personas cómo construir e implementar modelos primero, en lugar de comenzar con una revisión de álgebra lineal y cálculo, y cubrirá una variedad de modelos de aprendizaje profundo, incluidos algoritmos basados en imágenes que pueden clasificar sonidos o movimientos del mouse. El instructor enfatiza la importancia de la creación de bloques de datos, la comprensión de los detectores de características y el uso de modelos previamente entrenados para reducir los requisitos de codificación. El curso también cubre la segmentación y el análisis tabular, con fast.ai que proporciona las mejores prácticas que ayudan a reducir la codificación y mejorar los resultados.
El video proporciona una introducción al aprendizaje profundo y sus aplicaciones en varios campos. El presentador analiza los conceptos básicos del aprendizaje automático, incluido el proceso de entrenamiento del modelo y la importancia de calcular la pérdida para actualizar el peso del modelo para un mejor rendimiento. La lección cubre dos modelos: aprendizaje tabular y filtrado colaborativo. El presentador también destaca la utilidad de los cuadernos Jupyter para crear y compartir código, incluidos ejemplos de proyectos de estudiantes anteriores que han dado lugar a nuevas empresas, artículos científicos y ofertas de trabajo. La conclusión principal es que los aspirantes a estudiantes profundos deben experimentar y compartir su trabajo con la comunidad para obtener comentarios y experiencia valiosos.
Lección 2: Aprendizaje profundo práctico para codificadores 2022
Lección 2: Aprendizaje profundo práctico para codificadores 2022
Esta serie de videos de YouTube proporciona una introducción al aprendizaje profundo para codificadores. Cubre temas como la preparación de datos, la creación de modelos y la implementación de un modelo de aprendizaje automático.
En este video, el hacker Jeremy Howard enseña a las personas cómo crear sus propias aplicaciones web mediante el aprendizaje profundo. Cubre cómo configurar un proyecto en Git, cómo usar el espacio de la cara que abraza para cargar un modelo en el que se entrenará, el procesamiento del lenguaje natural y cómo reconocer el texto.