Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Lección 8. Restricciones: búsqueda, reducción de dominio
8. Restricciones: búsqueda, reducción de dominio
Este video analiza el concepto de restricciones en la resolución de problemas, específicamente en el contexto de búsqueda y reducción de dominios. El orador usa el ejemplo de asignar colores a los estados en un mapa para ilustrar cómo se pueden usar las restricciones para reducir las posibilidades incluso antes de comenzar la búsqueda. El orador también explora diferentes enfoques para manejar las restricciones, como solo verificar las tareas o considerar todo, y presenta el concepto de planificación de recursos como otra aplicación de la resolución de problemas basada en restricciones. En general, el video proporciona una descripción general completa de cómo se pueden usar las restricciones para resolver problemas complejos de manera eficiente.
Lección 9. Restricciones: reconocimiento visual de objetos
9. Restricciones: reconocimiento visual de objetos
En este video, Patrick Winston analiza los desafíos de reconocer objetos visuales, incluidas las ideas de David Marr de formar una descripción basada en bordes de objetos, superficies normales y cilindros generalizados. El ponente también profundiza en diferentes métodos para el reconocimiento visual de objetos, incluida la teoría de alineación y el uso de algoritmos de correlación para calcular la ubicación de características de tamaño intermedio. Winston destaca los desafíos de reconocer objetos naturales que no tienen dimensiones idénticas y la importancia del contexto y la narración en el reconocimiento visual, usando el ejemplo de un gato bebiendo. A lo largo del video, proporciona demostraciones y ejemplos para explicar varios conceptos. En general, el disertante enfatiza las dificultades del reconocimiento visual y anima a los estudiantes a continuar investigando en el campo.
Lección 10. Introducción al aprendizaje, Vecinos más cercanos
10. Introducción al aprendizaje, vecinos más cercanos
En este video de YouTube, el profesor Winston presenta el tema del aprendizaje y analiza dos tipos de aprendizaje: el aprendizaje basado en la regularidad y el aprendizaje basado en la retroalimentación. Se enfoca en técnicas de aprendizaje basadas en la regularidad, como el aprendizaje del vecino más cercano, las redes neuronales y el impulso. El aprendizaje del vecino más cercano implica un detector de características, que genera un vector de valores, que luego se compara con vectores de una biblioteca de posibilidades para encontrar la coincidencia más cercana y determinar qué es un objeto. El ponente da varios ejemplos de cómo se puede aplicar este método. Además, analiza cómo se pueden usar los límites de decisión para identificar la categoría de un objeto. Se introduce el principio de similitud entre diferentes casos y se enfatiza la importancia de la gestión del sueño, ya que afecta en gran medida el aprendizaje. Finalmente, toca el problema de la no uniformidad, el problema de "lo que importa" y la importancia de normalizar los datos utilizando técnicas estadísticas.
Lección 11. Aprendizaje: árboles de identificación, desorden
11. Aprendizaje: árboles de identificación, desorden
El profesor del MIT, Patrick Winston, explica el concepto de construir un mecanismo de reconocimiento para identificar vampiros utilizando datos y la importancia de crear un árbol de identificación pequeño y rentable que satisfaga la Navaja de Occam. Propone usar mecanismos heurísticos para construir el árbol ya que calcular todos los árboles posibles es un problema de NP. Winston sugiere usar una prueba de sombra, prueba de ajo, prueba de complexión y prueba de acento para identificar qué individuos son vampiros y explica cómo medir el desorden en conjuntos para encontrar la calidad general de una prueba basada en la medición del desorden. El video también analiza cómo los árboles de identificación se pueden usar con datos numéricos, y el árbol se puede convertir en un conjunto de reglas para crear un mecanismo simple basado en el comportamiento basado en reglas.
Clase 12a: Redes Neuronales
12a: Redes neuronales
Este video cubre una variedad de temas relacionados con las redes neuronales. El orador comienza discutiendo la historia de las redes neuronales, destacando el trabajo fundamental realizado por Geoff Hinton que transformó el campo. Luego se analiza la anatomía de una neurona, así como la forma en que se recopilan y procesan las entradas. Luego, el video profundiza en cómo las redes neuronales funcionan como aproximadores de funciones y cómo se puede mejorar el rendimiento mediante la escalada y el descenso de gradientes. Se presenta la regla de la cadena para facilitar el cálculo de derivadas parciales, y el orador demuestra cómo se puede entrenar la red neuronal más simple del mundo utilizando este enfoque. También se analiza la constante de velocidad óptima para una red neuronal, y el orador presenta una red neuronal más compleja con dos entradas y salidas. Por último, se introduce el principio de reutilización para abordar el problema de la posible explosión exponencial de caminos a través de grandes redes. En general, el video enfatiza que las grandes ideas en las redes neuronales suelen ser simples y fáciles de pasar por alto, aunque pueden tener un impacto significativo en el campo.
Clase 12b: Redes Neuronales Profundas
12b: Redes neuronales profundas
Este video cubre varios temas relacionados con redes neuronales profundas, incluido el proceso de cálculo involucrado, redes neuronales convolucionales, algoritmos de codificación automática, ajuste de parámetros en la capa de salida, softmax y retropropagación con redes convolucionales. El video también explora conceptos como máximos locales, redes de ampliación y aprendizaje de redes neuronales, mientras demuestra cómo funcionan las redes neuronales profundas en el procesamiento de imágenes. En general, el video proporciona una descripción general completa de los principales conceptos involucrados en las redes neuronales profundas, incluidas sus fortalezas y limitaciones.
Lección 13. Aprendizaje: algoritmos genéticos
13. Aprendizaje: algoritmos genéticos
Este video trata el concepto de algoritmos genéticos, que imitan la evolución y nos permiten resolver problemas complejos. El proceso de herencia genética a través de los cromosomas se descompone y simula utilizando cromosomas binarios con opciones de mutaciones y cruces. Las probabilidades de supervivencia y clasificación de los candidatos se explican con un ejemplo, mostrando la efectividad cuando se ejecuta correctamente. Se discute el desafío de superar los máximos locales y la introducción de la técnica de recocido simulado. Se muestran aplicaciones prácticas de algoritmos genéticos, incluido un proyecto sobre la construcción de un sistema experto basado en reglas y la evolución de criaturas formadas por objetos en forma de bloques. El ponente reflexiona sobre los orígenes y el éxito de los algoritmos genéticos, destacando que la diversidad es un componente clave de su éxito.
Lección 14. Aprendizaje: espacios dispersos, fonología
14. Aprendizaje: espacios dispersos, fonología
En esta sección del video, el profesor Winston presenta el concepto de espacios dispersos y fonología como mecanismos relacionados con la investigación sobre cómo aprenden los humanos. Discute la interacción entre lo que vemos y lo que escuchamos cuando se trata del aprendizaje de idiomas, utilizando ejemplos para ilustrar cómo las señales visuales pueden influir en lo que percibimos en el lenguaje. El hablante explica los elementos y las conexiones de una máquina diseñada para reconocer y producir sonidos del habla, incluidos los registros, un conjunto de palabras, restricciones y un búfer de fonemas. También explica la técnica de generalizar patrones en fonología usando ejemplos positivos y negativos para aprender, usando un ejemplo de clase de observar las características distintivas asociadas con las palabras "gatos" y "perros". Finalmente, analiza la importancia de crear restricciones que coincidan con la función del mecanismo e incorporar una representación visual para comprender y resolver mejor un problema.
Clase 15. Aprendizaje: Near Misses, Condiciones Felicity
15. Aprendizaje: cuasi accidentes, condiciones de felicidad
En este video, el profesor Patrick Winston analiza el concepto de aprender de las condiciones de casi accidentes y felicidad. Utiliza diferentes ejemplos, incluida la construcción de un arco y la identificación de las restricciones específicas necesarias para que se considere un arco. También explica cómo un programa de computadora podría identificar las características clave de un tren utilizando el aprendizaje heurístico. El orador enfatiza la importancia de la autoexplicación y la narración de historias, especialmente cómo incorporar ambos en las presentaciones puede hacer que una idea se destaque y se haga famosa. En última instancia, él cree que empaquetar ideas no se trata solo de IA, sino también de hacer buena ciencia, volverse más inteligente y más famoso.
Lección 16. Aprendizaje: Máquinas de Vectores Soporte
16. Aprendizaje: máquinas de vectores de soporte
En el video, Patrick Winston explica cómo funcionan las máquinas de vectores de soporte (SVM) y cómo se pueden usar para optimizar una regla de decisión. Explica que el algoritmo SVM usa una transformación, Phi, para mover un vector de entrada, x, a un nuevo espacio donde es más fácil separar dos vectores similares. La función kernel, k, proporciona el producto escalar de x sub i y x sub j. Todo lo que se necesita es la función, k, que es una función kernel. A Vapnik, un inmigrante soviético que trabajó en SVM a principios de la década de 1990, se le atribuye haber revivido la idea del kernel y convertirlo en una parte esencial del enfoque de SVM.