Redes Neurais em IA e Deep Learning - página 6

 

La historia de la inteligencia artificial [Documental]



La historia de la inteligencia artificial [Documental]

El documental Historia de la Inteligencia Artificial nos lleva a través de los primeros días del concepto de "máquina pensante", generado por los escritores de ciencia ficción y la industria del cine, hasta los avances actuales en IA y procesos de aprendizaje profundo. El documental muestra el progreso realizado en IA, la capacidad de las máquinas para aprender como los humanos y los principios detrás de cómo funcionan las computadoras. El video explora las limitaciones de las computadoras, el potencial para su desarrollo y el posible futuro de la inteligencia artificial (IA). Los científicos discuten la posibilidad de que las máquinas puedan pensar y producir nuevas ideas, y el objetivo es crear un sistema informático más general que pueda aprender por experiencia, formar conceptos y hacer lógica. Los primeros pasos hacia la IA se pueden ver en una pequeña máquina informática que puede aprender de la experiencia, como se muestra en el ejemplo de un ratón controlado eléctricamente que resuelve un laberinto.

La segunda parte explora las limitaciones y el potencial de las computadoras en términos de pensamiento, sentimiento y creatividad. Si bien las computadoras sobresalen en las operaciones lógicas y los cálculos matemáticos, tienen dificultades con el reconocimiento, el reconocimiento de patrones y la generalización, el reconocimiento de bloques, la traducción de idiomas y la realización de tareas simples. A pesar de los resultados iniciales decepcionantes, los sistemas y programas expertos como SHRDLU y TENDRIL mostraron cómo las computadoras pueden usar el conocimiento para resolver la ambigüedad y el aprendizaje de idiomas. Sin embargo, persiste el desafío de enseñar el conocimiento del sentido común, que incluye tanto el conocimiento factual como las experiencias que las personas adquieren con el tiempo. Las redes neuronales, aunque inicialmente son atractivas, tienen limitaciones y solo son capaces de abordar pequeñas tareas. Los investigadores deben entrenar a las computadoras para comprender cómo la naturaleza construye y coordina muchas micromáquinas dentro del cerebro antes de que se pueda construir una versión completamente artificial.

La tercera parte cubre una amplia gama de temas relacionados con la historia y el futuro de la inteligencia artificial. Analiza los esfuerzos en curso para lograr una inteligencia de propósito general basada en el sentido común, incluido el proyecto Cyc y el potencial para la comprensión general del lenguaje natural en la IA. También se exploran los desafíos para lograr una inteligencia similar a la humana, incluida la necesidad de modelos formales de inteligencia y el papel de la psicología. Los entrevistados discuten el impacto de las computadoras en el campo de la psicología, así como los desafíos que plantea el razonamiento no monótono y la necesidad de avances conceptuales. A pesar de las críticas, los entrevistados ven el objetivo de la IA como un proyecto noble que puede ayudarnos a comprendernos mejor a nosotros mismos.

  • 00:00:00 En esta sección, nos transportamos a la década de 1950, cuando la idea de una "máquina pensante" todavía era un sueño, sostenido solo por los escritores de ciencia ficción y la industria del cine. La película "La máquina pensante" siguió a una discusión sobre si las máquinas realmente pueden pensar, un concepto que todavía era demasiado inverosímil en ese momento, ya que el campo de la inteligencia artificial estaba solo en sus primeras etapas y los investigadores aún no lo habían descubierto. cómo hacer que las máquinas produzcan ideas genuinamente nuevas. Hoy, el documental nos recuerda los avances en IA y los procesos de aprendizaje profundo que han contribuido a avances tecnológicos que a veces damos por sentado.

  • 00:05:00 En esta sección de la transcripción, a un niño se le enseña el alfabeto y un psicólogo pregunta cómo el cerebro reconoce patrones. Luego, la conversación cambia al potencial de las computadoras para imitar el mismo proceso de aprendizaje de un niño al mostrarle el alfabeto por primera vez. La computadora se prueba y, aunque no es perfecta, puede identificar con precisión las letras con mayor precisión a medida que se le presenta más información. Se explora la posibilidad de que las máquinas puedan aprender como los humanos, pero los procesos de pensamiento específicos de las máquinas aún no están claros y se está descubriendo toda la gama de utilidades de las computadoras.

  • 00:10:00 En esta sección, se muestra a un grupo de profesores de Carnegie Tech llamados Simon y Newell intentando comprender problemas lógicos como el rompecabezas de misioneros y caníbales. Representan su progreso al abordar el problema de hacer que los tres misioneros y caníbales crucen el río en un bote que solo puede llevar a dos personas a la vez sin que los caníbales superen en número a los misioneros. Una conversación entre profesores revela que una de sus alumnas llamada Bárbara ha encontrado una solución al problema que ahora ha reproducido la computadora. Además, los profesores muestran una demostración de un hombre jugando a las damas contra una computadora que llama la atención sobre la capacidad de una computadora para aprender sobre la base de las probabilidades o la razonabilidad que se le han programado.

  • 00:15:00 En esta sección, el video explora la cuestión de cómo funcionan las computadoras, explicando que toman entradas, las procesan mediante operaciones matemáticas y generan resultados a través de la programación. Si bien existen similitudes entre las computadoras y los sistemas nerviosos vivos, los neurofisiólogos creen que hay muchas más diferencias que similitudes. El video también toca la idea de que los humanos están programados tanto hereditariamente como por experiencia, y ofrece un experimento en el que los patitos criados de forma aislada no pudieron reconocer la silueta de un ganso. En general, la sección proporciona una breve explicación de los principios detrás de cómo funcionan las computadoras y profundiza en algunas ideas sobre la programación tanto en máquinas como en seres vivos.

  • 00:20:00 En esta sección, dos hombres discuten el concepto de programación versus instinto en animales. Mientras que uno argumenta que la capacidad del pato para diferenciar entre un ganso y un halcón es un ejemplo de instinto, el otro sugiere que algunos animales nacen con más conocimiento incorporado de lo que se pensaba anteriormente. Analizan la investigación realizada en ranas y sugieren que las fibras en el ojo de una rana solo informan cosas específicas al cerebro que están relacionadas con la supervivencia de la rana, como el movimiento y la presa potencial. Esta teoría, aunque aún no ampliamente aceptada, podría explicar la existencia del instinto.

  • 00:25:00 En esta sección, vemos a un investigador realizando un experimento con un niño de cinco años para probar que los humanos nacen con ciertas habilidades innatas. Se le pide al niño que llene su vaso con leche hasta el mismo nivel que el vaso del investigador, pero lo llena hasta el borde, pensando que es la misma cantidad. Esto sugiere que algunas nociones sobre el mundo que nos rodea están preconcebidas en nuestras mentes y confiamos en nuestros ojos para formar nuestros conceptos del mundo que nos rodea. El video continúa demostrando que lo que vemos con nuestros ojos no siempre es exacto, y las ilusiones pueden engañar a nuestro cerebro.

  • 00:30:00 En esta sección, un profesor habla con otro hombre sobre cómo los humanos están programados para reaccionar según reglas y creencias preconcebidas. El hombre se pregunta si una computadora puede hacer algo original y el profesor le muestra una obra escrita por una computadora con la ayuda de un programador llamado Harrison Morse. El público queda asombrado con la impresión de la obra y el profesor explica que no es magia, sino el resultado de un programa bien diseñado.

  • 00:35:00 En esta sección, el miembro del personal del MIT, Doug Ross, explica cómo usaron un programa para escribir una obra de teatro que ilustra las reglas que constituyen el comportamiento inteligente. Destacan que el comportamiento inteligente es un comportamiento que obedece las reglas y muestran cómo se puede hacer que una computadora haga un trabajo creativo. Mencionan las reglas que usa la computadora para determinar un comportamiento razonable, e incluso han programado un factor de embriaguez que afecta el comportamiento del ladrón. Resaltan que no hay magia negra en hacer estas cosas en máquinas, y muestran que la computadora escribe una jugada diferente cada vez, demostrando su creatividad.

  • 00:40:00 En esta sección, el video explora las limitaciones de las computadoras y el potencial para su desarrollo. La animación destaca el proceso de prueba y error involucrado en la programación de una computadora y la posibilidad de errores. Luego, el video muestra un experimento en el que se usa una computadora para estudiar señales en el cerebro humano, lo que destaca el potencial de las computadoras para mejorar nuestra comprensión de los procesos de aprendizaje. Luego, el video muestra a los espectadores el Laboratorio Lincoln y su computadora TX2, que es una de las computadoras más grandes y versátiles del mundo. El video sugiere que las computadoras como la TX2 se están utilizando para estudiar los procesos de aprendizaje y que las computadoras se están desarrollando a nivel mundial con fines científicos.

  • 00:45:00 En esta sección, los científicos discuten la posibilidad de que las máquinas puedan pensar y producir nuevas ideas. Mientras que algunos creen que las máquinas y los programas de computadora podrán comportarse de manera inteligente y ayudar a los humanos a aliviar la carga del trabajo intelectual, otros dudan de que las máquinas alguna vez sean capaces de un verdadero pensamiento creativo. Se predice que el futuro de las computadoras tendrá efectos tanto directos como indirectos, como hacer que las máquinas funcionen de diversas maneras y aprender cosas nuevas a medida que los humanos trabajan con computadoras. Se espera que la segunda revolución industrial sea la era de la asistencia de la mente humana por la computadora, y las posibilidades de lo que las máquinas pueden hacer con la ayuda humana son difíciles de imaginar.

  • 00:50:00 En esta sección, la atención se centra en el potencial de la inteligencia artificial (IA) y su posible desarrollo en el futuro. El objetivo es crear un sistema informático más general que pueda aprender por experiencia, formar conceptos y hacer lógica. Consistirá en órganos de los sentidos, un gran programa informático flexible de propósito general y dispositivos de salida. Si bien se están logrando avances, existe preocupación sobre la gestión del impacto de la tecnología. Sin embargo, un científico cree que si lo manejamos correctamente, podemos hacer un mundo mucho mejor. Los primeros pasos hacia la IA se pueden ver en una pequeña máquina informática que puede aprender de la experiencia, como se muestra en el ejemplo de un ratón controlado eléctricamente que resuelve un laberinto.

  • 00:55:00 En esta sección, vemos una demostración de un ratón navegando por un laberinto, controlado por un sistema de relés telefónicos e interruptores Reed. El mouse es capaz de agregar nueva información y adaptarse a los cambios. La demostración muestra al mouse reemplazando información antigua y obsoleta con lo que está aprendiendo sobre la nueva configuración del laberinto. Si bien es la máquina debajo del piso del laberinto la que realmente mueve el mouse, la demostración ofrece una idea del tipo de comportamiento inteligente que se puede lograr.

  • 01:00:00 En esta sección, el video explora la definición de "pensar" y cómo se relaciona con las computadoras. Si bien las computadoras sobresalen en el almacenamiento y recuperación de información, eso por sí solo no abarca el verdadero pensamiento. Sin embargo, las computadoras pueden realizar operaciones lógicas, como jugar al ajedrez, donde analizan datos y determinan el mejor movimiento. Esta exhibición de funciones lógicas básicas ha otorgado a algunas computadoras el primer lugar en torneos de ajedrez amateur.

  • 01:05:00 En esta sección, el video explora cómo las computadoras son capaces de realizar operaciones lógicas, incluso tomar millones de decisiones lógicas cada día, pero están limitadas en términos de capacidad de visualización y reconocimiento. Si bien las computadoras pueden producir imágenes y simular diseños, tienen dificultades para reconocer patrones y generalizar. El video también señala la dificultad de enseñar a una computadora a traducir idiomas debido a la falta de correspondencia uno a uno entre palabras de diferentes idiomas. En última instancia, las computadoras carecen de la capacidad de pensar, sentir o tener consideración por cualquier cosa.

  • 01:10:00 En esta sección, el video analiza las capacidades de las computadoras en términos de emociones y creatividad. Si bien las computadoras en realidad no pueden sentir emociones, pueden programarse para simularlas. De manera similar, aunque a menudo se piensa que la creatividad es una capacidad exclusivamente humana, las computadoras son capaces de producir películas animadas e incluso música. La utilidad y la eficiencia de las computadoras, incluidos los miles de millones de operaciones matemáticas que pueden realizar sin cometer un error, es innegable, pero la cuestión de si tienen la capacidad de "pensar" realmente sigue siendo objeto de debate.

  • 01:15:00 que las computadoras pudieran jugar juegos como las damas y resolver problemas complejos condujo al nacimiento de la inteligencia artificial (IA). Esto se convirtió en una frontera para la exploración de un grupo de matemáticos, encabezado por Marvin Minsky y John McCarthy, quienes crearon un departamento en el MIT para explorar las posibilidades de la IA. Estudiantes como Jim Slagle desarrollaron programas para resolver problemas de cálculo y, en 1960, una computadora pudo obtener una A en un examen del MIT, con un desempeño tan bueno como el de un estudiante promedio. Esto demostró que las computadoras podían tener inteligencia y generó esperanzas de un futuro en el que las máquinas pudieran pensar.

  • 01:20:00 En esta sección, el documental explora los primeros días de la inteligencia artificial y cómo los pioneros en el campo no se preocuparon por la construcción física del cerebro. Vieron la mente como una entidad de procesamiento simbólico, mientras que el cerebro era simplemente el hardware en el que se ejecuta la mente. El documental argumenta que copiar ciegamente la forma en que la naturaleza hace las cosas no siempre es una buena idea, y que los intentos de vuelo artificial basados en la forma en que vuelan los pájaros han sido un desastre. El documental destaca las dificultades que surgieron cuando los científicos del MIT intentaron construir una mente de computadora que pudiera interactuar con el mundo y apilar bloques. Se dice que aunque pueda parecer una tarea sencilla, reconocer bloques es en realidad muy complicado, y el programa tenía algunas ideas extrañas sobre lo que sucede con los bloques cuando los sueltas.

  • 01:25:00 En esta sección, el documental explora los desafíos de enseñar a las computadoras a ver y moverse como humanos. Los investigadores descubrieron que los problemas computacionales de la visión eran tan inmensos que muchos decidieron centrarse en una forma de inteligencia incorpórea, conocida como prueba de Turing, que mide la capacidad de una máquina para usar el lenguaje de manera inteligente. Uno de los primeros programas de computadora creados para este propósito fue el programa "Eliza", que usaba una serie de trucos para simular una conversación pero no podía pasar la prueba de Turing. El documental destaca cómo la complejidad de la comprensión del lenguaje humano dificultó el desarrollo de modelos de lenguaje de IA que pudieran comprender el significado y el contexto como los humanos.

  • 01:30:00 En esta sección, el video analiza los primeros intentos de usar computadoras para traducir idiomas, que se encontraron con graves problemas debido a problemas de ambigüedad y contexto. A pesar de las afirmaciones de que las computadoras podrían reemplazar a los traductores humanos, la complejidad del lenguaje y la necesidad de un conocimiento y una comprensión humanos comunes hicieron que esta tarea fuera mucho más difícil de lo previsto. La incapacidad de las computadoras para reconocer rostros, aprender idiomas y realizar tareas simples como vestirse muestra que las cosas que la gente piensa que son fáciles son en realidad muy difíciles de lograr para la IA. Los fracasos de la IA provocaron una disminución de la financiación y un panorama sombrío para el campo.

  • 01:35:00 En esta sección, vemos que a pesar de los decepcionantes resultados iniciales, el programa de Terry Winograd llamado SHRDLU demostró que las computadoras pueden usar el conocimiento para resolver la ambigüedad y el aprendizaje de idiomas. Sin embargo, estaba restringido a un micromundo simulado de bloques. Edward Feigenbaum y sus colegas desarrollaron un sistema llamado TENDRIL que capturó las reglas que usan los expertos en campos limitados para tomar decisiones. Descubrieron que el comportamiento experto en áreas estrechas solo requiere unos pocos cientos de conocimientos. Esto condujo al desarrollo de sistemas expertos que demostraron ser frágiles y carecían de flexibilidad para operar fuera de sus campos de conocimiento.

  • 01:40:00 En esta sección, el documental cubre los desafíos que enfrentaron los investigadores del lenguaje en la década de 1970 que intentaban que las computadoras siguieran historias simples como lo hacen los niños. Descubrieron que el problema no era lo que decía la historia, sino la gran cantidad de cosas que no se decían porque eran demasiado obvias para decirlas. Los investigadores desarrollaron la idea de construir marcos o guiones para diferentes situaciones que la computadora podría encontrar, como una fiesta de cumpleaños, que contendrían todas las cosas que generalmente sucedían en las fiestas de cumpleaños. Sin embargo, el desafío era cómo incluir conocimientos básicos generales, que no eran específicos de la situación o el contexto. Este conocimiento general creó un problema de conocimiento de sentido común, lo que dificultaba enseñar a las computadoras a interpretar historias simples.

  • 01:45:00 En esta sección, el extracto analiza el conocimiento del sentido común y la dificultad de enseñarlo a las máquinas. El conocimiento del sentido común es el conocimiento intuitivo que todos comparten, como saber que los objetos caen cuando se sueltan. Sin embargo, no se trata solo de conocimientos fácticos, sino también de habilidades y experiencias que las personas adquieren con el tiempo. Los científicos han estado interesados durante mucho tiempo en enseñar a las máquinas cómo aprender y adquirir conocimientos como los humanos, pero las computadoras comenzaron con niveles de aprendizaje tan bajos que el aprendizaje automático no fue efectivo hasta que se les proporcionó una gran cantidad de conocimiento de sentido común. El proyecto PYSCH se creó en Texas en 1984 para aportar conocimientos de sentido común y fue la prueba definitiva de la IA. Sin embargo, los críticos argumentaron que el verdadero sentido común dependía de tener un cuerpo humano, y que el conocimiento del sentido común no solo se compone de hechos, sino también de experiencias y habilidades que los niños adquieren con el tiempo.

  • 01:50:00 En esta sección, el video explora la idea del conocimiento del sentido común y cómo se adquiere a través de las experiencias del mundo, pero también presenta el caso de un paciente sin experiencias físicas que aún adquirió el sentido común a través del lenguaje. Luego, el video profundiza en el argumento de que para construir una mente artificial, primero se debe construir un cerebro artificial. La complejidad del cerebro humano, compuesto por miles de millones de neuronas conectadas de miles de maneras, inspiró a los científicos en la década de 1950 a perseguir la idea de construir un cerebro artificial, lo que condujo al desarrollo de perceptrones que luego se convirtieron en redes neuronales. El modelo de percepción moderno de las redes neuronales es un movimiento en crecimiento llamado conexionistas y se enfoca en el aprendizaje automático a través del cerebro en lugar de la mente.

  • 01:55:00 prueba y error, en esta sección el documental se enfoca en las redes neuronales y sus limitaciones. Si bien las redes neuronales fueron inicialmente atractivas, solo son capaces de conquistar tareas de pequeño alcance, y los investigadores aún no comprenden completamente cómo aprenden. El ejemplo de una red neuronal que aprende a distinguir entre imágenes con tanques y sin ellos destaca la posibilidad de que las redes lleguen a conclusiones incorrectas. Si bien la posibilidad de que pequeñas redes neuronales capturen algo tan elaborado como el sentido común es intrigante, los investigadores admiten que este objetivo a largo plazo aún está lejos de ser alcanzable con la tecnología actual. Además, los intentos de crear redes neuronales de más de unos pocos cientos de neuronas a menudo resultan contraproducentes debido al largo tiempo de entrenamiento requerido. Por lo tanto, los investigadores deben entender cómo la naturaleza construye y coordina muchas micromáquinas dentro del cerebro antes de poder construir una versión totalmente artificial.

  • 02:00:00 En esta sección, la transcripción analiza cómo las aplicaciones prácticas de la inteligencia artificial se han apropiado del término, pero están lejos de la búsqueda original de lograr una inteligencia de propósito general basada en el sentido común. Sin embargo, la búsqueda de la IA no ha sido abandonada y el proyecto Cyc, iniciado por Doug Leonard en 1984, aún continúa. El proyecto tiene como objetivo construir una mente que sepa lo suficiente como para comprender el lenguaje y aprender todo lo que saben los humanos. A pesar de ser un software sin cuerpo ni experiencia directa del mundo, Psyche, la entidad de IA en el proyecto Cyc, analiza las inconsistencias en su base de datos y hace nuevos descubrimientos interesantes, mostrando que ve el mundo de una manera única.

  • 02:05:00 En esta sección, la discusión se centra en el potencial para la comprensión general del lenguaje natural en la inteligencia artificial y la necesidad de lograrlo para evitar la desaparición de la IA simbólica. El proyecto Psyche se menciona como un proyecto de alto riesgo con un alto potencial de rentabilidad si tiene éxito en pasar la prueba de Turing de comprensión general del lenguaje natural. Tal éxito podría conducir al desarrollo de programas de aprendizaje automático para aprender cosas desconocidas, amplificando así la inteligencia de formas que actualmente son inimaginables. El Dr. John McCarthy, uno de los fundadores de la inteligencia artificial, reflexiona sobre la historia de la disciplina y predijo el impacto que tendría en la sociedad.

  • 02:10:00 En esta sección, el video analiza las dificultades para lograr programas de computadora que sean tan inteligentes como los humanos. A pesar de algunos avances iniciales con problemas difíciles como resolver teoremas matemáticos, las tareas de sentido común como reconocer el habla han demostrado ser difíciles para la inteligencia informática. El orador y sus colegas han estado trabajando para desarrollar modelos formales de inteligencia que sean equivalentes a la inteligencia humana, pero existen diferentes enfoques para lograr este objetivo. El campo de la psicología también tuvo un papel que desempeñar en esto, con la informática ayudándolos a alejarse del conductismo y obtener conocimientos sobre la cognición.

  • 02:15:00 En esta sección, los expertos discuten el impacto de las computadoras en el campo de la psicología y cómo se ha abordado el concepto de conciencia en ambos campos. Si bien las computadoras han ofrecido grandes conocimientos sobre el funcionamiento de la mente, la cuestión de si las computadoras pueden alguna vez ser realmente conscientes de sí mismas sigue siendo un tema de debate filosófico. Además, la noción de que la conciencia es simplemente la suma de sus partes, como una máquina, no es del todo precisa, ya que la mente es un sistema complejo de partes especializadas que interactúan de maneras específicas.

  • 02:20:00 En esta sección, el entrevistado discute el retroceso de la visión de que los seres humanos tenemos algo que trasciende los aspectos mecanicistas de nuestro ser, a medida que se ha ido descubriendo sobre la fisiología y la psicología humanas. A pesar de esto, todavía hay aspectos de la conciencia humana que no se han realizado en las máquinas en los programas de computadora. El entrevistado, que se muestra optimista con la IA, habla del conjunto de problemas en los que se puede aplicar la fuerza bruta informática, que es bastante limitado, y que el problema central de la inteligencia artificial pasa por expresar el conocimiento sobre el mundo necesario para un comportamiento inteligente. Se ha buscado la lógica matemática como herramienta para esto y, a fines de la década de 1970, varias personas descubrieron formas de formalizar lo que llaman razonamiento no monótono, ampliando en gran medida el poder de la lógica matemática en el área del sentido común.

  • 02:25:00 En esta sección, el entrevistado analiza el razonamiento no monótono y cómo plantea un desafío para el pensamiento humano en las computadoras. La lógica ordinaria funciona agregando más premisas para sacar más conclusiones, mientras que el razonamiento humano no siempre tiene esa propiedad. Por ejemplo, el término "pájaro" tiene la suposición incorporada de que puede volar, y el contexto adicional puede cambiar las conclusiones extraídas de eso. El razonamiento no monótono se puede utilizar como una herramienta matemática para formalizar este tipo de pensamiento e introducir la conciencia del contexto en las computadoras. Sin embargo, el desafío con el contexto es que siempre hay excepciones que no se pueden explicar, por lo que se necesita un sistema donde se haga una suposición a menos que haya evidencia de lo contrario.

  • 02:30:00 En esta sección, John McCarthy, un pionero de la IA, analiza la historia de la IA y por qué los humanos tardaron tanto en desarrollar la inteligencia artificial. Explica que nuestra capacidad limitada para observar nuestros propios procesos mentales obstaculizó nuestro progreso, como se vio con el fracaso de Leibniz para inventar el cálculo proposicional, que en cambio fue inventado por Boule 150 años después. También reconoce que se necesitan avances conceptuales para el futuro de la IA y que puede tomar desde unas pocas décadas hasta varios cientos de años lograr una verdadera inteligencia similar a la humana en las máquinas. A pesar de las críticas sobre la imposibilidad de replicar la inteligencia humana, McCarthy ve el objetivo de la IA como un proyecto noble para entendernos mejor a nosotros mismos.
The History of Artificial Intelligence [Documentary]
The History of Artificial Intelligence [Documentary]
  • 2020.03.26
  • www.youtube.com
Visit Our Parent Company EarthOne For Sustainable Living Made Simple ➤https://earthone.io/ This video is the culmination of documentaries that cover the hist...
 

El nacimiento de la inteligencia artificial



El nacimiento de la inteligencia artificial

El video analiza el nacimiento de la inteligencia artificial (IA) moderna y el optimismo que la acompañó durante los "años dorados" de la IA en los años 60 y principios de los 70. Sin embargo, el campo enfrentó desafíos significativos, incluido el primer invierno de IA a mediados de los años 70 debido a la dificultad de los problemas que enfrentaron y al rendimiento computacional limitado.

Los sistemas expertos marcaron un punto de inflexión en el campo, cambiando el enfoque del desarrollo de inteligencia general a la inteligencia artificial específica de dominio, y ayudaron a aumentar la eficiencia comercial. Sin embargo, la exageración que rodeaba a los sistemas expertos condujo a una disminución de la financiación, especialmente después de la caída del mercado de 1987. El video reconoce los desafíos de comprender y definir la IA, y recomienda Brilliant como un recurso para que las personas aprendan sobre la IA desde los componentes básicos hasta las arquitecturas más avanzadas.

  • 00:00:00 En esta sección, aprendemos sobre el nacimiento oficial de la inteligencia artificial moderna en el proyecto de investigación de verano de Dartmouth en 1956, donde se acuñó por primera vez el término "inteligencia artificial". La conferencia tuvo como objetivo simular el aprendizaje humano describiendo cada característica de la inteligencia que las máquinas podrían simular. Los siete aspectos incluían la programación de computadoras para usar lenguaje, redes neuronales, abstracción, superación personal y aleatoriedad y creatividad. El período posterior a la conferencia se conoció como los "años dorados" de la IA, donde comenzaron a implementarse teorías y algoritmos de computación e IA, incluido el razonamiento como búsqueda, redes semánticas y micromundos. Estos algoritmos fueron innovadores e infundieron optimismo en el campo, lo que hizo que personas como Marvin Minsky creyeran que la creación de inteligencia artificial podría resolverse sustancialmente dentro de una generación.

  • 00:05:00 En esta sección, el video explora el nacimiento de la inteligencia artificial y cómo generó mucho optimismo y entusiasmo durante los años 60 y principios de los 70. Esto condujo a grandes cantidades de fondos principalmente del gobierno para la investigación e implementación de IA, lo que resultó en muchas instituciones de investigación a la vanguardia de la investigación de IA en la actualidad. Sin embargo, a mediados de los años 70 comenzó el primer invierno de la IA debido a la falta de apreciación de la dificultad de los problemas a los que se enfrentaban, sumado al hecho de que el campo de la informática aún se estaba definiendo durante este período. Se enumeraron cinco problemas, incluido el hecho de que los avances se lograron con un rendimiento computacional limitado y la paradoja de Moravec, una teoría postulada por el investigador de inteligencia artificial y robótica Hans Moravec en Carnegie Mellon.

  • 00:10:00 En esta sección, aprendemos cómo los sistemas expertos marcaron un punto de inflexión importante en el campo de la IA al cambiar el enfoque del desarrollo de inteligencia general a la IA de dominio específico. Los sistemas expertos, basados en el conocimiento de expertos en un dominio específico, tuvieron impactos tangibles en el mundo real y ayudaron a las empresas a aumentar su eficiencia, como se vio con el sistema experto en logística XCON, que ahorró a la corporación de equipos digitales casi 40 millones de dólares por año. Además, el surgimiento de los sistemas expertos ayudó a revivir el conexionismo, que surgió como una forma viable de aprender y procesar información. La red de Hopfield y la retropropagación, métodos para entrenar la IA, se popularizaron y refinaron durante este período, allanando el camino para el aprendizaje profundo. Sin embargo, a medida que las expectativas de los sistemas expertos se descontrolaron y comenzaron a aparecer grietas en sus frágiles sistemas basados en la lógica condicional, la financiación de la IA volvió a disminuir debido, en parte, a la caída de los mercados mundiales en 1987.

  • 00:15:00 En esta sección, la transcripción analiza los desafíos de definir y comprender la inteligencia artificial (IA), particularmente debido a los ciclos de exageración que han ido y venido durante el último siglo. El video reconoce la confusión que ha surgido con el auge y la caída de las palabras de moda de la IA, desde el aprendizaje profundo hasta la inteligencia humana artificial. La esperanza es separar la exageración de las aplicaciones prácticas actuales de la IA, como la experiencia específica de dominio en sistemas de aprendizaje profundo. El video recomienda Brilliant como un recurso para que las personas mantengan su cerebro alerta y aprendan sobre la IA desde sus componentes básicos hasta arquitecturas más avanzadas.
The Birth of Artificial Intelligence
The Birth of Artificial Intelligence
  • 2020.04.23
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Aprendizaje automático supervisado explicado




Aprendizaje automático supervisado explicado

El video explica que el aprendizaje supervisado involucra un conjunto de datos etiquetados, con el objetivo de aprender una función de mapeo de variables de entrada a variables de salida. El conjunto de datos etiquetado se divide en un conjunto de entrenamiento y un conjunto de prueba, y el modelo se entrena en el conjunto de entrenamiento y se evalúa en el conjunto de prueba para medir su precisión.

El video señala que puede ocurrir un ajuste excesivo si el modelo es demasiado complejo y se ajusta demasiado al conjunto de entrenamiento, lo que resulta en un rendimiento deficiente en los datos nuevos, mientras que se produce un ajuste insuficiente si el modelo es demasiado simple e incapaz de capturar la complejidad de los datos. El video proporciona el ejemplo del conjunto de datos del iris y recorre el proceso de entrenamiento de un modelo para predecir la especie de una nueva flor de iris en función de sus mediciones, utilizando el algoritmo del árbol de decisión.

  • 00:00:00 En esta sección, el video explica la definición y los propósitos del aprendizaje automático, que se puede usar para hacer predicciones basadas en datos pasados. El video proporciona el ejemplo de regresión, que mide las relaciones entre variables, crea una línea de mejor ajuste y usa esa línea para predecir nuevos datos. Luego, el video amplía esta idea para explicar los problemas de clasificación, lo que implica agregar datos de etiquetas y crear límites de decisión para clasificar la etiqueta de salida de nuevos datos. El video examina la precisión de este modelo y explica que los algoritmos de aprendizaje automático buscan maximizar la precisión del modelo. El video señala que los árboles de decisión son un tipo de algoritmo de aprendizaje automático que utiliza un enfoque basado en declaraciones condicionales, similar a los sistemas expertos.

  • 00:05:00 En esta sección, el video se sumerge en los diferentes tipos de algoritmos que se pueden usar para el aprendizaje automático, incluidas las máquinas de vectores de soporte y cómo se pueden agregar variables adicionales para espacios de mayor dimensión. El video también aborda la intersección de la inteligencia artificial, los grandes datos y la ciencia de datos, considerando que la ciencia de datos y las estadísticas son lo mismo por simplicidad. Luego, el video continúa explicando el aprendizaje supervisado, que se compone de dos modos principales de modelos de aprendizaje, regresión y clasificación, y cómo es esencialmente matemática estadística para problemas de reconocimiento de patrones, rebautizados como aprendizaje automático. El video concluye con una mención del aprendizaje no supervisado y el aprendizaje profundo, que se tratarán en videos futuros, y una recomendación de Brilliant.org para aquellos interesados en aprender más sobre las matemáticas y la ciencia detrás de estos conceptos.
Supervised Machine Learning Explained
Supervised Machine Learning Explained
  • 2020.05.07
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Explicación del aprendizaje automático no supervisado



Explicación del aprendizaje automático no supervisado

El video explica el aprendizaje automático no supervisado, que trata con datos no estructurados y sin etiquetar, y se usa principalmente para derivar estructuras a partir de datos no estructurados. Se divide en dos tipos: asociación y agrupamiento, donde el agrupamiento implica el uso de algoritmos como el agrupamiento de K-means para dividir el espacio de decisión en categorías o grupos discretos.

Los problemas de asociación identifican las correlaciones entre las características del conjunto de datos y, para extraer asociaciones significativas, la complejidad de las columnas debe reducirse mediante la reducción de la dimensionalidad. Este proceso implica minimizar la cantidad de características necesarias para representar un punto de datos y lograr resultados y asociaciones significativos mientras se previene el ajuste insuficiente o excesivo. El segmento final del video presentó el concepto de aprendizaje de matemáticas y ciencias en Brilliant, una plataforma que ofrece un aprendizaje de matemáticas y ciencias divertido e interconectado y proporciona un 20 % de descuento en suscripciones premium para ver contenido de futurología. El video también solicitó apoyo para el canal en Patreon o membresía de YouTube y recibió sugerencias para temas futuros en los comentarios.

  • 00:00:00 En esta sección, aprendemos sobre el aprendizaje automático no supervisado, que es para datos que no están etiquetados ni estructurados. Es representativo de la mayoría de los problemas del mundo real y tiene lugar en el cruce entre los grandes datos y el campo de la inteligencia artificial. El aprendizaje no supervisado se utiliza principalmente para derivar estructuras a partir de datos no estructurados. Este tipo de aprendizaje se subdivide en dos tipos principales: asociación y agrupación. El agrupamiento implica el uso de algoritmos como el agrupamiento de K-means, donde el objetivo es dividir un espacio de decisión con una cantidad de puntos de datos en un número específico de categorías o grupos discretos. Esto se hace agregando primero centroides y luego reasignando iterativamente puntos de datos a sus nuevos grupos mientras se actualizan los centroides.

  • 00:05:00 En esta sección, el enfoque cambia del agrupamiento a la asociación en el aprendizaje no supervisado. Los problemas de asociación identifican las correlaciones entre las características de un conjunto de datos, a diferencia del agrupamiento, que agrupa puntos de datos similares. Para extraer asociaciones significativas, la complejidad de las columnas en el conjunto de datos debe reducirse mediante la reducción de la dimensionalidad, donde se minimiza la cantidad de características para representar de manera única un punto de datos. La extracción de características se puede realizar seleccionando un número óptimo de características para evitar el ajuste insuficiente o excesivo del conjunto de datos. La reducción de la dimensionalidad se logra a través del aprendizaje múltiple, donde los datos de alta dimensión se pueden representar mediante variedades de baja dimensión. La representación de baja dimensión del conjunto de datos contiene el conjunto de características reducido necesario para representar el problema y aun así producir resultados y asociaciones significativos. La ingeniería de funciones es un subcampo del aprendizaje automático que incluye la reducción de la dimensionalidad, la selección de funciones y la extracción.

  • 00:10:00 Este segmento final del video presenta el concepto de aprender matemáticas y ciencias para obtener una comprensión más profunda de los conceptos discutidos en el canal. Brilliant, una plataforma que hace que el aprendizaje de matemáticas y ciencias sea emocionante, interconectado y ofrece aprendizaje fuera de línea. Además, los usuarios pueden aprender sobre futurología y obtener un 20% de descuento en suscripciones premium visitando el enlace proporcionado. Finalmente, se alienta a los espectadores a apoyar el canal en Patreon o membresía de YouTube y dejar sugerencias para temas futuros en los comentarios.
Unsupervised Machine Learning Explained
Unsupervised Machine Learning Explained
  • 2020.05.14
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Qué es el aprendizaje automático (explicación del aprendizaje automático)



Qué es el aprendizaje automático (explicación del aprendizaje automático)

El aprendizaje automático es un campo de estudio que permite que las computadoras aprendan sin ser programadas explícitamente. Implica el uso de algoritmos para formar límites de decisión sobre el espacio de decisión de un conjunto de datos. Esta comprensión del aprendizaje automático es la segunda más utilizada y establecida por el Dr. Tom Mitchell.

El aprendizaje automático se puede atribuir al aumento en el poder de cómputo y el almacenamiento que permitió obtener datos mejores y más grandes, y el aumento del aprendizaje profundo. Si bien se clasifica como inteligencia artificial débil, ya que las tareas que realiza a menudo son aisladas y específicas del dominio. El aprendizaje automático abarca muchos enfoques y modelos diferentes, y aunque nunca pueden ser 100 % precisos en la predicción de resultados en problemas del mundo real debido a abstracciones y simplificaciones, aún pueden ser útiles en una amplia gama de aplicaciones. Brilliant se menciona como uno de los recursos para aprender sobre el aprendizaje automático y otros temas STEM.

  • 00:00:00 En esta sección, la atención se centra en el significado y la definición de aprendizaje automático y cómo se relaciona con la inteligencia artificial. El aprendizaje automático es un campo de estudio que brinda a las computadoras la capacidad de aprender sin ser programadas explícitamente. Implica el uso de algoritmos para formar límites de decisión sobre el espacio de decisión de un conjunto de datos. El proceso de formación del modelo se conoce como entrenamiento, y una vez que un modelo entrenado muestra una buena precisión en los datos de entrenamiento, se puede usar para inferir para predecir nuevos resultados de datos. Este proceso define la segunda definición más utilizada de aprendizaje automático establecida por el Dr. Tom Mitchell de la Universidad Carnegie Mellon.

  • 00:05:00 En esta sección, el video explora el auge del aprendizaje automático y la inteligencia artificial al destacar las cinco tribus principales del aprendizaje automático: simbolistas, conexionistas, evolutivos, bayesianos y analogizadores. Continúa explicando cómo el desarrollo de la IA pasó de intentar crear una IA más general y fuerte en los primeros días de la IA, a centrarse en adquirir experiencia en dominios específicos en varios campos. El auge del aprendizaje automático se puede atribuir al aumento de la potencia informática y el almacenamiento que permitió obtener datos mejores y más grandes y el auge del aprendizaje profundo. Además, el video aborda cuántos avances de IA fueron posibles debido a que los datos son un gran cuello de botella en la industria.

  • 00:10:00 Esta sección explica que, si bien el aprendizaje automático es una forma de inteligencia artificial, se clasifica como IA débil porque las tareas que realiza a menudo son aisladas y específicas de un dominio. El aprendizaje automático abarca muchos enfoques diferentes, desde reglas complejas y árboles de decisión hasta enfoques basados en la evolución y más, todo con el objetivo de modelar las complejidades de la vida de forma muy parecida a como intentan hacerlo nuestros cerebros. Si bien se reconoce que los modelos nunca pueden ser 100 % precisos en la predicción de resultados en problemas del mundo real debido a abstracciones y simplificaciones, los modelos de aprendizaje automático aún pueden ser útiles en una amplia gama de aplicaciones. El video alienta a los espectadores a buscar recursos adicionales para obtener más información, incluida Brilliant, una plataforma que ofrece cursos y desafíos diarios que cubren una variedad de temas STEM.
What Is Machine Learning (Machine Learning Explained)
What Is Machine Learning (Machine Learning Explained)
  • 2020.05.30
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Explicación del aprendizaje profundo (y por qué el aprendizaje profundo es tan popular)



Explicación del aprendizaje profundo (y por qué el aprendizaje profundo es tan popular)

El video explica que la popularidad del aprendizaje profundo se deriva del hecho de que puede aprender funciones directamente de los datos y utiliza redes neuronales para aprender las funciones subyacentes en un conjunto de datos. El auge del aprendizaje profundo se puede atribuir a los grandes datos, el aumento de la potencia de procesamiento y las interfaces de software optimizadas.

  • 00:00:00 En esta sección, el video explica que el aprendizaje profundo es un subcampo de la inteligencia artificial que se ha vuelto popular debido al éxito de la tribu conexionista del aprendizaje automático. Los sistemas de aprendizaje profundo pueden aprender características directamente de los datos y usar redes neuronales para aprender características subyacentes en un conjunto de datos. El elemento clave del aprendizaje profundo es que las capas de funciones se aprenden a partir de los datos mediante un procedimiento de aprendizaje de propósito general, en lugar de ser diseñado a mano. El video también ofrece un ejemplo de una red neuronal que detecta un rostro en una imagen de entrada, comenzando con características de bajo nivel, discerniendo características de nivel medio y finalmente descubriendo características de alto nivel para identificar varias estructuras faciales. El video finalmente señala que el verdadero nacimiento del aprendizaje profundo se produjo en 2012 con la competencia ImageNet, donde el algoritmo ganador tuvo una tasa de error del 16 %, casi un 10 % mejor que su competidor más cercano.

  • 00:05:00 En esta sección, el video analiza cómo el aumento del aprendizaje profundo se puede atribuir a factores como la omnipresencia de los grandes datos, el aumento de la potencia informática, las interfaces de software optimizadas como TensorFlow y la capacidad del aprendizaje profundo para procesar datos no estructurados. El video también aborda el desarrollo histórico de las redes neuronales, desde las redes de perceptrón de una sola capa de los años 60 hasta las redes profundas modernas con decenas a cientos de capas. Además, el video recomienda Brilliant.org como un gran recurso de aprendizaje para aquellos interesados en profundizar en el campo del aprendizaje profundo.
Deep Learning Explained (& Why Deep Learning Is So Popular)
Deep Learning Explained (& Why Deep Learning Is So Popular)
  • 2020.08.01
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Del cerebro a la IA (Qué son las redes neuronales)




Del cerebro a la IA (Qué son las redes neuronales)

El video analiza los componentes de una neurona artificial, que es el elemento principal de una red neuronal artificial, y cómo se basa en la estructura de una neurona biológica.

También explica cómo las redes neuronales derivan la representación de grandes cantidades de datos en un proceso capa por capa que se puede aplicar a cualquier tipo de entrada. El video recomienda ir a bright.org para obtener más información sobre los componentes básicos de los algoritmos de aprendizaje profundo.

  • 00:00:00 En esta sección, el video explica los conceptos básicos de una neurona artificial, el componente principal de una red neuronal artificial. La estructura de una neurona artificial es similar a una neurona biológica, con tres componentes principales: el soma o el núcleo, las dendritas o los brazos que se conectan a otras neuronas y el axón o la cola larga que transmite información hacia y desde la célula. cuerpo. El video muestra cómo la estructura básica de una arquitectura de red neuronal de aprendizaje profundo se derivó del primer dibujo de una neurona de Santiago Ramón y Cajal, representando las dendritas como las entradas, el soma como el centro de procesamiento y el axón como la salida. Además, se modelaron las conexiones o sinapsis entre neuronas, y se relacionó la fuerza de la conexión con el grosor de la línea.

  • 00:05:00 En esta sección, el video analiza cómo funcionan las redes neuronales para derivar la representación de grandes cantidades de datos. Continúa explicando cómo sucede esto en un proceso capa por capa que puede traducirse en cualquier tipo de entrada, desde los valores de píxel de un reconocimiento de imagen hasta las frecuencias de audio del habla para el reconocimiento de voz o el historial médico de un paciente para predecir el probabilidad de cáncer. El video también menciona que para obtener más información sobre el campo, uno debe considerar visitar bright.org, una plataforma para mantener el cerebro alerta y creativo, y comprender los componentes básicos de los algoritmos de aprendizaje profundo.
From The Brain To AI (What Are Neural Networks)
From The Brain To AI (What Are Neural Networks)
  • 2020.08.30
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Cómo hacer una red neuronal | Explicación de las redes neuronales



Cómo hacer una red neuronal | Explicación de las redes neuronales

El video explica cómo las redes neuronales forman capacidades de reconocimiento de patrones al analizar la estructura y las matemáticas involucradas. Utiliza una imagen como ejemplo y analiza la capa de entrada, los nodos de la capa de salida y presenta la idea de las capas ocultas.

Luego, el video profundiza en las funciones de activación y cómo convierten las señales de entrada en señales de salida. Se analizan la función de tangente hiperbólica y la capa de unidad lineal rectificada, y se revela que la red neuronal construida requiere una ingeniería humana significativa para garantizar valores no ambiguos. El video recomienda Brilliant.org para obtener más información.

  • 00:00:00 En esta sección, el video continúa donde lo dejó el último al analizar más a fondo la estructura y las matemáticas de las redes neuronales para ver cómo forman capacidades de reconocimiento de patrones. Para comprender mejor este complejo tema, se utilizará una imagen como ejemplo intuitivo. La capa de entrada se define como los píxeles que componen la imagen y los nodos de la capa de salida se establecen arbitrariamente para cuatro tipos diferentes de estructuras. Luego, el video presenta la idea de las capas ocultas, a las que se pueden aplicar funciones de activación para reasignar el valor de entrada y agregar límites al valor del nodo sin procesar. También se incorporan pesos para mostrar cómo la entrada a nuestro nodo de capa oculta se ve afectada por imágenes de entrada aleatorias.

  • 00:05:00 En esta sección, el video analiza cómo funcionan las funciones de activación para convertir las señales de entrada en una señal de salida que pueden entender las siguientes capas en una red neuronal. La función tangente hiperbólica se usa como ejemplo, que asigna todos los valores en el eje X a un valor Y entre menos uno y uno. Al agregar más nodos, los campos receptivos se vuelven más complicados y, por ejemplo, en la tercera capa oculta, la red comienza a reconocer patrones como una cruz invertida. Finalmente, se introduce la capa de unidad lineal rectificada, que rectifica los valores negativos y mantiene los positivos iguales, lo que lleva a una red neuronal completa lista para la prueba.

  • 00:10:00 En esta sección, la red neuronal construida en la sección anterior se analiza en profundidad para comprender cómo identifica patrones en una imagen de entrada. Se revela que la red construida no es perfecta y requiere una ingeniería humana significativa para garantizar valores no ambiguos. El próximo video de la serie cubrirá el descenso de gradiente y la propagación hacia atrás, los métodos que ponen el aprendizaje en aprendizaje profundo y cómo permiten que la red construya su propia representación.
How To Make A Neural Network | Neural Networks Explained
How To Make A Neural Network | Neural Networks Explained
  • 2020.09.26
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Cómo aprenden las computadoras | Explicación de las redes neuronales (descenso de gradiente y retropropagación)



Cómo aprenden las computadoras | Explicación de las redes neuronales (descenso de gradiente y retropropagación)

Este video explica cómo las redes neuronales aprenden cambiando los pesos en las capas ocultas para permitir que la red los determine. Se introduce el concepto de función de costo para minimizar la tasa de error de la red neuronal y se explica la retropropagación como el proceso esencial para ajustar los parámetros de la red.

Los tres componentes principales del aprendizaje automático, incluida la representación, la evaluación y la optimización, están cubiertos en la tribu del conexionismo. El video también señala que la red no siempre se organiza perfectamente en capas de abstracción. El objetivo del aprendizaje profundo es que la red aprenda y ajuste los pesos por sí misma.

  • 00:00:00 En esta sección, la atención se centra en cómo aprenden realmente las redes neuronales. El primer paso es modificar la red cambiando los pesos en las capas ocultas, que configuramos previamente a mano, para permitir que la propia red los determine. Con 181 pesos potenciales, se convierte en una ardua tarea visualizar el efecto de cada uno en el espacio de decisión de salida. Para simplificar las cosas, se usa un número simple con 12 pesos y las ecuaciones del nodo de salida se representan con límites de decisión, donde P es mayor que Q en rojo y menor que Q en azul. Cambiar los valores ponderados en la red altera la pendiente del límite de decisión. Se observa que todos los cambios resultantes del ajuste de peso dan como resultado salidas lineales con líneas rectas hasta que se aplica una función de activación como la función sigmoidea para agregar no linealidad. Para lograr un aprendizaje profundo, el objetivo es que el proceso de aprendizaje y el ajuste de peso lo realice la propia red.

  • 00:05:00 En esta sección, el video explica el concepto de función de costo y cómo ayuda a minimizar la tasa de error de la red neuronal. El video también explica el proceso de retropropagación que es esencial para ajustar los valores de los parámetros de la red neuronal. El descenso de gradiente es el método para determinar en qué dirección moverse, y la retropropagación en realidad ajusta los parámetros a ese valor, lo que permite que la red produzca los resultados deseados. El objetivo es conseguir que los valores ponderados se acerquen a la realidad básica para minimizar el valor de la función de coste. El proceso se repite mientras se entrena la red hasta que los pesos están en un punto en el que producen los resultados que esperamos ver.

  • 00:10:00 En esta sección, aprendemos sobre los tres componentes principales del aprendizaje automático en la tribu del conexionismo, que incluyen representación, evaluación y optimización. La representación se logra mediante el uso de una función de red neuronal, que define un espacio de representación, y la evaluación se realiza mediante el cálculo del error cuadrático de los nodos en la salida, que se utiliza para obtener una función de costo o utilidad. Finalmente, la optimización se logra mediante la búsqueda en el espacio de los módulos de representación, y esto se logra a través del descenso de gradiente y la retropropagación. Aunque hemos hecho muchas generalizaciones sobre cómo deberían funcionar las redes neuronales artificiales, todavía hay muchas cosas que no cubrimos. Una de esas cosas es que la red no siempre se organiza en capas perfectas de abstracción.
How Computers Learn | Neural Networks Explained (Gradient Descent & Backpropagation)
How Computers Learn | Neural Networks Explained (Gradient Descent & Backpropagation)
  • 2020.10.25
  • www.youtube.com
This video was made possible by Surfshark. Sign up with this link and enter the promo code 'Futurology' to get 83% off and an extra month free of your VPN pl...
 

Explicación de las redes neuronales convolucionales (CNN Visualized)



Explicación de las redes neuronales convolucionales (CNN Visualized)

El video explica las redes neuronales convolucionales (CNN) y su estructura para el reconocimiento de imágenes, utilizando el ejemplo del reconocimiento de números.

La primera capa oculta, la capa convolucional, aplica núcleos o detectores de características para transformar los píxeles de entrada y resaltar características, como bordes, esquinas y formas, lo que lleva a múltiples mapas de características que se someten a una función de no linealidad.

Los mapas de características recién producidos se utilizan como entradas para la siguiente capa oculta, una capa de agrupación, que reduce las dimensiones de los mapas de características y ayuda a generar más abstracciones hacia la salida mediante la retención de información significativa. La capa de agrupación reduce el sobreajuste al mismo tiempo que acelera el cálculo a través de mapas de características de reducción de resolución. El segundo componente de CNN es el clasificador, que consta de capas totalmente conectadas que utilizan funciones de alto nivel extraídas de la entrada para clasificar correctamente las imágenes.

  • 00:00:00 En esta sección, el video presenta las redes neuronales convolucionales (CNN) y su estructura para el reconocimiento de imágenes, usando el ejemplo del reconocimiento de números. El video explica que las imágenes en los dispositivos digitales se almacenan como matrices de valores de píxeles, y cada matriz es un canal o un componente de la imagen. La primera capa oculta, la capa convolucional, aplica núcleos o detectores de características para transformar los píxeles de entrada y resaltar características, como bordes, esquinas y formas, lo que lleva a múltiples mapas de características que se someten a una función de no linealidad para adaptarse al mundo real. datos. Los mapas de características recién producidos se utilizan como entradas para la siguiente capa oculta, una capa de agrupación, que reduce las dimensiones de los mapas de características y ayuda a generar más abstracciones hacia la salida mediante la retención de información significativa.

  • 00:05:00 En esta sección, el video cubre las características y la funcionalidad de la capa de agrupación en redes neuronales convolucionales (CNN). La agrupación es un proceso que reduce el sobreajuste mientras acelera el cálculo a través de mapas de características de reducción de muestreo. En la agrupación máxima, un kernel se desliza a través de los mapas de características de entrada y el valor de píxel más grande en esa área se guarda en un nuevo mapa de salida. Los mapas de características obtenidos normalmente retienen información importante de la capa convolucional al mismo tiempo que permiten una resolución espacial más baja. Esta sección también cubre el segundo componente de CNN: el clasificador, que consta de capas completamente conectadas que utilizan las funciones de alto nivel extraídas de la entrada para clasificar correctamente las imágenes.
Convolutional Neural Networks Explained (CNN Visualized)
Convolutional Neural Networks Explained (CNN Visualized)
  • 2020.12.19
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....