Apprentissage Automatique et Réseaux Neuronaux - page 6

 

L'histoire de l'intelligence artificielle [Documentaire]



L'histoire de l'intelligence artificielle [Documentaire]

Le documentaire sur l'histoire de l'intelligence artificielle nous emmène à travers les premiers jours du concept de "machine à penser", engendré par les écrivains de science-fiction et l'industrie du cinéma, jusqu'aux progrès actuels de l'IA et des processus d'apprentissage en profondeur. Le documentaire montre les progrès réalisés en IA, la capacité des machines à apprendre comme les humains et les principes de fonctionnement des ordinateurs. La vidéo explore les limites des ordinateurs, le potentiel de leur développement et l'avenir possible de l'intelligence artificielle (IA). Les scientifiques discutent de la possibilité que les machines soient capables de penser et de produire de nouvelles idées, et l'objectif est de créer un système informatique plus général qui peut apprendre par l'expérience, former des concepts et faire de la logique. Les premiers pas vers l'IA peuvent être vus dans une petite machine informatique qui peut apprendre de l'expérience, comme le montre l'exemple d'une souris à commande électrique résolvant un labyrinthe.

La deuxième partie explore les limites et le potentiel des ordinateurs en termes de réflexion, de ressenti et de créativité. Alors que les ordinateurs excellent dans les opérations logiques et les calculs mathématiques, ils ont du mal à reconnaître, à reconnaître des formes et à généraliser, à reconnaître des blocs, à traduire des langues et à effectuer des tâches simples. Malgré des résultats initiaux décevants, des systèmes experts et des programmes tels que SHRDLU et TENDRIL ont montré comment les ordinateurs pouvaient utiliser les connaissances pour résoudre l'ambiguïté et l'apprentissage des langues. Cependant, le défi de l'enseignement des connaissances de bon sens, qui comprend à la fois les connaissances factuelles et les expériences que les gens acquièrent au fil du temps, demeure. Les réseaux de neurones, bien qu'attrayants au départ, ont des limites et ne sont capables que de s'attaquer à de petites tâches. Les chercheurs doivent former des ordinateurs pour comprendre comment la nature construit et coordonne de nombreuses micro-machines dans le cerveau avant qu'une version entièrement artificielle puisse être construite.

La troisième partie couvre un large éventail de sujets liés à l'histoire et à l'avenir de l'intelligence artificielle. Il traite des efforts en cours pour parvenir à une intelligence à usage général basée sur le bon sens, y compris le projet Cyc et le potentiel de compréhension générale du langage naturel dans l'IA. Les défis liés à la réalisation d'une intelligence de type humain, y compris la nécessité de modèles formels d'intelligence et le rôle de la psychologie, sont également explorés. Les personnes interrogées discutent de l'impact des ordinateurs sur le domaine de la psychologie, ainsi que des défis posés par le raisonnement non monotone et de la nécessité de percées conceptuelles. Malgré les critiques, les personnes interrogées voient l'objectif de l'IA comme un projet noble qui peut mieux nous aider à nous comprendre.

  • 00:00:00 Dans cette section, nous sommes transportés dans les années 1950 où l'idée d'une "machine à penser" était encore un rêve, détenu uniquement par les auteurs de science-fiction et l'industrie du cinéma. Le film "The Thinking Machine" a suivi une discussion sur la question de savoir si les machines peuvent effectivement penser, un concept encore trop tiré par les cheveux à l'époque, car le domaine de l'intelligence artificielle n'en était qu'à ses débuts et les chercheurs n'avaient pas encore compris comment faire en sorte que les machines produisent des idées véritablement nouvelles. Aujourd'hui, le documentaire nous rappelle les progrès réalisés dans l'IA et les processus d'apprentissage en profondeur qui ont contribué à des avancées technologiques que nous tenons parfois pour acquises.

  • 00:05:00 Dans cette section de la transcription, un enfant apprend l'alphabet et un psychologue se demande comment le cerveau reconnaît les schémas. La conversation passe ensuite au potentiel des ordinateurs pour imiter le même processus d'apprentissage qu'un enfant en lui montrant l'alphabet pour la première fois. L'ordinateur est testé et bien qu'il ne soit pas parfait, il peut identifier avec précision les lettres avec une précision croissante au fur et à mesure qu'il est présenté avec plus d'informations. La possibilité que les machines soient capables d'apprendre comme les humains est explorée, mais les processus de pensée spécifiques des machines ne sont toujours pas clairs et toute la gamme de l'utilité des ordinateurs est en train d'être découverte.

  • 00:10:00 Dans cette section, un groupe de professeurs de Carnegie Tech nommés Simon et Newell tentent de comprendre des problèmes logiques comme le puzzle des missionnaires et des cannibales. Ils représentent leurs progrès en abordant le problème de faire traverser la rivière aux trois missionnaires et cannibales dans un bateau qui ne peut contenir que deux personnes à la fois sans que les cannibales soient plus nombreux que les missionnaires. Une conversation entre professeurs révèle qu'une de leurs étudiantes nommée Barbara a trouvé une solution au problème que l'ordinateur vient de reproduire. De plus, les professeurs montrent une démonstration d'un homme jouant aux dames contre un ordinateur qui attire l'attention sur la capacité d'un ordinateur à apprendre sur la base de probabilités ou d'un caractère raisonnable qui y ont été programmés.

  • 00:15:00 Dans cette section, la vidéo explore la question du fonctionnement des ordinateurs, expliquant qu'ils prennent des entrées, les traitent à l'aide d'opérations mathématiques et produisent des résultats par programmation. Bien qu'il existe des similitudes entre les ordinateurs et les systèmes nerveux vivants, les neurophysiologistes pensent qu'il existe beaucoup plus de différences que de similitudes. La vidéo aborde également l'idée que les humains sont programmés à la fois héréditairement et par l'expérience, proposant une expérience où des canetons élevés en isolement n'ont pas reconnu la silhouette d'une oie. Dans l'ensemble, la section fournit une brève explication des principes de fonctionnement des ordinateurs et plonge dans certaines idées sur la programmation à la fois dans les machines et les êtres vivants.

  • 00:20:00 Dans cette section, deux hommes discutent du concept de programmation par rapport à l'instinct chez les animaux. Alors que l'un soutient que la capacité du canard à faire la différence entre une oie et un faucon est un exemple d'instinct, l'autre suggère que certains animaux naissent avec plus de connaissances intégrées qu'on ne le pensait auparavant. Ils analysent les recherches effectuées sur les grenouilles et suggèrent que les fibres de l'œil d'une grenouille ne signalent au cerveau que des éléments spécifiques liés à la survie de la grenouille, tels que les mouvements et les proies potentielles. Cette théorie, bien que pas encore largement acceptée, pourrait expliquer l'existence de l'instinct.

  • 00:25:00 Dans cette section, nous voyons un chercheur mener une expérience avec un enfant de cinq ans pour prouver que les humains naissent avec certaines capacités innées. On demande à l'enfant de remplir son verre de lait jusqu'au même niveau que le verre du chercheur, mais il le remplit jusqu'au bord, pensant que c'est la même quantité. Cela suggère que certaines notions sur le monde qui nous entoure sont préconçues dans nos esprits et que nous comptons sur nos yeux pour former nos concepts du monde qui nous entoure. La vidéo continue de prouver que ce que nous voyons avec nos yeux n'est pas toujours exact et que les illusions peuvent jouer des tours à notre cerveau.

  • 00:30:00 Dans cette section, un professeur parle à un autre homme de la façon dont les humains sont programmés pour réagir en fonction de croyances et de règles préconçues. L'homme se demande si un ordinateur peut faire quoi que ce soit d'original, et le professeur lui montre une pièce qui a été écrite par un ordinateur avec l'aide d'un programmeur nommé Harrison Morse. Le public est émerveillé par l'impression de la pièce et le professeur explique qu'il ne s'agit pas de magie, mais plutôt du résultat d'un programme bien conçu.

  • 00:35:00 Dans cette section, le membre du personnel du MIT, Doug Ross, explique comment ils ont utilisé un programme pour écrire une saynète illustrant les règles qui constituent un comportement intelligent. Ils soulignent qu'un comportement intelligent est un comportement obéissant aux règles et montrent comment un ordinateur peut être conçu pour faire un travail créatif. Ils mentionnent les règles que l'ordinateur utilise pour déterminer un comportement raisonnable, et ils ont même programmé un facteur d'ébriété qui affecte le comportement du voleur. Ils soulignent qu'il n'y a pas de magie noire à faire ces choses sur des machines, et ils montrent que l'ordinateur écrit une pièce différente à chaque fois, démontrant sa créativité.

  • 00:40:00 Dans cette section, la vidéo explore les limites des ordinateurs et le potentiel de leur développement. L'animation met en évidence le processus d'essais et d'erreurs impliqué dans la programmation d'un ordinateur et la possibilité d'erreurs. La vidéo montre ensuite une expérience dans laquelle un ordinateur est utilisé pour étudier les signaux dans le cerveau humain, soulignant le potentiel des ordinateurs pour améliorer notre compréhension des processus d'apprentissage. La vidéo montre ensuite aux téléspectateurs le laboratoire Lincoln et son ordinateur TX2, qui est l'un des ordinateurs les plus grands et les plus polyvalents au monde. La vidéo suggère que des ordinateurs tels que le TX2 sont utilisés pour étudier les processus d'apprentissage et que des ordinateurs sont développés à l'échelle mondiale à des fins scientifiques.

  • 00:45:00 Dans cette section, les scientifiques discutent de la possibilité que les machines soient capables de penser et de produire de nouvelles idées. Alors que certains pensent que les machines et les programmes informatiques seront capables de se comporter intelligemment et d'aider les humains à alléger le fardeau du travail intellectuel, d'autres doutent que les machines soient un jour capables d'une véritable pensée créative. L'avenir des ordinateurs devrait avoir des effets à la fois directs et indirects, tels que la mise en œuvre des machines de différentes manières et l'apprentissage de nouvelles choses lorsque les humains travaillent avec des ordinateurs. La deuxième révolution industrielle devrait être l'ère de l'assistance de l'esprit humain par l'ordinateur, et les possibilités de ce que les machines peuvent faire avec l'aide de l'homme sont difficiles à imaginer.

  • 00:50:00 Dans cette section, l'accent est mis sur le potentiel de l'intelligence artificielle (IA) et son développement possible à l'avenir. L'objectif est de créer un système informatique plus général qui peut apprendre par l'expérience, former des concepts et faire de la logique. Il se composera d'organes sensoriels, d'un grand programme informatique flexible à usage général et de dispositifs de sortie. Alors que des progrès sont réalisés, on s'inquiète de la gestion de l'impact de la technologie. Cependant, un scientifique pense que si nous le gérons correctement, nous pouvons créer un monde bien meilleur. Les premiers pas vers l'IA peuvent être vus dans une petite machine informatique qui peut apprendre de l'expérience, comme le montre l'exemple d'une souris à commande électrique résolvant un labyrinthe.

  • 00:55:00 Dans cette section, nous voyons une démonstration d'une souris naviguant dans un labyrinthe, contrôlée par un système de relais téléphoniques et de commutateurs Reed. La souris est capable d'ajouter de nouvelles informations et de s'adapter aux changements. La démonstration montre que la souris remplace les anciennes informations obsolètes par ce qu'elle apprend sur la nouvelle configuration du labyrinthe. Bien que ce soit la machine sous le sol du labyrinthe qui déplace réellement la souris, la démonstration offre un aperçu du type de comportement intelligent qui peut être atteint.

  • 01:00:00 Dans cette section, la vidéo explore la définition de "penser" et son rapport avec les ordinateurs. Alors que les ordinateurs excellent dans le stockage et le rappel des informations, cela ne suffit pas à englober la vraie pensée. Cependant, les ordinateurs peuvent effectuer des opérations logiques, telles que jouer aux échecs, où ils analysent les données et déterminent le meilleur coup. Cet affichage des fonctions logiques de base a valu à certains ordinateurs la première place dans les tournois d'échecs amateurs.

  • 01:05:00 Dans cette section, la vidéo explore comment les ordinateurs sont capables d'effectuer des opérations logiques, voire de prendre des millions de décisions logiques chaque jour, mais sont limités en termes de capacités de visualisation et de reconnaissance. Alors que les ordinateurs peuvent produire des images et simuler des conceptions, ils ont du mal à reconnaître les modèles et à généraliser. La vidéo note également la difficulté d'apprendre à un ordinateur à traduire des langues en raison du manque de correspondance biunivoque entre les mots de différentes langues. En fin de compte, les ordinateurs n'ont pas la capacité de penser, de ressentir ou d'avoir de la considération pour quoi que ce soit.

  • 01:10:00 Dans cette section, la vidéo traite des capacités des ordinateurs en termes d'émotions et de créativité. Bien que les ordinateurs ne puissent pas réellement ressentir les émotions, ils peuvent être programmés pour les simuler. De même, alors que la créativité est souvent considérée comme une capacité humaine unique, les ordinateurs sont capables de produire des films d'animation et même de la musique. L'utilité et l'efficacité des ordinateurs, y compris les milliards d'opérations mathématiques qu'ils peuvent effectuer sans se tromper, sont indéniables, mais la question de savoir s'ils ont la capacité de vraiment "penser" est toujours en débat.

  • 01:15:00 que les ordinateurs pouvaient jouer à des jeux comme les dames et résoudre des problèmes complexes ont conduit à la naissance de l'intelligence artificielle (IA). Cela est devenu une frontière pour l'exploration par un groupe de mathématiciens, dirigé par Marvin Minsky et John McCarthy, qui ont créé un département au MIT pour explorer les possibilités de l'IA. Des étudiants comme Jim Slagle ont développé des programmes pour résoudre des problèmes de calcul, et en 1960, un ordinateur a pu obtenir un A à un examen du MIT, performant aussi bien qu'un étudiant moyen. Cela a montré que les ordinateurs pouvaient avoir de l'intelligence et a suscité l'espoir d'un avenir où les machines pourraient penser.

  • 01:20:00 Dans cette section, le documentaire explore les débuts de l'intelligence artificielle et comment les pionniers dans le domaine n'étaient pas concernés par la construction physique du cerveau. Ils considéraient l'esprit comme une entité de traitement symbolique, tandis que le cerveau était simplement le matériel sur lequel l'esprit fonctionne. Le documentaire soutient que copier aveuglément la façon de faire de la nature n'est pas toujours une bonne idée et que les tentatives de vol artificiel basées sur la façon dont les oiseaux volent ont été un désastre. Le documentaire met en lumière les difficultés rencontrées lorsque les scientifiques du MIT ont tenté de construire un esprit informatique capable d'interagir avec le monde et d'empiler des blocs. On dit que bien que cela puisse sembler une tâche simple, la reconnaissance des blocs est en réalité très compliquée, et le programme avait des idées étranges sur ce qui arrive aux blocs lorsque vous les laissez partir.

  • 01:25:00 Dans cette section, le documentaire explore les défis d'apprendre aux ordinateurs à voir et à bouger comme des humains. Les chercheurs ont découvert que les problèmes de calcul de la vision étaient si immenses que beaucoup ont décidé de se concentrer sur une forme d'intelligence désincarnée, connue sous le nom de test de Turing, qui mesure la capacité d'une machine à utiliser le langage intelligemment. L'un des premiers programmes informatiques créés à cet effet était le programme "Eliza", qui utilisait une série d'astuces pour simuler une conversation mais ne pouvait pas réussir le test de Turing. Le documentaire souligne comment la complexité de la compréhension du langage humain a rendu difficile le développement de modèles de langage d'IA capables de comprendre le sens et le contexte comme les humains.

  • 01:30:00 Dans cette section, la vidéo traite des premières tentatives d'utilisation d'ordinateurs pour traduire des langues, qui ont rencontré de sérieux problèmes en raison de problèmes d'ambiguïté et de contexte. Malgré les affirmations selon lesquelles les ordinateurs pourraient remplacer les traducteurs humains, la complexité du langage et la nécessité d'une connaissance et d'une compréhension humaines communes ont rendu cette tâche beaucoup plus difficile que prévu. L'incapacité des ordinateurs à reconnaître les visages, à apprendre le langage et à effectuer des tâches simples telles que mettre des vêtements montre que les choses que les gens pensent faciles sont en fait très difficiles à accomplir pour l'IA. Les échecs de l'IA ont entraîné une baisse des financements et de sombres perspectives pour le domaine.

  • 01:35:00 Dans cette section, nous voyons que malgré des résultats initiaux décevants, le programme de Terry Winograd appelé SHRDLU a montré que les ordinateurs pouvaient utiliser les connaissances pour résoudre l'ambiguïté et l'apprentissage des langues. Cependant, il était limité à un micro-monde simulé de blocs. Edward Feigenbaum et ses collègues ont ensuite développé un système appelé TENDRIL qui capture les règles que les experts dans des domaines étroits utilisent pour prendre des décisions. Ils ont constaté que le comportement expert dans des domaines étroits ne nécessite que quelques centaines de connaissances. Cela a conduit au développement de systèmes experts qui se sont avérés fragiles et n'avaient pas la flexibilité nécessaire pour fonctionner en dehors de leurs domaines de connaissance.

  • 01:40:00 Dans cette section, le documentaire couvre les défis auxquels étaient confrontés les chercheurs en langues dans les années 1970 qui essayaient de faire en sorte que les ordinateurs suivent des histoires simples comme le font les enfants. Ils ont découvert que le problème n'était pas ce que l'histoire disait, mais le grand nombre de choses qui n'étaient pas dites parce qu'elles étaient trop évidentes pour valoir la peine d'être énoncées. Les chercheurs ont développé l'idée de construire des cadres ou des scripts pour différentes situations que l'ordinateur pourrait rencontrer, comme une fête d'anniversaire, qui contiendrait toutes les choses qui se passaient habituellement lors des fêtes d'anniversaire. Cependant, le défi était de savoir comment inclure des connaissances de base générales, qui n'étaient pas spécifiques à la situation ou au contexte. Cette connaissance générale a créé un problème de connaissance de bon sens, ce qui rend difficile d'enseigner aux ordinateurs à interpréter des histoires simples.

  • 01:45:00 Dans cette section, l'extrait traite des connaissances de bon sens et de la difficulté de les enseigner aux machines. La connaissance de bon sens est la connaissance intuitive que tout le monde partage, comme savoir que les objets tombent lorsqu'ils sont relâchés. Cependant, ce ne sont pas seulement des connaissances factuelles, ce sont aussi des compétences et des expériences que les gens acquièrent au fil du temps. Les scientifiques s'intéressent depuis longtemps à enseigner aux machines comment apprendre et acquérir des connaissances comme les humains, mais les ordinateurs ont commencé avec des niveaux d'apprentissage si bas que l'apprentissage automatique n'était pas efficace tant qu'ils n'avaient pas reçu de grandes quantités de connaissances de bon sens. Le projet PYSCH a été créé au Texas en 1984 pour intégrer des connaissances de bon sens et a été le test ultime de l'IA. Cependant, les critiques ont fait valoir que le vrai bon sens dépendait d'avoir un corps humain, et que la connaissance du bon sens n'est pas seulement faite de faits, mais aussi d'expériences et de compétences que les enfants acquièrent au fil du temps.

  • 01:50:00 Dans cette section, la vidéo explore l'idée de la connaissance du sens commun et comment elle est acquise à travers des expériences du monde, mais présente également le cas d'un patient sans expérience physique qui a quand même acquis le sens commun à travers le langage. La vidéo se penche ensuite sur l'argument selon lequel pour construire un esprit artificiel, il faut d'abord construire un cerveau artificiel. La complexité du cerveau humain, composé de milliards de neurones connectés de milliers de façons, a inspiré les scientifiques des années 1950 à poursuivre l'idée de construire un cerveau artificiel, conduisant au développement de perceptrons qui ont ensuite évolué en réseaux de neurones. Le modèle de perception moderne des réseaux de neurones est un mouvement croissant appelé connexionnistes et se concentre sur l'apprentissage automatique par le cerveau plutôt que par l'esprit.

  • 01:55:00 essai et erreur, dans cette section le documentaire se concentre sur les réseaux de neurones et leurs limites. Alors que les réseaux de neurones étaient initialement attrayants, ils ne sont capables de conquérir que des tâches de petite envergure, et les chercheurs ne comprennent pas encore pleinement comment ils apprennent. L'exemple d'un réseau neuronal apprenant à distinguer les images avec et sans réservoirs met en évidence le potentiel des réseaux à tirer des conclusions incorrectes. Bien que la possibilité que de minuscules réseaux de neurones capturent quelque chose d'aussi élaboré que le bon sens est intrigante, les chercheurs admettent que cet objectif à long terme est encore loin d'être réalisable avec la technologie actuelle. De plus, les tentatives de création de réseaux de neurones de plus de quelques centaines de neurones échouent souvent en raison du long temps de formation requis. Par conséquent, les chercheurs doivent comprendre comment la nature construit et coordonne de nombreuses micro-machines dans le cerveau avant qu'une version entièrement artificielle puisse être construite.

  • 02:00:00 Dans cette section, la transcription explique comment les applications pratiques de l'intelligence artificielle se sont approprié le terme, mais elles sont loin de la quête initiale de réalisation d'une intelligence à usage général basée sur le bon sens. Cependant, la quête de l'IA n'a pas été abandonnée et le projet Cyc, lancé par Doug Leonard en 1984, est toujours en cours. Le projet vise à construire un esprit qui en sait assez pour comprendre le langage et apprendre tout ce que les humains savent. Bien qu'il s'agisse d'un logiciel sans corps ni expérience directe du monde, Psyche, l'entité IA du projet Cyc, analyse les incohérences dans sa base de données et fait de nouvelles découvertes intéressantes, montrant qu'elle voit le monde d'une manière unique.

  • 02:05:00 Dans cette section, la discussion se concentre sur le potentiel de compréhension générale du langage naturel dans l'intelligence artificielle et la nécessité d'y parvenir pour empêcher la disparition de l'IA symbolique. Le projet Psyche est mentionné comme un projet à haut risque avec un potentiel de gain élevé s'il réussit le test de Turing de compréhension générale du langage naturel. Un tel succès pourrait conduire au développement de programmes d'apprentissage automatique pour apprendre des choses inconnues, amplifiant ainsi l'intelligence d'une manière actuellement inimaginable. Le Dr John McCarthy, l'un des fondateurs de l'intelligence artificielle, réfléchit sur l'histoire de la discipline et prédit l'impact qu'elle aurait sur la société.

  • 02:10:00 Dans cette section, la vidéo traite des difficultés à réaliser des programmes informatiques aussi intelligents que les humains. Malgré quelques progrès précoces avec des problèmes difficiles tels que la résolution de théorèmes mathématiques, des tâches de bon sens telles que la reconnaissance de la parole se sont avérées difficiles pour l'intelligence informatique. L'orateur et ses collègues ont travaillé pour développer des modèles formels d'intelligence qui sont équivalents à l'intelligence humaine, mais il existe différentes approches pour atteindre cet objectif. Le domaine de la psychologie avait également un rôle à jouer à cet égard, l'informatique les aidant à s'éloigner du comportementalisme et à mieux comprendre la cognition.

  • 02:15:00 Dans cette section, des experts discutent de l'impact des ordinateurs sur le domaine de la psychologie et de la manière dont le concept de conscience a été abordé dans les deux domaines. Alors que les ordinateurs ont offert de grandes perspectives sur le fonctionnement de l'esprit, la question de savoir si les ordinateurs peuvent jamais être vraiment conscients de soi reste un sujet de débat philosophique. De plus, l'idée que la conscience n'est que la somme de ses parties, comme une machine, n'est pas tout à fait exacte, car l'esprit est un système complexe de parties spécialisées qui interagissent de manière spécifique.

  • 02:20:00 Dans cette section, la personne interrogée discute du recul de l'opinion selon laquelle les êtres humains ont quelque chose qui transcende les aspects mécanistes de notre être, comme on en a découvert davantage sur la physiologie et la psychologie humaines. Malgré cela, il y a encore des aspects de la conscience humaine qui n'ont pas été réalisés dans les machines dans les programmes informatiques. L'interviewé, optimiste quant à l'IA, parle de l'ensemble de problèmes sur lesquels la force brute informatique peut être appliquée, qui est plutôt limité, et que le problème central de l'intelligence artificielle consiste à exprimer les connaissances sur le monde nécessaires à un comportement intelligent. La logique mathématique a été poursuivie comme outil pour cela, et à la fin des années 1970, plusieurs personnes ont découvert des moyens de formaliser ce qu'ils appellent le raisonnement non monotone, étendant considérablement la puissance de la logique mathématique dans le domaine du sens commun.

  • 02:25:00 Dans cette section, la personne interrogée discute du raisonnement non monotone et comment il pose un défi à la pensée humaine dans les ordinateurs. La logique ordinaire fonctionne en ajoutant plus de prémisses pour tirer plus de conclusions, alors que le raisonnement humain n'a pas toujours cette propriété. Par exemple, le terme « oiseau » suppose qu'il peut voler, et un contexte supplémentaire peut modifier les conclusions tirées de cela. Le raisonnement non monotone peut être utilisé comme outil mathématique pour formaliser ce type de pensée et introduire une prise de conscience du contexte dans les ordinateurs. Cependant, le défi avec le contexte est qu'il y a toujours des exceptions qui ne peuvent pas être prises en compte, donc un système est nécessaire là où une hypothèse est faite à moins qu'il n'y ait des preuves du contraire.

  • 02:30:00 Dans cette section, John McCarthy, un pionnier de l'IA, discute de l'histoire de l'IA et explique pourquoi il a fallu si longtemps aux humains pour développer l'intelligence artificielle. Il explique que notre capacité limitée à observer nos propres processus mentaux a entravé notre progression, comme on le voit avec l'échec de Leibniz à inventer le calcul propositionnel qui a été inventé par Boule 150 ans plus tard. Il reconnaît également que des percées conceptuelles sont nécessaires pour l'avenir de l'IA et qu'il faudra peut-être de quelques décennies à plusieurs centaines d'années pour parvenir à une véritable intelligence de type humain dans les machines. Malgré les critiques sur l'impossibilité de reproduire l'intelligence humaine, McCarthy voit l'objectif de l'IA comme un noble projet pour mieux nous comprendre.
 

La naissance de l'intelligence artificielle



La naissance de l'intelligence artificielle

La vidéo traite de la naissance de l'intelligence artificielle (IA) moderne et de l'optimisme qui l'a accompagnée pendant les "années dorées" de l'IA dans les années 60 et au début des années 70. Cependant, le domaine a dû faire face à des défis importants, notamment le premier hiver de l'IA au milieu des années 70 en raison de la difficulté des problèmes auxquels ils étaient confrontés et des performances de calcul limitées.

Les systèmes experts ont marqué un tournant dans le domaine, déplaçant l'accent du développement de l'intelligence générale vers une IA spécifique à un domaine étroit, et ont contribué à accroître l'efficacité de l'entreprise. Cependant, le battage médiatique entourant les systèmes experts a entraîné une baisse des financements, en particulier après le krach boursier de 1987. La vidéo reconnaît les défis liés à la compréhension et à la définition de l'IA, recommandant Brilliant comme ressource permettant aux personnes d'en apprendre davantage sur l'IA, des éléments de base aux architectures plus avancées.

  • 00:00:00 Dans cette section, nous découvrons la naissance officielle de l'intelligence artificielle moderne lors du projet de recherche d'été de Dartmouth en 1956, où le terme "intelligence artificielle" a été inventé pour la première fois. La conférence visait à simuler l'apprentissage humain en décrivant toutes les caractéristiques de l'intelligence que les machines pourraient simuler. Les sept aspects comprenaient la programmation d'ordinateurs pour utiliser le langage, les réseaux de neurones, l'abstraction, l'auto-amélioration, le hasard et la créativité. La période qui a suivi la conférence a été connue comme les "années dorées" de l'IA où les théories et les algorithmes de l'informatique et de l'IA ont commencé à être mis en œuvre, y compris le raisonnement en tant que recherche, les réseaux sémantiques et les micro-mondes. Ces algorithmes étaient révolutionnaires et ont insufflé de l'optimisme dans le domaine, amenant des individus comme Marvin Minsky à croire que la création de l'intelligence artificielle pourrait être résolue de manière substantielle en une génération.

  • 00:05:00 Dans cette section, la vidéo explore la naissance de l'intelligence artificielle et comment elle a généré beaucoup d'optimisme et de battage médiatique dans les années 60 et au début des années 70. Cela a conduit à des financements massifs, principalement du gouvernement, pour la recherche et la mise en œuvre de l'IA, ce qui a permis à de nombreuses institutions de recherche d'être à la pointe de la recherche sur l'IA aujourd'hui. Cependant, au milieu des années 70, le premier hiver de l'IA a commencé en raison de l'incapacité à apprécier la difficulté des problèmes auxquels ils étaient confrontés, couplé au fait que le domaine de l'informatique était encore en cours de définition à cette époque. Cinq problèmes ont été répertoriés, notamment le fait que des percées ont été réalisées avec des performances de calcul limitées, et le paradoxe de Moravec, une théorie postulée par le chercheur en IA et en robotique Hans Moravec à Carnegie Mellon.

  • 00:10:00 Dans cette section, nous apprenons comment les systèmes experts ont marqué un tournant important dans le domaine de l'IA en déplaçant l'accent du développement de l'intelligence générale vers une IA spécifique à un domaine étroit. Les systèmes experts, basés sur les connaissances d'experts dans un domaine spécifique, ont eu des impacts tangibles et réels et ont aidé les entreprises à accroître leur efficacité, comme on le voit avec le système expert logistique XCON, qui a permis à Digital Equipment Corporation d'économiser près de 40 millions de dollars par an. De plus, l'essor des systèmes experts a contribué à raviver le connexionnisme, qui est apparu comme un moyen viable d'apprendre et de traiter l'information. Le réseau de Hopfield et la rétropropagation, des méthodes de formation à l'IA, ont été popularisées et affinées au cours de cette période, ouvrant la voie à l'apprentissage en profondeur. Cependant, alors que les attentes concernant les systèmes experts devenaient incontrôlables et que des fissures dans leurs systèmes fragiles basés sur la logique conditionnelle commençaient à apparaître, le financement de l'IA a de nouveau diminué en raison, en partie, du krach de 1987 sur les marchés mondiaux.

  • 00:15:00 Dans cette section, la transcription aborde les défis de la définition et de la compréhension de l'intelligence artificielle (IA), en particulier en raison des cycles de battage médiatique qui se sont succédé au cours du siècle dernier. La vidéo reconnaît la confusion qui a surgi avec la montée et la chute des mots à la mode de l'IA, de l'apprentissage en profondeur à l'intelligence humaine artificielle. L'espoir est de séparer le battage médiatique des applications pratiques actuelles de l'IA, telles que l'expertise spécifique à un domaine dans les systèmes d'apprentissage en profondeur. La vidéo recommande Brilliant comme ressource permettant aux individus de garder leur cerveau affûté et d'en apprendre davantage sur l'IA, de ses éléments de base à des architectures plus avancées.
 

Apprentissage automatique supervisé expliqué




Apprentissage automatique supervisé expliqué

La vidéo explique que l'apprentissage supervisé implique un ensemble de données étiqueté, dans le but d'apprendre une fonction de mappage des variables d'entrée aux variables de sortie. L'ensemble de données étiqueté est divisé en un ensemble d'apprentissage et un ensemble de test, le modèle étant formé sur l'ensemble d'apprentissage et évalué sur l'ensemble de test pour mesurer sa précision.
La vidéo note qu'un surajustement peut se produire si le modèle est trop complexe et s'adapte trop étroitement à l'ensemble d'apprentissage, ce qui entraîne de mauvaises performances sur les nouvelles données, tandis qu'un sous-ajustement se produit si le modèle est trop simple et incapable de capturer la complexité des données. La vidéo fournit l'exemple de l'ensemble de données d'iris et parcourt le processus de formation d'un modèle pour prédire l'espèce d'une nouvelle fleur d'iris en fonction de ses mesures, à l'aide de l'algorithme d'arbre de décision.

  • 00:00:00 Dans cette section, la vidéo explique la définition et les objectifs de l'apprentissage automatique, qui peut être utilisé pour faire des prédictions basées sur des données passées. La vidéo fournit l'exemple de la régression, qui mesure les relations entre les variables, crée une ligne de meilleur ajustement et utilise cette ligne pour prédire de nouvelles données. La vidéo développe ensuite cette idée pour expliquer les problèmes de classification, ce qui implique d'ajouter des données d'étiquette et de créer des limites de décision pour classer l'étiquette de sortie des nouvelles données. La vidéo examine la précision de ce modèle et explique que les algorithmes d'apprentissage automatique cherchent à maximiser la précision du modèle. La vidéo note que les arbres de décision sont un type d'algorithme d'apprentissage automatique qui utilise une approche basée sur des instructions conditionnelles, similaire aux systèmes experts.

  • 00:05:00 Dans cette section, la vidéo plonge dans les différents types d'algorithmes qui peuvent être utilisés pour l'apprentissage automatique, y compris les machines vectorielles de support et comment des variables supplémentaires peuvent être ajoutées pour des espaces de dimension supérieure. La vidéo aborde également l'intersection de l'intelligence artificielle, du big data et de la science des données, la science des données et les statistiques étant considérées comme une seule et même chose pour la simplicité. La vidéo poursuit ensuite en expliquant l'apprentissage supervisé, qui comprend deux modes principaux de modèles d'apprentissage, la régression et la classification, et comment il s'agit essentiellement de mathématiques statistiques pour les problèmes de reconnaissance de formes, rebaptisés apprentissage automatique. La vidéo se termine par une mention de l'apprentissage non supervisé et de l'apprentissage en profondeur, qui seront couverts dans de futures vidéos, et une recommandation de Brilliant.org pour ceux qui souhaitent en savoir plus sur les mathématiques et les sciences derrière ces concepts.
 

Apprentissage automatique non supervisé expliqué



Apprentissage automatique non supervisé expliqué

La vidéo explique l'apprentissage automatique non supervisé, qui traite des données non étiquetées et non structurées, et est principalement utilisé pour dériver une structure à partir de données non structurées. Il est divisé en deux types : association et clustering, où le clustering implique l'utilisation d'algorithmes tels que le clustering K-means pour diviser l'espace de décision en catégories ou clusters discrets.

Les problèmes d'association identifient les corrélations entre les caractéristiques des ensembles de données et, pour extraire des associations significatives, la complexité des colonnes doit être réduite grâce à la réduction de la dimensionnalité. Ce processus implique de minimiser le nombre de caractéristiques nécessaires pour représenter un point de données et d'obtenir des résultats et des associations significatifs tout en empêchant le sous-ajustement ou le surajustement. Le dernier segment de la vidéo a présenté le concept d'apprentissage des mathématiques et des sciences sur Brilliant, une plate-forme qui offre un apprentissage agréable et interconnecté des mathématiques et des sciences et offre une remise de 20 % sur les abonnements premium pour visionner du contenu futurologique. La vidéo sollicitait également le soutien de la chaîne sur Patreon ou l'adhésion à YouTube et accueillait des suggestions pour de futurs sujets dans les commentaires.

  • 00:00:00 Dans cette section, nous découvrons l'apprentissage automatique non supervisé, qui concerne les données non étiquetées et non structurées. Il est représentatif de la plupart des problèmes du monde réel et se situe au croisement entre le big data et le domaine de l'intelligence artificielle. L'apprentissage non supervisé est principalement utilisé pour dériver une structure à partir de données non structurées. Ce type d'apprentissage est subdivisé en deux types principaux : l'association et le regroupement. Le clustering implique l'utilisation d'algorithmes tels que le clustering K-means, où l'objectif est de diviser un espace de décision avec un certain nombre de points de données en un nombre spécifié de catégories ou de clusters discrets. Cela se fait en ajoutant d'abord des centroïdes, puis en réaffectant de manière itérative des points de données à leurs nouveaux clusters tout en mettant à jour les centroïdes.

  • 00:05:00 Dans cette section, l'accent passe du regroupement à l'association dans l'apprentissage non supervisé. Les problèmes d'association identifient les corrélations entre les caractéristiques d'un ensemble de données, contrairement au clustering, qui regroupe des points de données similaires. Pour extraire des associations significatives, la complexité des colonnes dans l'ensemble de données doit être réduite grâce à la réduction de la dimensionnalité, où le nombre d'entités pour représenter de manière unique un point de données est minimisé. L'extraction de caractéristiques peut être effectuée en sélectionnant un nombre optimal de caractéristiques pour éviter le sous-ajustement ou le surajustement de l'ensemble de données. La réduction de la dimensionnalité est obtenue grâce à l'apprentissage des variétés, où les données de grande dimension peuvent être représentées par des variétés de faible dimension. La représentation de faible dimension de l'ensemble de données contient l'ensemble de fonctionnalités réduit nécessaire pour représenter le problème tout en produisant des résultats et des associations significatifs. L'ingénierie des fonctionnalités est un sous-domaine de l'apprentissage automatique qui comprend la réduction de la dimensionnalité, la sélection des fonctionnalités et l'extraction.

  • 00:10:00 Ce dernier segment de la vidéo présente le concept d'apprentissage des mathématiques et des sciences pour mieux comprendre les concepts abordés dans la chaîne. Brilliant, une plateforme qui rend l'apprentissage des mathématiques et des sciences passionnant, interconnecté et offre un apprentissage hors ligne. De plus, les utilisateurs peuvent en savoir plus sur la futurologie et obtenir une remise de 20 % sur les abonnements premium en visitant le lien fourni. Enfin, les téléspectateurs sont encouragés à soutenir la chaîne sur Patreon ou YouTube et à laisser des suggestions pour de futurs sujets dans les commentaires.
 

Qu'est-ce que l'apprentissage automatique (apprentissage automatique expliqué)



Qu'est-ce que l'apprentissage automatique (apprentissage automatique expliqué)

L'apprentissage automatique est un domaine d'étude qui permet aux ordinateurs d'apprendre sans être explicitement programmés. Cela implique l'utilisation d'algorithmes pour former des limites de décision sur l'espace de décision d'un ensemble de données. Cette compréhension de l'apprentissage automatique est la deuxième plus largement utilisée et établie par le Dr Tom Mitchell.

L'apprentissage automatique peut être attribué à l'augmentation de la puissance de calcul et du stockage qui a permis des données plus grandes et de meilleure qualité, et à l'essor de l'apprentissage en profondeur. Bien qu'il soit classé comme une intelligence artificielle faible, les tâches qu'il exécute sont souvent isolées et spécifiques à un domaine. L'apprentissage automatique englobe de nombreuses approches et modèles différents, et bien qu'ils ne puissent jamais être précis à 100 % pour prédire les résultats dans des problèmes du monde réel en raison d'abstractions et de simplifications, ils peuvent toujours être utiles dans un large éventail d'applications. Brilliant est mentionné comme l'une des ressources pour en savoir plus sur l'apprentissage automatique et d'autres sujets STEM.

  • 00:00:00 Dans cette section, l'accent est mis sur la signification et la définition de l'apprentissage automatique et sur son lien avec l'intelligence artificielle. L'apprentissage automatique est un domaine d'étude qui donne aux ordinateurs la capacité d'apprendre sans être explicitement programmés. Cela implique l'utilisation d'algorithmes pour former des limites de décision sur l'espace de décision d'un ensemble de données. Le processus de formation du modèle est connu sous le nom de formation, et une fois qu'un modèle formé présente une bonne précision sur les données de formation, il peut être utilisé pour l'inférence afin de prédire de nouvelles sorties de données. Ce processus définit la deuxième définition la plus largement utilisée de l'apprentissage automatique établie par le Dr Tom Mitchell de l'Université Carnegie Mellon.

  • 00:05:00 Dans cette section, la vidéo explore l'essor de l'apprentissage automatique et de l'intelligence artificielle en mettant en évidence les cinq principales tribus de l'apprentissage automatique : les symbolistes, les connexionnistes, les évolutionnaires, les bayésiens et les analogistes. Il poursuit en expliquant comment le développement de l'IA est passé de la tentative de créer une IA plus générale et plus forte dans les premiers jours de l'IA, à la concentration sur l'acquisition d'une expertise spécifique à un domaine dans divers domaines. L'essor de l'apprentissage automatique peut être attribué à l'augmentation de la puissance de calcul et du stockage qui a permis des données plus grandes et de meilleure qualité et à l'essor de l'apprentissage en profondeur. De plus, la vidéo aborde le nombre de percées de l'IA rendues possibles en raison du fait que les données constituent un énorme goulot d'étranglement dans l'industrie.

  • 00:10:00 Cette section explique que si l'apprentissage automatique est une forme d'intelligence artificielle, il est classé comme une IA faible car les tâches qu'il exécute sont souvent isolées et spécifiques à un domaine. L'apprentissage automatique englobe de nombreuses approches différentes, des règles complexes et des arbres de décision aux approches basées sur l'évolution et plus encore, toutes dans le but de modéliser les complexités de la vie un peu comme la façon dont notre cerveau essaie de le faire. Bien qu'il soit reconnu que les modèles ne peuvent jamais être précis à 100 % pour prédire les résultats dans les problèmes du monde réel en raison d'abstractions et de simplifications, les modèles d'apprentissage automatique peuvent toujours être utiles dans un large éventail d'applications. La vidéo encourage les téléspectateurs à rechercher des ressources supplémentaires pour en savoir plus, y compris Brilliant, une plateforme qui propose des cours et des défis quotidiens couvrant une variété de sujets STEM.
 

L'apprentissage en profondeur expliqué (et pourquoi l'apprentissage en profondeur est si populaire)



L'apprentissage en profondeur expliqué (et pourquoi l'apprentissage en profondeur est si populaire)

La vidéo explique que la popularité de l'apprentissage en profondeur découle du fait qu'il peut apprendre des fonctionnalités directement à partir des données et utilise des réseaux de neurones pour apprendre les fonctionnalités sous-jacentes dans un ensemble de données. L'essor de l'apprentissage en profondeur peut être attribué au Big Data, à l'augmentation de la puissance de traitement et à la rationalisation des interfaces logicielles.

  • 00:00:00 Dans cette section, la vidéo explique que l'apprentissage en profondeur est un sous-domaine de l'intelligence artificielle qui est devenu populaire en raison du succès de la tribu connexionniste de l'apprentissage automatique. Les systèmes d'apprentissage en profondeur peuvent apprendre des fonctionnalités directement à partir de données et utiliser des réseaux de neurones pour apprendre des fonctionnalités sous-jacentes dans un ensemble de données. L'élément clé de l'apprentissage en profondeur est que les couches de fonctionnalités sont apprises à partir des données à l'aide d'une procédure d'apprentissage à usage général, au lieu d'être conçues à la main. La vidéo offre également un exemple de réseau de neurones détectant un visage dans une image d'entrée, en commençant par les caractéristiques de bas niveau, en discernant les caractéristiques de niveau intermédiaire et enfin en découvrant les caractéristiques de haut niveau pour identifier diverses structures faciales. La vidéo note finalement que la véritable naissance de l'apprentissage en profondeur est survenue en 2012 avec le concours ImageNet, où l'algorithme gagnant avait un taux d'erreur de 16 %, soit près de 10 % de mieux que son concurrent le plus proche.

  • 00:05:00 Dans cette section, la vidéo explique comment l'essor de l'apprentissage en profondeur peut être attribué à des facteurs tels que l'omniprésence du Big Data, l'augmentation de la puissance de calcul, les interfaces logicielles rationalisées comme TensorFlow et la capacité de l'apprentissage en profondeur à traiter données non structurées. La vidéo aborde également le développement historique des réseaux de neurones, des réseaux de perceptron à une seule couche des années 60 aux réseaux profonds modernes avec des dizaines à des centaines de couches. De plus, la vidéo recommande Brilliant.org comme une excellente ressource d'apprentissage pour ceux qui souhaitent approfondir le domaine de l'apprentissage en profondeur.
 

Du cerveau à l'IA (Que sont les réseaux de neurones)




Du cerveau à l'IA (Que sont les réseaux de neurones)

La vidéo traite des composants d'un neurone artificiel, qui est l'élément majeur d'un réseau de neurones artificiels, et comment il est basé sur la structure d'un neurone biologique.

Il explique également comment les réseaux de neurones dérivent la représentation de grandes quantités de données dans un processus couche par couche qui peut s'appliquer à tout type d'entrée. La vidéo recommande d'aller sur brillant.org pour en savoir plus sur les éléments de base des algorithmes d'apprentissage en profondeur.

  • 00:00:00 Dans cette section, la vidéo explique les bases d'un neurone artificiel, le composant principal d'un réseau de neurones artificiels. La structure d'un neurone artificiel est similaire à un neurone biologique, avec trois composants principaux : le soma ou le noyau, les dendrites ou les bras qui se connectent à d'autres neurones, et l'axone ou la longue queue qui transmet les informations vers et depuis la cellule. corps. La vidéo montre comment la structure de base d'une architecture de réseau neuronal d'apprentissage en profondeur a été dérivée du premier dessin d'un neurone de Santiago Ramon y Cajal, représentant les dendrites comme entrées, le soma comme centre de traitement et l'axone comme sortie. De plus, les connexions ou synapses entre les neurones ont été modélisées, et la force de la connexion était liée à l'épaisseur de la ligne.

  • 00:05:00 Dans cette section, la vidéo explique comment les réseaux de neurones fonctionnent pour dériver une représentation à partir de grandes quantités de données. Il explique ensuite comment cela se produit dans un processus couche par couche qui peut se traduire par n'importe quel type d'entrée, des valeurs de pixel d'une reconnaissance d'image aux fréquences audio de la parole pour la reconnaissance vocale ou les antécédents médicaux d'un patient pour prédire le probabilité de cancer. La vidéo mentionne également que pour en savoir plus sur le domaine, il faut envisager de visiter brillant.org, une plate-forme pour garder son cerveau vif et créatif, et comprendre les éléments de base des algorithmes d'apprentissage en profondeur.
 

Comment faire un réseau de neurones | Les réseaux de neurones expliqués



Comment faire un réseau de neurones | Les réseaux de neurones expliqués

La vidéo explique comment les réseaux de neurones forment des capacités de reconnaissance de formes en discutant de la structure et des mathématiques impliquées. Il utilise une image comme exemple et discute de la couche d'entrée, des nœuds de couche de sortie et introduit l'idée de couches cachées.

La vidéo se penche ensuite sur les fonctions d'activation et sur la manière dont elles convertissent les signaux d'entrée en signaux de sortie. La fonction tangente hyperbolique et la couche d'unité linéaire rectifiée sont discutées, et il est révélé que le réseau de neurones construit nécessite une ingénierie humaine importante pour garantir des valeurs non ambiguës. La vidéo recommande Brilliant.org pour en savoir plus.

  • 00:00:00 Dans cette section, la vidéo continue là où la dernière s'est arrêtée en discutant plus en détail de la structure et des mathématiques des réseaux de neurones pour voir comment ils forment des capacités de reconnaissance de formes. Pour mieux comprendre ce sujet complexe, une image sera utilisée comme exemple intuitif. La couche d'entrée est définie comme les pixels qui composent l'image, et les nœuds de la couche de sortie sont définis arbitrairement pour quatre types de structures différents. La vidéo introduit ensuite l'idée de couches cachées, qui peuvent avoir des fonctions d'activation appliquées pour remapper la valeur d'entrée et ajouter des limites à la valeur brute du nœud. Des pondérations sont également incorporées pour montrer comment l'entrée de notre nœud de couche cachée est affectée par des images d'entrée aléatoires.

  • 00:05:00 Dans cette section, la vidéo explique comment les fonctions d'activation fonctionnent pour convertir les signaux d'entrée en un signal de sortie pouvant être compris par les couches suivantes d'un réseau de neurones. La fonction tangente hyperbolique est utilisée comme exemple, qui mappe toutes les valeurs sur l'axe X à une valeur Y entre moins un et un. En ajoutant plus de nœuds, les champs récepteurs deviennent plus compliqués, et par exemple, dans la troisième couche cachée, le réseau commence à reconnaître des motifs comme une croix inversée. Enfin, la couche d'unité linéaire rectifiée est introduite, qui rectifie les valeurs négatives et maintient les valeurs positives identiques, conduisant à un réseau neuronal complet prêt à être testé.

  • 00:10:00 Dans cette section, le réseau de neurones construit dans la section précédente est analysé en profondeur pour comprendre comment il identifie les modèles dans une image d'entrée. Il se révèle que le réseau construit n'est pas parfait et nécessite une ingénierie humaine importante pour garantir des valeurs non ambiguës. La prochaine vidéo de la série couvrira la descente de gradient et la rétropropagation, les méthodes qui mettent l'apprentissage en apprentissage profond et comment elles permettent au réseau de construire sa propre représentation.
 

Comment les ordinateurs apprennent | Les réseaux de neurones expliqués (descente de gradient et rétropropagation)



Comment les ordinateurs apprennent | Les réseaux de neurones expliqués (descente de gradient et rétropropagation)

Cette vidéo explique comment les réseaux de neurones apprennent en modifiant les poids dans les couches cachées pour permettre au réseau de les déterminer. Le concept de fonction de coût est introduit pour minimiser le taux d'erreur du réseau de neurones, et la rétropropagation est expliquée comme le processus essentiel de réglage des paramètres du réseau.

Les trois principaux composants de l'apprentissage automatique, y compris la représentation, l'évaluation et l'optimisation, sont couverts par la tribu du connexionnisme. La vidéo note également que le réseau ne s'organise pas toujours parfaitement en couches d'abstraction. L'objectif de l'apprentissage en profondeur est que le réseau apprenne et règle les poids par lui-même.

  • 00:00:00 Dans cette section, l'accent est mis sur la manière dont les réseaux de neurones apprennent réellement. La première étape consiste à ajuster le réseau en modifiant les poids dans les couches cachées, que nous avons précédemment définies à la main, pour permettre au réseau lui-même de les déterminer. Avec 181 poids potentiels, il devient une tâche ardue de visualiser l'effet de chacun sur l'espace de décision de sortie. Afin de simplifier les choses, un nombre simple est utilisé avec 12 poids, et les équations du nœud de sortie sont tracées avec des limites de décision, où P est supérieur à Q en rouge et inférieur à Q en bleu. La modification des valeurs pondérées dans le réseau modifie la pente de la limite de décision. On observe que tous les changements résultant de l'ajustement du poids se traduisent par des sorties linéaires avec des lignes droites jusqu'à ce qu'une fonction d'activation telle que la fonction sigmoïde soit appliquée pour ajouter de la non-linéarité. Pour parvenir à un apprentissage en profondeur, l'objectif est que le processus d'apprentissage et le réglage du poids soient effectués par le réseau lui-même.

  • 00:05:00 Dans cette section, la vidéo explique le concept de fonction de coût et comment il aide à minimiser le taux d'erreur du réseau neuronal. La vidéo explique également le processus de rétropropagation qui est essentiel pour régler les valeurs des paramètres du réseau neuronal. La descente de gradient est la méthode pour déterminer dans quelle direction se déplacer, et la rétropropagation règle en fait les paramètres sur cette valeur, permettant au réseau de produire les résultats souhaités. L'objectif est d'obtenir des valeurs pondérées proches de la vérité terrain afin de minimiser la valeur de la fonction de coût. Le processus se répète lors de la formation du réseau jusqu'à ce que les poids soient à un point où ils produisent les résultats que nous attendons.

  • 00:10:00 Dans cette section, nous découvrons les trois principaux composants de l'apprentissage automatique dans la tribu du connexionnisme, qui incluent la représentation, l'évaluation et l'optimisation. La représentation est obtenue en utilisant une fonction de réseau neuronal, qui définit un espace de représentation, et l'évaluation est effectuée en calculant l'erreur quadratique des nœuds à la sortie, qui est utilisée pour obtenir une fonction de coût ou d'utilité. Enfin, l'optimisation est obtenue en recherchant l'espace des modules de représentation, et ceci est accompli par descente de gradient et rétropropagation. Bien que nous ayons fait de nombreuses généralisations sur la façon dont les réseaux de neurones artificiels devraient fonctionner, il y a encore beaucoup de choses que nous n'avons pas couvertes. L'une de ces choses est que le réseau ne s'organise pas toujours en couches parfaites d'abstraction.
 

Comment fonctionnent les réseaux de neurones | Les réseaux de neurones expliqués



Comment fonctionnent les réseaux de neurones | Les réseaux de neurones expliqués

La vidéo explique le paramètre de biais dans les réseaux de neurones, qui déclenche l'activation des nœuds lorsqu'un certain seuil est atteint, ainsi que la différence entre les paramètres et les hyperparamètres, les hyperparamètres nécessitant un réglage fin grâce à des techniques d'optimisation.

Le taux d'apprentissage est également discuté, et les défis de trouver le taux optimal tout en évitant le surajustement ou le sous-ajustement sont mis en évidence. L'ingénierie des caractéristiques est un autre sous-domaine des réseaux de neurones, où les analystes doivent déterminer les caractéristiques d'entrée qui décrivent avec précision un problème. La vidéo note que si les réseaux de neurones artificiels théoriques impliquent des couches d'abstraction parfaites, c'est beaucoup plus aléatoire en réalité en raison du type de réseau utilisé, qui est choisi en sélectionnant les hyperparamètres les plus importants.

  • 00:00:00 Dans cette section, la vidéo aborde certains des concepts qui n'étaient pas couverts dans les vidéos précédentes sur l'apprentissage en profondeur. Le paramètre de biais dans les réseaux de neurones est expliqué, qui est un autre paramètre qui doit être modifié pour apprendre la représentation. Le but du paramètre de biais est de relancer les nœuds pour qu'ils s'activent fortement lorsqu'un certain seuil est atteint. La vidéo explique que le biais est une ordonnée à l'origine d'une équation linéaire, où le poids est la pente. Le concept de paramètres versus hyperparamètres est également discuté, où les hyperparamètres sont des configurations qui sont externes au modèle et dont la valeur ne peut pas être estimée à partir des données. La discussion met en évidence que le réglage et l'optimisation des hyperparamètres constituent un sous-domaine complet de l'apprentissage en profondeur et que différentes techniques sont nécessaires pour trouver les meilleures valeurs pour différents paramètres. Le taux d'apprentissage, qui est un hyperparamètre, est également expliqué, et la valeur du taux d'apprentissage a d'énormes implications pour la représentation qu'un réseau de neurones construira.

  • 00:05:00 Dans cette section, la vidéo explique les défis de trouver le taux d'apprentissage idéal et l'ingénierie des fonctionnalités dans les réseaux de neurones. Pour trouver le taux d'apprentissage optimal, il faut beaucoup de travail pour s'assurer que le réseau de neurones fonctionne correctement. Un taux d'apprentissage inapproprié peut entraîner un surajustement ou un sous-ajustement qui pourrait entraîner une augmentation de la puissance de calcul et de la consommation de temps. L'ingénierie des caractéristiques, d'autre part, est le sous-domaine dans lequel un analyste doit déterminer les caractéristiques d'entrée qui décrivent avec précision le problème qu'il essaie de résoudre. Il est essentiel de capturer les caractéristiques qui renforcent le signal et suppriment le bruit, car le sous-ajustement peut se produire lorsqu'il y a peu de caractéristiques, tandis que le surajustement se produit lorsque le modèle est trop spécialisé et fragile pour répondre aux nouvelles données.

  • 00:10:00 Dans cette section, la vidéo explique que si le concept théorique des réseaux de neurones artificiels implique des couches parfaites d'abstraction, en réalité, il est beaucoup plus aléatoire. Le type de réseau utilisé pour un problème particulier, qui est choisi en sélectionnant les hyperparamètres les plus importants, en est une grande raison. Un réseau de neurones à anticipation est généralement choisi pour en savoir plus sur l'apprentissage en profondeur, car il est facile à comprendre. Cependant, il existe maintenant de nombreux types de réseaux de neurones qui ont vu le jour depuis et qui seraient bien mieux adaptés à divers problèmes, notamment les réseaux convolutifs et les réseaux récurrents. La vidéo se termine en exhortant les individus à garder leur cerveau vif et à penser à des solutions créatives aux problèmes multidisciplinaires.