Intelligence artificielle 2020 - y a-t-il des progrès ? - page 36

 
Mihail Marchukajtes:

Vous avez tout à fait raison. Les machines sont bien plus cool que nous en termes de précision, de vitesse de calcul, de capacité de stockage et bien d'autres choses encore, et oui, dans les petites tâches, elles ne sont pas passionnées par le choix (un effet secondaire de l'intelligence), directes et leur utilisation dans les petites tâches ne profite qu'à l'homme. Mais ici, nous parlions de l'intellectualisation des machines, ce qui est acceptable mais pas avec la technologie existante. Ici, lorsque le matériel créé par les Chinois recevra une distribution de masse, ainsi que des méthodes de formation de structures physiques similaires, alors nous en viendrons à la série "Wild West World" pas avant......

Le spectacle est excellent, d'ailleurs. JE RECOMMANDE !!!!!!

Avec tout le respect dû aux réalisations et aux découvertes des Chinois, la compréhension de l'intelligence vient de la conscience de soi, qui n'a pas grand-chose à voir avec la technologie. Modéliser l'intelligence, c'est plus que former n'importe quel SN, même le plus artificiel. Nous ne créons que des fonctions individuelles d'intelligence, mais il n'y a pas d'intégrité, car il n'y a pas de concept. Il existe des définitions générales, des hypothèses de fonctionnement, mais pas de véritables "plans". Par conséquent, nous construisons des modèles disjoints de ses phénomènes discrets à partir desquels nous essayons d'assembler quelque chose. Je pense que l'approche est mauvaise. Nous devons commencer par un plan de l'intellect ENTIER dans son ensemble.
 
Реter Konow:
Avec tout le respect que je dois aux réalisations et aux découvertes des Chinois, la compréhension de l'essence de l'intelligence est un sous-produit de la conscience de soi, qui a peu à voir avec la technologie. La modélisation du renseignement ne se limite pas à la formation de n'importe quel SN, même le plus sophistiqué. Nous ne faisons que créer des fonctions distinctes de l'intelligence, mais il n'y a pas d'intégrité, car il n'y a pas de concept de celle-ci. Il existe quelques définitions générales, des hypothèses de travail, mais il n'y a pas de "plans" réels, et nous ne construisons donc rien d'autre que des modèles fragmentaires de ses phénomènes discrets à partir desquels nous essayons d'assembler quelque chose. Je pense que l'approche est mauvaise. Nous devons commencer par un plan de l'ensemble de l'intelligence dans son ensemble.
Pour moi, l'important serait de modéliser à 100% les processus qui se déroulent dans le nuage biologique des neurones. Notre génération est malchanceuse. Nous ne vivons pas à cette époque. Mais nous en serons les pionniers et les fondateurs. :-)
 
Mihail Marchukajtes:

C'est reparti pour ceux qui l'ont manqué. Il y a déjà 29 visites et je suis en tête :-)

Quel est cet endroit ?

 
Evgeniy Zhdan:
Est-ce que l'Alice de Yandex compte ?

Non, les compétences pour Alice
peuvent être écrites par n'importe qui, aucune connaissance en programmation n'est nécessaire. Il y avait (y a-t-il encore ?) même un concours pour la meilleure compétence.

Как создать навык для Алисы с нуля — Академия Яндекса
Как создать навык для Алисы с нуля — Академия Яндекса
  • 2019.07.05
  • academy.yandex.ru
С помощью голосового помощника Яндекса уже можно узнавать погоду, строить маршруты и управлять умным домом. Но возможности Алисы можно еще расширить: например, создать навык для заказа еды или игру-квест по управлению государством. Навык может создать и опубликовать любой пользователь с помощью платформы Яндекс.Диалоги. Чтобы это сделать, нужно...
 

Eh bien, c'est... Déjà 53 visites. Vous me gâtez, collègues.

Je pense que c'est un indicateur de ceux qui sont vraiment intéressés par le sujet. Pour être honnête, il n'y en a pas tant que ça dans la population générale :-)

 
Au sujet de l'"intelligence" :

L'intelligence est un système de traitement multidimensionnel des informations recueillies en objets. (imho).

La conscience reflète la réalité selon deux modèles de base - objectif et subjectif. La réflexion est "pseudo-objective", mais la conscience tend à maintenir des limites claires de signification et des systèmes précis de mesure des choses. En revanche, dans le modèle subjectif du monde, la conscience généralise et évalue tout de manière approximative, en mélangeant émotions et attitudes. On peut dire que les modèles de systèmes mondiaux objectifs sont "enfermés" dans une enveloppe subjective et, dans certains cas, il n'y a rien d'autre que l'enveloppe.

La programmation moderne n'offre pas de méthodes de description rapide d'un ensemble d'objets avec des connexions et des régularités, et l'IA moderne ne "sait" rien et ne peut pas juger le monde. Son destin est de sélectionner un invariant dans une requête - qu'il s'agisse du visage d'une personne, d'un panneau routier ou d'une phrase, auquel il donne une réponse prédéterminée.

Dmitry Muromtsev (chef du Laboratoire international pour le traitement intelligent de l'information et les technologies sémantiques de l'ITMO et chef du département IPM) a une approche correcte de la question de la création d'une IA conversationnelle. La "modélisation ontologique" dont parle l'article (lien sur la page d'accueil) est effectivement (à mon avis) la clé de la solution, mais qu'est-ce que cela signifie ? - C 'est une modélisation de l'être.

Qu'est-ce que cela signifie ? Comment l'Être (le monde infini qui nous entoure et que nous apprenons depuis l'enfance par tous les moyens et dans toutes les variétés disponibles) est-il lié à l'intelligence artificielle ? Est-il techniquement possible de décrire le volume humain (ou surhumain) de connaissances et d'expériences et de le mettre dans une base de données ? Et surtout, pourquoi ?

Je dirai que je suis d'accord avec "l'itinéraire de la pensée" - après une étape de modélisation d'un système de connaissances humaines, nous passerons à la mise en œuvre du programme de traitement multidimensionnel (qui est l'IA), mais l'information doit être recueillie dans des objets, qui diffèrent de façon frappante dans le format des objets OOP - beaucoup plus difficile et plus riche, et à l'intérieur sont recueillies à partir de "proto-blocs" - composants : paramètres, états, formes, événements, processus et autres... Les proto-blocs doivent être généralisés et triés pour être rapidement assemblés en modèles et en instances et, au passage, combinés en systèmes complexes, puis en hiérarchies classées multiples.

Dmitry Muromtsev commet les erreurs classiques d'un expert technique - il choisit des normes et des méthodes de solution prédéterminées et ne fait pas coïncider ses vues avec le concept philosophique (qui demande à être vu). Il parle des "langages d'ontologies" appliqués dans l'industrie, mais ne pose pas la question ". La vraie nature des objets peut-elle être décrite par eux ?". Dans quelle mesure les "graphes de connaissances" sont-ils pratiques et suffisants pour le traitement de l'IA "cognitive" ? Très probablement insuffisants et inadaptés - de nouveaux outils doivent être créés.

Je suis convaincu que le pont vers l'IA est un nouveau modèle d'Objet, mais ce n'est que le début...
 
L'IA moderne travaille avec des connaissances sous la forme d'un livre - à partir de bouts de texte, tandis que l'IA future devra travailler avec des systèmes paramétriques - des modèles réels d'objets du monde réel et leurs dérivés qui interagissent et s'incluent mutuellement. Le format de connaissance "livresque" est fondamentalement différent de la connaissance systémique, mathématique. La machine d'information sur les connaissances se dotera d'un moteur qui (1) "poussera" son mécanisme de l'intérieur, (2) récupérera, traitera et ajoutera de nouvelles données en temps réel, (3) construira de nouveaux systèmes-objets.
 

Le problème est avant tout fondamental : il s'agit de l'absence de définition de l'IA. En creusant un peu plus, on s'aperçoit que de tels problèmes surviennent généralement si l'on n'est pas discipliné sur le plan logique : on se fie aux connaissances actuelles, on ne les remet pas en question et on fait appel à l'autorité des scientifiques. Le plus souvent, les scientifiques, les spécialistes sont des polymathes avec peu d'appareil analytique. Ils peuvent parler beaucoup, écrire beaucoup, dériver des formules d'une longueur infinie, mais ils sont incapables de comprendre les erreurs fondamentales. Par exemple, le Big Bang a été confirmé de manière élémentaire et c'est tout - tous les cerveaux scientifiques en tirent désormais des formules. Ils permettent les distorsions des espaces, mettent un signe égal entre la matière et l'espace, la courbe et la ligne droite, permettent les trous de ver et autres. On peut dire et écrire beaucoup de choses, et même de façon logique. Mais s'il y a une erreur de base, et qu'il n'y a pas de logiciens parmi les scientifiques, alors le problème devient persistant. En d'autres termes, si l'IA pense comme un être humain, nous n'aurons pas à parler de révolution technologique - nous clonerons simplement l'esprit moyen, qui considérera Einstein comme un génie, et produira des théories et des hypothèses inutiles sans fin. La prochaine étape révolutionnaire consisterait à créer une IA qui pense logiquement et dispose de la puissance infinie des ordinateurs modernes. Ensuite, il y aura quelque chose qui non seulement parlera, mais nous expliquera quelles sont les directions philosophiques à attendre après le transhumanisme.

Il existe trois types d'esprit : érudit, calculateur et logicien. Le polymathe est Wasserman, le calculateur est Perelman. Le premier ne sait pas calculer, le second ne sait pas ce que signifient les points sur le drapeau du Brésil. La première dit que la topologie de l'univers est un dodécaèdre ou un tore plat. Le second s'enfuit pour déduire des formules. Et seul le logicien sépare l'espace de la matière, définit les propriétés de l'un et de l'autre et rejette les dodécaèdres du processus de réflexion sur la physique, comme inutiles, et va travailler plus loin. Et c'est l'analogie que j'ai donnée pour les "penseurs", les vrais physiciens RAS ne voient pas vraiment la différence entre l'espace et la matière dans l'espace, d'où l'autorisation de la distorsion de l'espace, des trous de ver, de la finitude ou de la fermeture de l'univers et ainsi de suite. Et plus le visage du scientifique est sérieux ou enthousiaste, moins il est discipliné logiquement et se permet de "permettre".

L'efficacité analytique est permise par la combinaison de l'érudition, du calcul et de la logique. Tout d'abord, il faut définir les concepts.

Autant que je me souvienne, sur Internet, l'intelligence est la capacité de penser, l'intelligence, une caractéristique du psychisme, le traitement de différentes informations, autre chose.

Tout d'abord, il est nécessaire d'identifier la principale caractéristique de l'intelligence - c'est la capacité de travailler sans utiliser tous les capteurs et instruments de mesure nécessaires. Par exemple, pour déterminer la plage de température de l'eau par photo (photo d'une bouilloire avec de l'eau bouillante). Disposer d'un capteur et mesurer la température, c'est simplement obtenir des données (des connaissances). Ne pas avoir de capteur et mesurer la température, c'est utiliser l'intelligence.

Ainsi, l'intelligence est la capacité de traiter des informations sans recourir à des connaissances particulières et à des instruments de mesure.

La deuxième caractéristique de l'intelligence consiste à trouver le chemin le plus court vers un objectif. En d'autres termes, si vous disposez d'un capteur, pourquoi gaspiller la puissance de calcul d'un appareil d'analyse - il suffit de le brancher et de mesurer. Ainsi, la deuxième caractéristique de l'intelligence est l'utilisation du travail des "autres" pour résoudre un problème. Vassia a étudié toute l'année, absorbant les connaissances, il est assis à l'examen et se souvient de la réponse à la dernière question, la tête levée au plafond. Petya a fait des bêtises toute l'année, et il a triché sur la première pendant qu'il se souvenait. Les deux ont résolu le problème presque parfaitement. Ces connaissances ne leur étaient d'aucune utilité dans la vie, mais Petya a gagné beaucoup de temps pour mettre en œuvre ses objectifs.

La troisième caractéristique de l'intelligence est l'indépendance par rapport au but. Contrairement aux humains, qui sont soumis à des instincts et à des besoins fondamentaux, l'intellect n'est qu'un outil, pas une unité autonome. Il peut être rendu indépendant en ajoutant le but d'être. Tout le travail de l'intellect devient alors indépendant, car il poursuit le but d'être "allumé" à tout moment, ou en termes simples, "vivant". D'où le problème du danger que représente l'IA : si quelqu'un crée un appareil analytique-logique et le dote d'un module de sécurité de base dont l'objectif est d'exister en permanence, cette IA cherchera un moyen d'atteindre cet objectif et classera le danger sous la forme d'humains - le principal lien de contrôle du processus.
Mais, ce n'est pas obligatoire pour la fonction de renseignement. La reconnaissance vocale est donc aussi de l'IA, mais elle en constitue une petite partie.

Ainsi, pour qu'une IA réponde à la question "pourquoi les vaches ne volent pas", elle doit au moins distinguer entre les réponses logiques : complète - "parce que les vaches n'ont physiologiquement pas les organes pour voler", incomplète - "parce qu'une vache n'est pas un oiseau", ainsi qu'autonome - "donc elle n'en a pas besoin", humoristique - "Darwin l'a interdit", etc. Et en fonction de la réponse, la classification de la nature de la réponse est inévitable, ce qui est déjà un signe de personnalité.

Fondamentalement, il y a deux façons de créer l'IA :

1) Apprentissage continu - constitution de la base de données de connaissances avec correction ultérieure des informations en mémoire.
2) Delta logique : balayage proto-quantique de l'univers, de la matière et des particules du champ à la structure complexe des molécules, de la matière, de la biologie et de la sociologie - en les décomposant en un grand tableau. (J'ai vu un article à ce sujet quelque part, mais je ne me souviens plus où), et jetez toute cette table dans un neurone. Et, plus la puissance de traitement est importante, plus le neurone apprendra rapidement et de manière autonome le monde et tout ce que l'humanité n'a pas encore atteint, prédisant des modèles et des technologies pour résoudre n'importe quel problème, qu'il s'agisse de la formule d'un vaccin contre un coronavirus, de prévisions météorologiques ou du développement de systèmes de propulsion gravitationnelle. En d'autres termes, il n'y aura rien à apprendre, l'IA résoudra tous les problèmes dans les limites des lois physiques, l'essentiel étant de les formuler correctement devant elle.

Aujourd'hui, le développement se fait par la première voie, mollement, parce que la deuxième option, même si elle existe quelque part, ne fera pas l'objet d'une publicité.

 
Ivan Butko:

...

Tout d'abord, merci beaucoup pour votre opinion approfondie et réfléchie - elle contient beaucoup de points de vue intéressants et originaux et constitue l'un des meilleurs messages du fil de discussion.

Deuxièmement. Vous êtes manifestement un humaniste et vous essayez d'examiner le problème de l'IA sous tous les angles possibles ; les aspects moraux et existentiels sont très bien, mais les aspects techniques sont imprécis.

Et donc :

  1. La définition de l'IA est là : il s'agit d'un système de traitement multidimensionnel d'informations rassemblées en objets. Je souligne - exactementles objets. Pourquoi est-ce important ? - Parce que tout ce que l'esprit humain traite a un seul format - l'objet. La deuxième question est de savoir comment l'être humain traite ces objets, alors que de nombreux outils sont disponibles :classification, calcul, modélisation, traitement des valeurs, paramètres, propriétés, prévision, généralisation, extrapolation et interpolation, construction de structures hiérarchiques et de connexions logiques et bien d'autres encore. En d'autres termes, il s'avère qu'il n'y a pas de "magie" dans l'activité de l'intellect du point de vue technique - il s'agit simplement du travail d'un complexe fonctionnel avec les objets de l'environnement, qu'il "reflète" en lui-même.

2. Vous dites que si nous copions l'esprit moyen, nous ne ferons pas de révolution technologique - ce n'est pas vrai. La révolution technologique concerne la prothèse complète du travail humain - tant physique que mental- et ce qui suivra - et les conséquences pour le monde entier seront dramatiques - est une question d'un autre domaine. Ce qui compte, c'est que l'IA provoque une révolution mondiale. dans tous les cas.

3. D'un point de vue technique, il est beaucoup plus difficile de reproduire une intelligence ordinaire et moyenne que de créer une machine informatique intelligente incroyablement puissante et dépourvue d'expérience et de sentiments. Outre l'intelligence, l'individu moyen possède un psychisme complexe, dont le monde nous est incompréhensible et qui n'est donc pas sujet à la reproduction. Il est impossible d'ajouter accidentellement quelque chose à une IA que nous ne pouvons pas comprendre. Il est possible d'écrire la fonctionnalité, mais pas le monde spirituel. De plus, cela interférera avec la capacité de la machine à fonctionner efficacement et à construire un paradis matériel pour les gens ordinaires). Le psychisme réduira les performances de l'IA, diminuera son efficacité, augmentera le temps de résolution des problèmes et les erreurs dans les résultats, et surtout, il ne sera pas rentable commercialement - il est donc inutile de le recréer).

4. il n'y a aucun sens pratique à créer une IA qui sera "indépendante" de l'objectif (peut-être ne pourra-t-elle pas non plus fonctionner) - il faut créer une machine destinée à résoudre un large éventail de problèmes, et non la personnalité d'un chômeur en pleine crise de la quarantaine, après un divorce, cherchant du réconfort dans le bouddhisme, pour ensuite lui imposer la solution des problèmes mondiaux. L 'objectif de la création de l'IA est d'automatiser la résolution de tous les problèmes possibles dans le cercle rationnel : industriels, domestiques, scientifiques et peut-être même politiques. Une telle IA conduira sans aucun doute à une révolution industrielle et artisanale. J'insiste : l'IA restera toujours(inconditionnellement) dépendante des objectifs humains et n'existera que dans le rôle d'un "calculateur" méga-puissant. La fixation d'objectifs, la conscience de soi et la quête spirituelle d'une personne ne seront JAMAIS reproduites par une machine, car l'homme est incapable de les comprendre et d'en faire un algorithme. Le reste des opinions sur ce sujet ne sont que des fantaisies de philistins.

5) La question "pourquoi les vaches ne volent pas" est le test de l'IA moderne. À partir de la génération suivante, il doit "connaître" les objets, les phénomènes et les lois du monde physique et "savoir comment" y naviguer. Il pourra faire de l'humour et spéculer à leur sujet encore plus tard, malheureusement. Dans ce cas, l'humour et la "démogoguerie" de l'IA sur le monde devront être basés sur des calculs et des calculs, plutôt que sur des textes préparés. C'est-à-dire qu'une IA n'a pas besoin d'être "enseignée" dans des livres et des articles, son travail doit être algorithmique au niveau de la systématisation paramétrique et de la formulation des calculs, tandis que le fond de la réponse (humoristique, philistin ou scientifique) doit être obtenu comme résultat du traitement du sens dans le contexte de la situation ou du dialogue.


La conclusion de tout ce qui précède est que l'IA peut être développée et construite avec la bonne approche et les objectifs limités qui lui sont associés. Il est possible de créer une IA conversationnelle avec une fonctionnalité d'analyse des sens et de calcul des résultats basée sur le traitement des objets en tant que systèmes paramétriques, mais c'est long à expliquer.)))))

 
Maxim Fedorov, vice-président chargé de l'intelligence artificielle et de la modélisation mathématique chez Skoltech, sur le développement de l'IA d'un point de vue éthique, juridique et technologique.

"À un niveau élevé, dans divers comités, les problèmes de l'IA forte sont discutés, et il n'y en a pas et il n'y en aura pas pour les 50-100 prochaines années (et peut-être pas du tout). Le problème est qu'en discutant de dangers qui n'existent pas et n'existeront pas dans un avenir proche, nous passons à côté des véritables menaces. Il est important de comprendre ce qu'est l'IA et d'élaborer un ensemble clair de règles et d'éthique. Si vous la suivez, vous obtenez du bien, si vous ne la suivez pas, vous obtenez du mal.