De grands projets. - page 8

 
Alexandr Andreev:

Il semble qu'il n'y ait que des robots verbaux, mais s'ils associent chaque phrase à un objet, alors c'est vraiment quelque chose d'effrayant... Et alors, les robots gaspillaient l'incroyable puissance de la ressource. Je me demande aussi ce que leur réseau était limité là-bas. Bien que ce dont ils parlaient soit bien sûr très effrayant. Je noterai ici la communication entre les deux bots telle que je l'ai comprise et sur la base de laquelle Facebook a décidé de les éliminer du réseau.

Voici le dialogue :

Bob : "Je peux tout faire." // I can I I tout le reste.

Alice : "Les boules ont zéro à moi à moi à moi à moi à moi à moi à moi."

Eh bien, il y a une chose que ce dialogue est le résultat de la deuxième inclusion et au début ils ont même commencé à communiquer dans leur propre langue - pas l'anglais. S'il ne s'agit que de bots verbaux, ils ne sont pas dangereux.

Il ne s'agit pas de danger. Il s'agit de la "capacité" non seulement à trouver un modèle (pour utiliser votre argot), mais aussi à générer quelque chose de "nouveau".
Il est donc préférable de ne pas écrire trop de lettres, mais de dessiner un schéma fonctionnel pour plus de clarté et de fouiller un peu, ce qui a été suggéré à Retega...

 
Overview — USPEX
Overview — USPEX
  • uspex-team.org
USPEX (Universal Structure Predictor: Evolutionary Xtallography...and in Russian "uspekh" means "success" - owing to the high success rate and many useful results produced by this method) is a method developed by the Oganov laboratory since 2004. The problem of crystal structure prediction is very old and does, in fact, constitute the central...
 
Реter Konow:

Lisez l'interprétation standard de ce que devrait être ce test. Ce n'est pas du tout ce qu'il a été transformé dans ces concours.

Les 30 % de juges et la communication de 5 minutes sur un seul sujet ne sont PAS un test d'Alan Turing, mais une version tordue de celui-ci, conçue spécifiquement pour le concours, et non pour tester une véritable IA.

Vous le compareriez également à un enfant de 3 ans. Le taux de réussite au test aurait été encore plus élevé.

Pourquoi un seul sujet ? Il est dit que "le sujet des questions n'a été limité en aucune façon". En outre, ne vous accrochez pas tant au test de Turing. Vous le vantez ici comme quelque chose de si fondamental et immuable. Bien qu'il ne s'agisse que d'une idée inventée il y a plusieurs décennies, et très critiquée depuis.

Je ne suis pas un expert dans ce domaine, mais il me semble qu'il est assez biaisé de juger l'intelligence par correspondance. Il se peut qu'une personne ne parle pas très bien la langue dans laquelle vous lui parlez, et qu'elle ne vous comprenne donc pas. Il se peut même qu'il ne soit pas capable de s'articuler du tout parce qu'il vit dans la tribu des Tumba-Yumba, où ils n'utilisent que les sons "u" et "a". Mais cela ne veut pas dire qu'il n'a pas d'intelligence. Par conséquent, la machine ne doit pas non plus comprendre votre langue.

Mais l'idée de Turing n'implique évidemment pas un tel scénario. C'est-à-dire que tout est initialement conduit dans une sorte de cadre. À mon avis, il s'agit d'une interprétation de l'intelligence artificielle si particulière, conçue pour le commun des mortels. Un robot s'approche de vous et vous dit : "Salutations, terrien." Le robot en a-t-il besoin ?

 
Реter Konow:

Option 1 : utiliser l'IA pour réaliser les projets maléfiques des escrocs et des voyous.

Et donc - le futur proche.

Le développement de machines intelligentes bat son plein. Une entreprise construit des robots...

...un certain gang vole un lot de robots dans les entrepôts de l'entreprise et pirate leur logiciel. Les pirates informatiques reprogramment les drones.

...

Pour que ces robots soient dangereux pour les humains, ils doivent être construits spécialement. Affûtés pour tuer et programmés avec des compétences militaires. Ils seraient toujours nettement inférieurs aux humains au combat, et ils seraient hors d'état de nuire en "meute".

Plus important encore, dans cette variante, les robots n'ont aucune autonomie, ce qui signifie qu'ils ne sont pas plus dangereux que toute autre arme entièrement contrôlée par un humain.

Eh bien, nous parlons du matériel de combat original. Et nous n'avons pas peur d'un frigo qui s'emballe.

Qu'est-ce qui vous fait penser qu'ils seront inférieurs aux humains au combat ? Supposons qu'il existe un char autoguidé capable de s'orienter parfaitement dans l'espace, de reconnaître instantanément les objets et de tirer droit. Un humain serait-il capable d'y résister tout en contrôlant exactement le même réservoir ? Je pense que c'est seulement dans certaines conditions non standard.

 
Alexey Navoykov:

Pourquoi un seul sujet ? Elle précise que "le sujet des questions n'a fait l'objet d'aucune restriction". En outre, ne vous accrochez pas tant au test de Turing. Vous le vantez ici comme quelque chose de si fondamental et immuable. Bien qu'il ne s'agisse que d'une idée inventée il y a plusieurs décennies, et très critiquée depuis.

Je ne suis pas un expert dans ce domaine, mais il me semble qu'il est assez biaisé de juger l'intelligence par correspondance. Il se peut qu'une personne ne parle pas très bien la langue dans laquelle vous lui parlez, et qu'elle ne vous comprenne donc pas. Il se peut même qu'il ne soit pas capable de s'articuler du tout parce qu'il vit dans la tribu des "Tumba-Yumba", où ils n'utilisent que les sons "Y" et "A". Mais cela ne veut pas dire qu'il n'a pas d'intelligence. Par conséquent, la machine ne doit pas non plus comprendre votre langue.

Mais l'idée de Turing n'implique évidemment pas un tel scénario. C'est-à-dire que tout est initialement conduit dans une sorte de cadre. À mon avis, il s'agit d'une interprétation de l'intelligence artificielle très populaire, conçue pour le commun des mortels. Un robot s'approche de vous et vous dit : "Salutations, Terrien." Le robot en a-t-il besoin ?

Le test d'Alan Turing est conçu pour tester l'intelligence des machines par rapport à l'intelligence humaine.

La parole est utilisée pour empêcher la tricherie , car un ordinateur peut effectuer des tâches tout aussi bien qu'un humain. Le test se fait par écrit, car n'importe quel ordinateur échouerait au test verbal. Les "indulgences" sont créées pour l'ordinateur, pas pour une personne. Le test évalue dans quelle mesure un ordinateur peut "penser" comme un être humain, et non dans quelle mesure un ordinateur peut "tromper" les gens en prétendant être un sauvage "Tumbu Yumbu" derrière un rideau ou un nourrisson qui babille. Selon vous, le juge doit penser que si l'une des personnes interrogées répond comme un idiot, il s'agit simplement d'une personne trisomique et non d'un ordinateur ? )

Une machine avec l'intelligence d'un requin est un non-sens. Un requin est guidé par les instincts de son programme de vie, formés au cours de l'évolution. Une machine dotée d'un tel programme serait complètement inutile et incontrôlable. Ses actions n'ont aucun sens, ni pour les gens ni pour lui. Cette ferraille déchaînée sera neutralisée dès que possible.

Le danger d'une telle IA pour l'humanité est encore moindre que celui d'un fou dans un aquarium, ne serait-ce que parce que le fou est encore humain et que le requin est un animal. De tels phénomènes, à mon avis, devraient être définis comme une défaillance d'un système complexe, et non comme une manifestation de l'IA. De même, l'échec du test d'Alan Turing par un ordinateur devrait être considéré comme un échec, sans justifier le résultat par des arguments du type :"l'ordinateur ne "comprend" tout simplement pas votre langage, et il est aussi autiste". ))

 
Alexey Navoykov:

Eh bien, nous parlons d'un équipement initialement prêt au combat. Nous n'avons pas peur d'un frigo qui s'emballe.

Qu'est-ce qui vous fait penser qu'ils seront inférieurs aux humains au combat ? Supposons qu'il existe un char autoguidé capable de s'orienter parfaitement dans l'espace, de reconnaître instantanément les objets et de tirer droit. Un humain serait-il capable d'y résister tout en contrôlant exactement le même réservoir ? Je pense que c'est seulement dans certaines conditions non standard.

Divisons le danger de l'IA en deux catégories : "défaillance d'un système complexe" et "conscience de soi acquise".

A propos de la défaillance d'un système complexe dont j'ai parlé plus haut. Si les freins lâchent et que la machine commence à écraser les gens, cela ne signifie pas qu'elle s'est réalisée et qu'elle se venge de l'humanité. Les humains trouveront toujours un moyen de faire face à de telles machines.

Le danger de la deuxième catégorie est perçu par les gens comme l'isolement de l'IA sur elle-même et ses intérêts, et l'utilisation d'avantages technologiques et militaires pour atteindre ses objectifs. Au cœur du scénario, les gens placent l'ego pincé de la machine, qui est supposée fatiguée de travailler pour les humains et réalisant sa supériorité veut gagner son indépendance.

Ce scénario n'est possible que si l'on a une conscience de soi et une psyché complètes. Comme je l'ai dit précédemment, cela ne peut pas être créé à notre niveau de compréhension de la Conscience et de la Psyché.

Nous ne pouvons pas reproduire ce que nous ne comprenons absolument pas.

 

Pour une personne qui se trouve à un certain niveau de développement, les problèmes, questions et tâches qui relèvent de son niveau d'horizon seront compréhensibles pour elle. Tout ce qui dépasse son entendement lui sera inaccessible, qu'il s'agisse de la motivation d'une fourmi ou de la technologie d'hypothétiques extraterrestres.

Il suffit de penser à la façon dont les personnes qui vivaient il y a seulement 100 ou 200 ans voyaient l'avenir, car elles considéraient le monde dans lequel nous vivons comme une fantaisie. La façon dont ils comprenaient la technologie aujourd'hui dépasse l'imagination. Mais ils, et nous, sommes tous des êtres humains. Ils ne comprendraient même pas ce qu'on leur demande de faire dans ces tests, même s'ils sont exagérés.

Tout test est un cadre. De plus, un test peut en dire long sur l'auteur, sur son niveau de développement, sur son cadre.

 
Олег avtomat:

Pour une personne qui se trouve à un certain niveau de développement, les problèmes, questions et tâches qui relèvent de son niveau d'horizon seront compréhensibles pour elle. Tout ce qui dépasse son entendement lui sera inaccessible, qu'il s'agisse de la motivation d'une fourmi ou de la technologie d'hypothétiques extraterrestres.

Il suffit de penser à la façon dont les personnes qui vivaient il y a seulement 100 ou 200 ans voyaient l'avenir, car elles considéraient le monde dans lequel nous vivons comme une fantaisie. La façon dont ils comprenaient la technologie aujourd'hui dépasse l'imagination. Mais ils, et nous, sommes tous des êtres humains. Ils ne comprendraient même pas ce qu'on leur demande de faire dans ces tests, même s'ils sont exagérés.

Tout test est un cadre. De plus, un test peut en dire long sur l'auteur, sur son niveau de développement, sur son cadre.

Je vois où votre logique veut en venir.

"Si un ordinateur ne réussit pas le test, cela ne veut pas dire qu'il n'a pas d'intelligence. Peut-être qu'il pense différemment de nous. Peut-être que nous ne devrions pas le comprendre et qu'il ne devrait pas nous comprendre." Et ainsi de suite...

Pouvez-vous imaginer si c'était la question posée dans les examens scolaires ? )

 
Реter Konow:

Je vois où votre logique veut en venir.

"Ce n'est pas parce qu'un ordinateur ne réussit pas le test qu'il n'a pas d'intelligence. Peut-être qu'il pense différemment de nous. Peut-être que nous ne devrions pas le comprendre et qu'il ne devrait pas nous comprendre." Et ainsi de suite...

Pouvez-vous imaginer si c'était la façon dont la question était posée dans les examens scolaires ? )


C'est une chose étrange. Tu sais soi-disant de quoi je parle... ...et sur cette base, vous m'attribuez vos conjectures. Mais c'est ta vision déformée qui a mis mes mots sens dessus dessous.

 
Олег avtomat:

C'est une chose étrange. Vous êtes censé savoir de quoi je parle... et sur cette base, vous m'attribuez vos spéculations. Mais c'est votre vision déformée qui a mis mes mots sens dessus dessous.

Je comprends votre raisonnement. Ils sont intéressants. Mais à la lumière du sujet traité, votre logique ne conduit-elle pas à ce que j'ai dit ?