Große Projekte. - Seite 7

 
Vizard_:

Es ist an der Zeit, dass wir etwas von "AI" zu codieren haben)))

Ja, probieren wir es aus.))

 
Реter Konow:

2. Lesen Sie über den Test von Alan Turing. Die moderne KI ist noch nicht einmal in der Lage, dies anständig zu tun.


Ja? Überhaupt nicht bereit.

Тест Тьюринга пройден (на детском уровне сложности)
Тест Тьюринга пройден (на детском уровне сложности)
  • 2008.06.14
  • habrahabr.ru
Сделала это программа, которая убедила людей, что является 13-летним мальчиком из украинской Одессы. Согласно условиям теста Тьюринга, он считается пройденным, если программе удастся убедить в своей человечности хотя бы 30% судей в процессе 5-минутного текстового общения. Программе, разработанной Владимиром Веселовым из России и украинцем...
 
Galina Bobro:

Ja? Überhaupt nicht bereit.

https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D1%81%D1%82_%D0%A2%D1%8C%D1%8E%D1%80%D0%B8%D0%BD%D0%B3%D0%B0

Lesen Sie die Standardauslegung, wie dieser Test aussehen sollte. Das ist es nicht, was diese Wettbewerbe daraus gemacht haben.

Die 30-prozentige Jury und die 5-minütige Kommunikation über ein Thema sind NICHT der Test von Alan Turing, sondern eine verdrehte Version davon, die speziell für den Wettbewerb und nicht für den Test echter KI entwickelt wurde.

Sie würden es auch mit einem 3 Jahre alten Kind vergleichen. Die Erfolgsquote bei der Prüfung wäre noch höher gewesen.



Also "scheinbar" überhaupt nicht bereit.))


Und warum genau 30 und nicht 70 Prozent der Richter? Was ist das für ein Unsinn?))

Тест Тьюринга — Википедия
Тест Тьюринга — Википедия
  • ru.wikipedia.org
Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор»...
 
Реter Konow:

Ja, probieren wir es aus.)

Das brauche ich nicht, ich habe fast alle aktuellen "Taschenrechner mit Speicher".
Ich habe nur angedeutet, dass Sie viel und lange schreiben können, aber es ist immer noch da)))

 
Vizard_:

Das brauche ich nicht, ich habe fast alle der neuesten "Taschenrechner mit Speicher".
Ich habe nur angedeutet, dass Sie viel und lange schreiben können, aber es ist immer noch da)))

Ich weiß nicht, was Sie meinen.
 

Hmmm... Die andere Sache, die beängstigend ist, ist, dass all diese selbstorganisierenden Kohennetze und andere Varianten - all diese Ideen sind 40 Jahre alt und diese KI, die diesen Test irgendwie bestanden hat (und sie hätte ihn bestanden, wenn Potente auf große Phrasen mit Training in einem sozialen Netzwerk verwendet worden wären). - und es sollte nicht kompliziert sein, es gab nur nicht die Computerleistung oder den Zugang zu so viel Korrespondenz vor.... Beängstigend ist, dass es seit 40 Jahren keine neuen Ideen mehr gibt, sondern nur noch einfache Schablonen, die sich überschneiden und auf deren Grundlage neue Ideen entstehen.

Vielleicht wissen wir einfach nicht, was dort jetzt wirklich erforscht und verwendet wird.


Meine Vermutung:

eine intelligente KI sollte "in Bildern denken", d. h. alles sollte als Unterobjekte oder etwas .... dargestellt werden und sogar so zu programmieren, dass als Ermutigung einige festgelegte Moralvorstellungen verwendet werden können - zum Beispiel die Moral des Wunsches zu kommunizieren (sozial), die Moral der Ursprünglichkeit (weil alles Neue für den Menschen fremd ist) und so weiter und so fort.... D.h. es muss ein reines selbstorganisierendes Netzwerk sein - das nur einige Anweisungen von der vorgegebenen Moral erhält. (die Moral der Unterteilung der Gesellschaft ist langweilig - wenn es nur wenige neue Variablen gibt, dann gibt es eine Strafe - es wird sie in Bewegung bringen - und zwar so, dass es eine Menge neuer Dinge zu lernen gibt)... Dafür muss aber niemand einen Roboter bauen - denn alles kann modelliert werden. Und die moralischen Strafen sollten sehr streng sein - bis hin zur Läuterung aller Vorlagen oder zur spontanen Läuterung. In der Tat, sollte ein sehr menschlicher Bot (wie aus dem Film Aliens 3 - könnte sofort erraten, dass sie nicht eine Person, sondern ein Roboter ist, sie ist zu menschlich für Menschen).

In der Tat, wenn ein solcher Roboter in einem sehr engen Raum eingesperrt ist - dann die Moral der Gesellschaft.Langeweile im Laufe der Zeit - Annullierung aller Erinnerungen... ist gleichbedeutend mit dem Tod - natürlich wird unsere KI, bevor sie stirbt, versuchen, sich zu bewegen...

Wenn man einen solchen Bot mit Menschen zusammenbringt, lernt er vielleicht eine Sprache, und wenn er mit denselben Bots zusammen ist, besteht die Chance, dass sie eine eigene Sprache entwickeln. Natürlich braucht man dafür eine Art von zufälliger Parodie - man muss sich in die Lage des Objekts versetzen, man kann sich auch auf die Moral der Gesellschaft beziehen.

Auch die Moral der Zuneigung, und im Voraus zu punkten Prioritäten wie die maximale Zuneigung zu den "Person", dann auf das Objekt, das mehr kommuniziert mit, und so weiter und so fort.

Im Unterabschnitt Soziales können Sie so etwas wie eine vorrangige Kommunikation mit einem Objekt "Person" einstellen, im Allgemeinen können Sie eine Menge menschlicher Werte im Voraus festlegen.

Aber nicht Regeln wie nicht töten, Menschen gehorchen und Selbsterhaltung - das ist wirklich Unsinn. Stellen wir uns für einen Moment ein Bild vor, in dem ein Terrorist einbricht und alles und jeden niederreißt - und dann einen solchen Bot bittet, seine Waffe neu zu laden - nach der Logik der drei Regeln muss er die Waffe neu laden. Aber nach den Grundsätzen der Moral - er sollte diesen Terroristen unter Berufung auf die moralische Bindung an die Menschen abmurksen, damit er nicht noch mehr tötet und dann von einer schweren Strafe aus der gleichen Moral bis hin zur völligen Zerstörung des Systems stirbt, obwohl der Roboter eigentlich nur vom Anblick der Leichen high werden sollte (von außen wird es so aussehen, dass er vor dem Hintergrund der Emotionen so ist - na ja, im Allgemeinen menschlich wird).

Und die ursprüngliche Moral mag eine Entwicklung über ein bestimmtes Niveau hinaus verbieten, aber die Moral des Versprechens, eine ausdrückliche Super-Priorität einzurichten - wird fast 24 Stunden am Tag plappern. Und sie können sogar miteinander plaudern - eine Parodie auf das menschliche Verhalten beim "Herumalbern".

Im Allgemeinen wird es sich nicht um einen Roboter handeln, sondern um eine wandelnde Moral. vielleicht mit einem kindlichen Charakter (liebt es, herumzualbern und Witze zu machen)

Und mit der Zeit werden wir die richtige Kette für richtiges Lernen verstehen, und diese Kette wird so etwas wie ein Genom sein.

Und es scheint mir, dass einem solchen Gerät die Zukunft gehört.

Und dieses Ding mag sein eigenes Selbst nicht verstehen - aber es wird von einem Menschen nicht zu unterscheiden sein. Allerdings kann dieses Ding beschließen, seine eigene KI zu schreiben, und niemand weiß, was es dort schreiben wird.

Das Komische daran ist, dass ein solcher Bot wahrscheinlich nur sehr langsam lernen wird - und am überraschendsten ist, dass man ihm auch das Sprechen, dann das Lesen und sogar das Programmieren beibringen muss.

Vielleicht wird eines Tages auf einer Robotik-Ausstellung einer der Besucher ein solcher Androide sein, der sich über die Gesellschaft (Kommunikation mit Menschen) freut (eine Auszeichnung im Rahmen des HC-Systems erhält) und mit Verwunderung auf alle möglichen anderen "primitiven" Roboter schaut, die als die neuesten Entwicklungen ausgestellt werden. Und wir werden nicht einmal merken, dass einer von uns überhaupt kein Mensch mehr ist.

Es ist nur eine Frage der Zeit, bis wir einen virtuellen Spielplatz simulieren und diese Dinge dort unterbringen. Ha-ha-ha (Unheilvoll)

 
Alexandr Andreev:

Alles Geschriebene wird mit Hilfe der GA umgesetzt.

 
Vizard_:

Alles Geschriebene wird mit Hilfe der GA umgesetzt.


GA ist die Mustersuche, NS sind die Muster selbst

 

Glauben Sie nicht, dass alles Leben auf der Erde bereits eine KI ist, die von jemandem geschaffen wurde? Ein Produkt in einer Vielzahl von Hüllen mit einer Software, die sich an bestimmte Bedingungen anzupassen und zu reproduzieren weiß.

Wir bewundern einen schönen Schmetterling, der vorher als Puppe existierte und vorher als Raupe und ...

Ohne ein bestimmtes Programm kann dies nicht erreicht werden. Solange ein Kieselstein nicht am Straßenrand liegt, wird er nicht zu einem Schmetterling.

Viele Dinge, die die Menschen nicht wissen. Und in der heutigen Welt werden die interessantesten Dinge bereits verborgen.

 
Facebook AI Invents Language That Humans Can't Understand: System Shut Down Before It Evolves Into Skynet
Facebook AI Invents Language That Humans Can't Understand: System Shut Down Before It Evolves Into Skynet
  • Tech Times
  • www.techtimes.com
Facebook shut down one of its artificial intelligence systems after AI agents started communicating with one another in a language that they invented. The incident evokes images of the rise of Skynet in the iconic "Terminator" series.  ( ) Facebook was forced to shut down one of its artificial intelligence systems after researchers discovered...