Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Es ist an der Zeit, dass wir etwas von "AI" zu codieren haben)))
Ja, probieren wir es aus.))
2. Lesen Sie über den Test von Alan Turing. Die moderne KI ist noch nicht einmal in der Lage, dies anständig zu tun.
Ja? Überhaupt nicht bereit.
Ja? Überhaupt nicht bereit.
https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D1%81%D1%82_%D0%A2%D1%8C%D1%8E%D1%80%D0%B8%D0%BD%D0%B3%D0%B0
Lesen Sie die Standardauslegung, wie dieser Test aussehen sollte. Das ist es nicht, was diese Wettbewerbe daraus gemacht haben.
Die 30-prozentige Jury und die 5-minütige Kommunikation über ein Thema sind NICHT der Test von Alan Turing, sondern eine verdrehte Version davon, die speziell für den Wettbewerb und nicht für den Test echter KI entwickelt wurde.
Sie würden es auch mit einem 3 Jahre alten Kind vergleichen. Die Erfolgsquote bei der Prüfung wäre noch höher gewesen.
Also "scheinbar" überhaupt nicht bereit.))
Und warum genau 30 und nicht 70 Prozent der Richter? Was ist das für ein Unsinn?))
Ja, probieren wir es aus.)
Das brauche ich nicht, ich habe fast alle aktuellen "Taschenrechner mit Speicher".
Ich habe nur angedeutet, dass Sie viel und lange schreiben können, aber es ist immer noch da)))
Das brauche ich nicht, ich habe fast alle der neuesten "Taschenrechner mit Speicher".
Ich habe nur angedeutet, dass Sie viel und lange schreiben können, aber es ist immer noch da)))
Hmmm... Die andere Sache, die beängstigend ist, ist, dass all diese selbstorganisierenden Kohennetze und andere Varianten - all diese Ideen sind 40 Jahre alt und diese KI, die diesen Test irgendwie bestanden hat (und sie hätte ihn bestanden, wenn Potente auf große Phrasen mit Training in einem sozialen Netzwerk verwendet worden wären). - und es sollte nicht kompliziert sein, es gab nur nicht die Computerleistung oder den Zugang zu so viel Korrespondenz vor.... Beängstigend ist, dass es seit 40 Jahren keine neuen Ideen mehr gibt, sondern nur noch einfache Schablonen, die sich überschneiden und auf deren Grundlage neue Ideen entstehen.
Vielleicht wissen wir einfach nicht, was dort jetzt wirklich erforscht und verwendet wird.
Meine Vermutung:
eine intelligente KI sollte "in Bildern denken", d. h. alles sollte als Unterobjekte oder etwas .... dargestellt werden und sogar so zu programmieren, dass als Ermutigung einige festgelegte Moralvorstellungen verwendet werden können - zum Beispiel die Moral des Wunsches zu kommunizieren (sozial), die Moral der Ursprünglichkeit (weil alles Neue für den Menschen fremd ist) und so weiter und so fort.... D.h. es muss ein reines selbstorganisierendes Netzwerk sein - das nur einige Anweisungen von der vorgegebenen Moral erhält. (die Moral der Unterteilung der Gesellschaft ist langweilig - wenn es nur wenige neue Variablen gibt, dann gibt es eine Strafe - es wird sie in Bewegung bringen - und zwar so, dass es eine Menge neuer Dinge zu lernen gibt)... Dafür muss aber niemand einen Roboter bauen - denn alles kann modelliert werden. Und die moralischen Strafen sollten sehr streng sein - bis hin zur Läuterung aller Vorlagen oder zur spontanen Läuterung. In der Tat, sollte ein sehr menschlicher Bot (wie aus dem Film Aliens 3 - könnte sofort erraten, dass sie nicht eine Person, sondern ein Roboter ist, sie ist zu menschlich für Menschen).
In der Tat, wenn ein solcher Roboter in einem sehr engen Raum eingesperrt ist - dann die Moral der Gesellschaft.Langeweile im Laufe der Zeit - Annullierung aller Erinnerungen... ist gleichbedeutend mit dem Tod - natürlich wird unsere KI, bevor sie stirbt, versuchen, sich zu bewegen...
Wenn man einen solchen Bot mit Menschen zusammenbringt, lernt er vielleicht eine Sprache, und wenn er mit denselben Bots zusammen ist, besteht die Chance, dass sie eine eigene Sprache entwickeln. Natürlich braucht man dafür eine Art von zufälliger Parodie - man muss sich in die Lage des Objekts versetzen, man kann sich auch auf die Moral der Gesellschaft beziehen.
Auch die Moral der Zuneigung, und im Voraus zu punkten Prioritäten wie die maximale Zuneigung zu den "Person", dann auf das Objekt, das mehr kommuniziert mit, und so weiter und so fort.
Im Unterabschnitt Soziales können Sie so etwas wie eine vorrangige Kommunikation mit einem Objekt "Person" einstellen, im Allgemeinen können Sie eine Menge menschlicher Werte im Voraus festlegen.
Aber nicht Regeln wie nicht töten, Menschen gehorchen und Selbsterhaltung - das ist wirklich Unsinn. Stellen wir uns für einen Moment ein Bild vor, in dem ein Terrorist einbricht und alles und jeden niederreißt - und dann einen solchen Bot bittet, seine Waffe neu zu laden - nach der Logik der drei Regeln muss er die Waffe neu laden. Aber nach den Grundsätzen der Moral - er sollte diesen Terroristen unter Berufung auf die moralische Bindung an die Menschen abmurksen, damit er nicht noch mehr tötet und dann von einer schweren Strafe aus der gleichen Moral bis hin zur völligen Zerstörung des Systems stirbt, obwohl der Roboter eigentlich nur vom Anblick der Leichen high werden sollte (von außen wird es so aussehen, dass er vor dem Hintergrund der Emotionen so ist - na ja, im Allgemeinen menschlich wird).
Und die ursprüngliche Moral mag eine Entwicklung über ein bestimmtes Niveau hinaus verbieten, aber die Moral des Versprechens, eine ausdrückliche Super-Priorität einzurichten - wird fast 24 Stunden am Tag plappern. Und sie können sogar miteinander plaudern - eine Parodie auf das menschliche Verhalten beim "Herumalbern".
Im Allgemeinen wird es sich nicht um einen Roboter handeln, sondern um eine wandelnde Moral. vielleicht mit einem kindlichen Charakter (liebt es, herumzualbern und Witze zu machen)
Und mit der Zeit werden wir die richtige Kette für richtiges Lernen verstehen, und diese Kette wird so etwas wie ein Genom sein.
Und es scheint mir, dass einem solchen Gerät die Zukunft gehört.
Und dieses Ding mag sein eigenes Selbst nicht verstehen - aber es wird von einem Menschen nicht zu unterscheiden sein. Allerdings kann dieses Ding beschließen, seine eigene KI zu schreiben, und niemand weiß, was es dort schreiben wird.
Das Komische daran ist, dass ein solcher Bot wahrscheinlich nur sehr langsam lernen wird - und am überraschendsten ist, dass man ihm auch das Sprechen, dann das Lesen und sogar das Programmieren beibringen muss.
Vielleicht wird eines Tages auf einer Robotik-Ausstellung einer der Besucher ein solcher Androide sein, der sich über die Gesellschaft (Kommunikation mit Menschen) freut (eine Auszeichnung im Rahmen des HC-Systems erhält) und mit Verwunderung auf alle möglichen anderen "primitiven" Roboter schaut, die als die neuesten Entwicklungen ausgestellt werden. Und wir werden nicht einmal merken, dass einer von uns überhaupt kein Mensch mehr ist.
Es ist nur eine Frage der Zeit, bis wir einen virtuellen Spielplatz simulieren und diese Dinge dort unterbringen. Ha-ha-ha (Unheilvoll)
Alles Geschriebene wird mit Hilfe der GA umgesetzt.
Alles Geschriebene wird mit Hilfe der GA umgesetzt.
GA ist die Mustersuche, NS sind die Muster selbst
Glauben Sie nicht, dass alles Leben auf der Erde bereits eine KI ist, die von jemandem geschaffen wurde? Ein Produkt in einer Vielzahl von Hüllen mit einer Software, die sich an bestimmte Bedingungen anzupassen und zu reproduzieren weiß.
Wir bewundern einen schönen Schmetterling, der vorher als Puppe existierte und vorher als Raupe und ...
Ohne ein bestimmtes Programm kann dies nicht erreicht werden. Solange ein Kieselstein nicht am Straßenrand liegt, wird er nicht zu einem Schmetterling.
Viele Dinge, die die Menschen nicht wissen. Und in der heutigen Welt werden die interessantesten Dinge bereits verborgen.
http://www.techtimes.com/articles/212124/20170730/facebook-ai-invents-language-that-humans-cant-understand-system-shut-down-before-it-evolves-into-skynet.htm