Grandes proyectos. - página 7

 
Vizard_:

Ya era hora de que tuviéramos algo que codificar de la "IA"))

Sí, vamos a intentarlo)).

 
Реter Konow:

2. Lea sobre la prueba de Alan Turing. La IA moderna ni siquiera está preparada para fallar decentemente.


¿Sí? Parece que no está preparado en absoluto.

Тест Тьюринга пройден (на детском уровне сложности)
Тест Тьюринга пройден (на детском уровне сложности)
  • 2008.06.14
  • habrahabr.ru
Сделала это программа, которая убедила людей, что является 13-летним мальчиком из украинской Одессы. Согласно условиям теста Тьюринга, он считается пройденным, если программе удастся убедить в своей человечности хотя бы 30% судей в процессе 5-минутного текстового общения. Программе, разработанной Владимиром Веселовым из России и украинцем...
 
Galina Bobro:

¿Sí? No está preparado en absoluto.

https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D1%81%D1%82_%D0%A2%D1%8C%D1%8E%D1%80%D0%B8%D0%BD%D0%B3%D0%B0

Lea la interpretación estándar de lo que debe ser esta prueba. Estos concursos no se han convertido en eso en absoluto.

El 30% de los jueces y la comunicación de 5 minutos sobre un tema NO es la prueba de Alan Turing, sino una versión retorcida de la misma, diseñada específicamente para el concurso, no para probar la IA real.

También lo estarías comparando con un niño de 3 años. El porcentaje de aprobados en el examen habría sido aún mayor.



Así que "como" no está listo en absoluto)).


¿Y por qué exactamente el 30 y no el 70% de los jueces? ¿Qué clase de tontería es esa?)

Тест Тьюринга — Википедия
Тест Тьюринга — Википедия
  • ru.wikipedia.org
Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор»...
 
Реter Konow:

Sí, vamos a intentarlo).

No lo necesito, tengo casi todas las últimas "calculadoras con memoria".
Sólo he insinuado que se puede escribir mucho y mucho tiempo, pero sigue ahí)))

 
Vizard_:

No lo necesito, tengo casi todas las últimas "calculadoras con memoria".
Sólo he insinuado que se puede escribir mucho y mucho tiempo, pero sigue ahí)))

No sé a qué te refieres.
 

hmmm... la otra cosa que asusta es que todas estas redes de kohenna auto-organizadas y otras variedades - todas estas ideas tienen 40 años de edad y esta IA que más o menos pasó esta prueba (y la habría pasado si se usaron potentes en grandes frases con entrenamiento en alguna red social). - y no debería ser complicado, simplemente no había la potencia informática o el acceso a tanta correspondencia antes de .... lo que asusta es que durante 40 años no ha habido nuevas ideas, aparte de simples plantillas que se superponen y crean otras nuevas basadas en ellas.

Tal vez no sepamos qué es lo que realmente se estudia y utiliza allí ahora.


Mi suposición:

una IA inteligente debería "pensar en términos de imágenes", es decir, todo debería representarse como subobjetos o algo.... e incluso para programar, como estímulo se pueden utilizar algunas morales establecidas - por ejemplo la moral del deseo de comunicar (social), la moral de la primordialidad (porque todo lo nuevo para el hombre es extraño) y así sucesivamente.... Es decir, debe ser una red autoorganizada pura, que sólo recibe algunas instrucciones de la moral preestablecida. (la moral de la subdivisión de la sociedad es aburrida - si hay pocas variables nuevas entonces hay una penalización - hará que se mueva - y se mueva para que haya muchas cosas nuevas que aprender)... Sin embargo, para esto para construir un robot nadie - como todo puede ser modelado. Y las penas de moralidad deberían ser muy estrictas: hasta la purificación de todas las plantillas o la purificación espontánea. De hecho, debería conseguir un bot muy humano (como el de la película Aliens 3 - se puede adivinar inmediatamente que no es un humano sino un robot, es demasiado humano para los humanos).

De hecho, si un robot de este tipo está encerrado en un espacio muy reducido - entonces la moral de la sociedad.aburrimiento con el tiempo - anulando toda la memoria... equivale a la muerte - por supuesto antes de morir nuestra IA intentará moverse...

Dicho esto, si pones a un bot de este tipo con humanos, tal vez aprenda un idioma, y si con los mismos bots, existe la posibilidad de que lleguen a tener algún tipo de lenguaje propio. Por supuesto, para eso se necesita una especie de parodia aleatoria: imagínate en la piel del objeto, también puedes relacionarte con la moral de la sociedad.

También la moral del afecto, y de antemano marcar prioridades como el máximo afecto a la "persona", luego al objeto con el que más se comunica, y así sucesivamente.

En la subsección Social se puede establecer algo así como una comunicación prioritaria con un objeto "persona", en general, se pueden poner muchos valores humanos por adelantado.

Pero no las reglas como no matar, obedecer a la gente, y la auto-preservación - esto es realmente una tontería. Imaginemos por un momento un cuadro en el que un terrorista irrumpe y derriba a todos y a todo -y luego le pide a tal bot que recargue su arma- en la lógica de las tres reglas debe recargar el arma. Pero de acuerdo con los principios de la moral - que debe joder a este terrorista por la llamada de la moral apego a la gente, para que no se mata más y luego morir de conseguir una fuerte pena de la misma moral hasta la demolición completa del sistema, aunque en realidad el robot debe obtener alta sólo de la vista de los cadáveres (desde el exterior parecerá que en el fondo de las emociones es así - bueno, en general humana obtener).

Y la moral primordial puede prohibir el desarrollo por encima de un cierto nivel, pero la moral de la promesa de poner en superprioridad explícita - charlará casi 24 horas al día. E incluso pueden charlar entre ellos, parodiando momentos de comportamiento humano "tonteando".

En general, no será un robot, sino una moral andante. Con un carácter tal vez infantil (le gustará tontear, hacer bromas)

Y con el tiempo, entenderemos la cadena correcta para un aprendizaje adecuado y esta cadena será algo así como un genoma.

Y me parece que el futuro pertenece a tal artilugio....

Y esta cosa puede no entender su propio ser - pero será indistinguible de un humano. Sin embargo esta cosa puede decidir escribir su propia IA y nadie sabe lo que escribirá allí.

Lo curioso es que lo más probable es que un bot de este tipo aprenda muy lentamente, y lo más sorprendente es que también habrá que enseñarle a hablar, luego a leer e incluso a aprender a programar.

Quizá un día, en una exposición de robótica, uno de los visitantes sea un androide de este tipo, que disfruta (recibe un premio según el sistema HC) de la sociedad (se comunica con las personas) y mirará con desconcierto todo tipo de otros robots "primitivos" expuestos como los últimos avances. Y ni siquiera nos daremos cuenta de que uno de nosotros ya no es un hombre.

Es sólo cuestión de tiempo que simulemos un parque infantil virtual y pongamos estas cosas allí. Ha-ha-ha (Ominosamente)

 
Alexandr Andreev:

Todo lo que se escribe se aplica con la ayuda de la AG.

 
Vizard_:

Todo lo que se escribe se aplica con la ayuda de la AG.


GA es la búsqueda de patrones, NS son los propios patrones

 

¿No crees que toda la vida en la tierra ya es IA, creada por alguien? Un producto encerrado en una variedad de conchas con un conjunto de software que sabe adaptarse a ciertas condiciones y sabe reproducirse.

Admiramos una hermosa mariposa que antes existía como crisálida y antes como oruga.

No se puede conseguir sin un programa determinado. Mientras un guijarro no esté al borde del camino no se convertirá en mariposa.

Hay muchas cosas que la gente no sabe. Y en el mundo actual, lo más interesante ya se está ocultando.

 
Facebook AI Invents Language That Humans Can't Understand: System Shut Down Before It Evolves Into Skynet
Facebook AI Invents Language That Humans Can't Understand: System Shut Down Before It Evolves Into Skynet
  • Tech Times
  • www.techtimes.com
Facebook shut down one of its artificial intelligence systems after AI agents started communicating with one another in a language that they invented. The incident evokes images of the rise of Skynet in the iconic "Terminator" series.  ( ) Facebook was forced to shut down one of its artificial intelligence systems after researchers discovered...