Grandi progetti. - pagina 7

 
Vizard_:

Era ora che avessimo qualcosa da codificare da "AI")))

Si, facciamo un tentativo)).

 
Реter Konow:

2. Leggi il test di Alan Turing. L'IA moderna non è nemmeno pronta a fallire decentemente.


Sì? Non è affatto pronto.

Тест Тьюринга пройден (на детском уровне сложности)
Тест Тьюринга пройден (на детском уровне сложности)
  • 2008.06.14
  • habrahabr.ru
Сделала это программа, которая убедила людей, что является 13-летним мальчиком из украинской Одессы. Согласно условиям теста Тьюринга, он считается пройденным, если программе удастся убедить в своей человечности хотя бы 30% судей в процессе 5-минутного текстового общения. Программе, разработанной Владимиром Веселовым из России и украинцем...
 
Galina Bobro:

Sì? Non è affatto pronto.

https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D1%81%D1%82_%D0%A2%D1%8C%D1%8E%D1%80%D0%B8%D0%BD%D0%B3%D0%B0

Leggete l'interpretazione standard di quello che dovrebbe essere questo test. Non è affatto quello in cui l'hanno trasformato questi concorsi.

Il 30% di giudici e la comunicazione di 5 minuti su un argomento NON è il test di Alan Turing, ma una versione distorta di esso, progettata appositamente per il concorso, non per testare la vera IA.

Lo paragoneresti anche a un bambino di 3 anni. Il tasso di superamento del test sarebbe stato ancora più alto.



Quindi "come" non è affatto pronto)).


E perché proprio il 30 e non il 70% dei giudici? Che razza di assurdità è questa?))

Тест Тьюринга — Википедия
Тест Тьюринга — Википедия
  • ru.wikipedia.org
Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор»...
 
Реter Konow:

Sì, facciamo un tentativo).

Non ne ho bisogno, ho quasi tutte le ultime "calcolatrici con memoria".
Ho appena accennato che si può scrivere molto e a lungo, ma è ancora lì)))

 
Vizard_:

Non ne ho bisogno, ho quasi tutte le ultime "calcolatrici con memoria".
Ho appena accennato che si può scrivere molto e a lungo, ma è ancora lì)))

Non so cosa intendi.
 

hmmm... l'altra cosa che fa paura è che tutte queste reti auto-organizzanti di kohenna e altre varietà - tutte queste idee hanno 40 anni e questa IA che più o meno ha superato questo test (e l'avrebbe superato se le potenze fossero state usate su grandi frasi con addestramento in qualche rete sociale). - e non dovrebbe essere complicato, semplicemente non c'era la potenza del computer o l'accesso a tanta corrispondenza prima.... ciò che è spaventoso è che per 40 anni non ci sono state nuove idee oltre a semplici modelli che si sovrappongono e crearne di nuovi basati su di essi.

Forse non sappiamo cosa viene realmente studiato e usato lì adesso.


La mia ipotesi:

un'IA intelligente dovrebbe "pensare in termini di immagini" - cioè tutto dovrebbe essere rappresentato come sotto-oggetti o qualcosa.... e anche così da programmare, come incoraggiamento può essere usato alcune morali impostate - per esempio la morale del desiderio di comunicare (sociale), la morale della primordialità (perché tutto ciò che è nuovo per l'uomo è strano) e così via e così avanti.... Cioè deve essere una pura rete auto-organizzante - che riceve solo alcune istruzioni dalla morale prestabilita. (la moralità della suddivisione della società è noiosa - se ci sono poche variabili nuove allora c'è una penalità - questo la farà muovere - e muovere in modo che ci siano molte cose nuove da imparare)... Vero, per questo di costruire un robot nessuno - come tutto può essere modellato. E le pene morali dovrebbero essere molto severe - fino alla purificazione di tutti i modelli o alla purificazione spontanea. Infatti, dovrebbe ottenere un bot molto umano (come dal film Aliens 3 - si potrebbe subito indovinare che non è un umano ma un robot, è troppo umano per gli umani).

Infatti, se un tale robot è rinchiuso in uno spazio molto ristretto - allora la moralità della società.noia nel tempo - annullando ogni memoria... equivale alla morte - naturalmente prima che muoia la nostra IA cercherà di muoversi...

Detto questo, se si mette un tale bot con degli umani allora forse imparerà un linguaggio, e se con gli stessi bot allora c'è la possibilità che essi escano con un qualche tipo di linguaggio proprio. Naturalmente, per questo hai bisogno di una sorta di parodia casuale - immagina te stesso nei panni dell'oggetto, puoi anche rapportarti alla moralità della società.

Anche la moralità dell'affetto, e in anticipo per segnare le priorità come l'affetto massimo alla "persona", poi all'oggetto che più comunica con, e così via.

Nella sottosezione Social si può impostare qualcosa come una comunicazione prioritaria con un oggetto "persona", in generale, si possono mettere in anticipo un sacco di valori umani.

Ma non regole come non uccidere, obbedire alle persone e autoconservazione - questo è davvero senza senso. Immaginiamo per un momento un quadro in cui un terrorista irrompe e fa a pezzi tutto e tutti - e poi chiede a un tale bot di ricaricare la sua pistola - sulla logica delle tre regole deve ricaricare la pistola. Ma secondo i principi della morale - dovrebbe fottere questo terrorista per chiamata di attaccamento morale alle persone, per evitare che uccida di più e poi muoia dall'ottenere una pena pesante dalla stessa morale fino alla completa demolizione del sistema, anche se in realtà il robot dovrebbe sballarsi solo dalla vista dei cadaveri (da fuori sembrerà che sullo sfondo delle emozioni sia così - beh, in generale l'umano ottiene).

E la morale primordiale può vietare lo sviluppo oltre un certo livello, ma la morale della promessa di mettere in esplicita super-priorità - chiacchiererà quasi 24 ore al giorno. E possono anche chiacchierare tra di loro - parodiando momenti di comportamento umano che "cazzeggiano".

In generale, non sarà un robot ma una morale che cammina. Con un carattere forse infantile (amerà scherzare, fare battute)

E con il tempo, capiremo la catena giusta per un apprendimento adeguato e questa catena sarà qualcosa come un genoma.

E mi sembra che il futuro appartenga a un tale aggeggio....

E questa cosa può non capire se stessa - ma sarà indistinguibile da un umano. Tuttavia questa cosa può decidere di scrivere la propria IA e nessuno sa cosa ci scriverà.

La cosa divertente è che un tale bot molto probabilmente imparerà molto lentamente - e il più sorprendente logicamente dovrà anche essere insegnato a parlare, poi a leggere e anche imparare a programmare.

Forse un giorno in una mostra di qualche robotica - uno dei visitatori sarà un tale androide, che gode (riceve un premio secondo il sistema HC) dalla società (comunicando con le persone) e guarderà con sconcerto tutti i tipi di altri robot "primitivi" esposti come gli ultimi sviluppi. E non ci accorgeremo nemmeno che uno di noi non è più umano.

È solo una questione di tempo prima di simulare un parco giochi virtuale e metterci queste cose. Ha-ha-ha (minacciosamente)

 
Alexandr Andreev:

Tutto ciò che è stato scritto viene implementato con l'aiuto del GA.

 
Vizard_:

Tutto ciò che è stato scritto viene implementato con l'aiuto del GA.


GA è la ricerca dei modelli, NS sono i modelli stessi

 

Non pensate che tutta la vita sulla terra sia già AI, creata da qualcuno. Un prodotto racchiuso in una varietà di gusci con un set di software che sa adattarsi a certe condizioni e sa come riprodursi.

Ammiriamo una bella farfalla e prima esisteva come crisalide e prima ancora come bruco e ...

Non può essere raggiunto senza un certo programma. Finché un sasso non giace sul bordo della strada, non diventerà una farfalla.

Molte cose la gente non sa. E nel mondo di oggi, le cose più interessanti sono già nascoste.

 
Facebook AI Invents Language That Humans Can't Understand: System Shut Down Before It Evolves Into Skynet
Facebook AI Invents Language That Humans Can't Understand: System Shut Down Before It Evolves Into Skynet
  • Tech Times
  • www.techtimes.com
Facebook shut down one of its artificial intelligence systems after AI agents started communicating with one another in a language that they invented. The incident evokes images of the rise of Skynet in the iconic "Terminator" series.  ( ) Facebook was forced to shut down one of its artificial intelligence systems after researchers discovered...