Grandes projetos. - página 7

 
Vizard_:

Já era hora de termos algo a codificar a partir de "AI"))))

Sim, vamos tentar)).

 
Реter Konow:

2. Leia sobre o teste de Alan Turing. A IA moderna não está nem mesmo pronta para falhar decentemente.


Sim? Não está nada pronto.

Тест Тьюринга пройден (на детском уровне сложности)
Тест Тьюринга пройден (на детском уровне сложности)
  • 2008.06.14
  • habrahabr.ru
Сделала это программа, которая убедила людей, что является 13-летним мальчиком из украинской Одессы. Согласно условиям теста Тьюринга, он считается пройденным, если программе удастся убедить в своей человечности хотя бы 30% судей в процессе 5-минутного текстового общения. Программе, разработанной Владимиром Веселовым из России и украинцем...
 
Galina Bobro:

Sim? Não está nada pronto.

https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D1%81%D1%82_%D0%A2%D1%8C%D1%8E%D1%80%D0%B8%D0%BD%D0%B3%D0%B0

Leia a interpretação padrão do que este teste deve ser. Não é nisso que estes concursos o transformaram em nada.

Os 30% de juízes e a comunicação de 5 minutos sobre um tópico NÃO é o teste de Alan Turing, mas uma versão distorcida do mesmo, projetada especificamente para o concurso, e não para testar a IA real.

Você também estaria comparando-o a uma criança de 3 anos de idade. A taxa de aprovação no teste teria sido ainda maior.



Portanto, "aparentemente" não está nada pronto)).


E por que exatamente 30 e não 70 por cento dos juízes? Que tipo de bobagem é essa?))

Тест Тьюринга — Википедия
Тест Тьюринга — Википедия
  • ru.wikipedia.org
Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор»...
 
Реter Konow:

Sim, vamos tentar).

Eu não preciso, tenho quase todas as últimas "calculadoras com memória".
Eu apenas sugeri que você pode escrever muito e muito tempo, mas ainda está lá))))

 
Vizard_:

Eu não preciso, tenho quase todas as últimas "calculadoras com memória".
Eu apenas sugeri que você pode escrever muito e muito tempo, mas ainda está lá))))

Eu não sei o que você quer dizer.
 

hmmm... A outra coisa que é assustadora é que todas essas redes de kohenna auto-organizadas e outras variedades - todas essas idéias têm 40 anos e essa IA que passou nesse tipo de teste (e teria passado se os potentes fossem usados em frases grandes com treinamento em alguma rede social). - e não deve ser complicado, apenas não havia a potência do computador ou o acesso a tanta correspondência antes.... O que é assustador é que há 40 anos não há novas idéias além de simples modelos que se sobrepõem e criam novos modelos baseados neles.

Talvez simplesmente não saibamos o que realmente está sendo estudado e usado lá agora.


Meu palpite:

uma IA inteligente deve "pensar em termos de imagens" - ou seja, tudo deve ser representado como subobjetos ou algo.... e mesmo assim para programar, como incentivo pode ser usada alguma moral definida - por exemplo, a moralidade do desejo de comunicar (social), a moralidade da primordialidade (porque tudo novo para o homem é estranho) e assim por diante.... Isto é, deve ser uma rede puramente auto-organizadora - que recebe apenas algumas instruções da moral pré-estabelecida. (a moralidade da subdivisão da sociedade é enfadonha - se há poucas variáveis novas então há uma penalidade - ela a fará mover-se - e mover-se para que haja muitas coisas novas a aprender)... É verdade, para que isto construa um robô ninguém - pois tudo pode ser modelado. E as penalidades morais devem ser muito rigorosas - até a purificação de todos os modelos ou purificação espontânea. Na verdade, ela deveria obter um bot muito humano (como no filme Aliens 3 - poderia imediatamente adivinhar que ela não é uma pessoa, mas um robô, ela é muito humana para os humanos).

Na verdade, se tal robô está preso em um espaço muito confinado - então a moralidade da sociedade.tédio com o tempo - anulando toda a memória... é o mesmo que a morte - claro que antes de morrer nossa IA tentará se mover...

Dito isto, se você colocar tal bot para os humanos, talvez ele aprenda uma língua, e se para os mesmos bots, há uma chance de que eles inventem algum tipo de linguagem própria. É claro, para isso você precisa de uma espécie de paródia aleatória - imagine-se no lugar do objeto, você também pode se relacionar com a moralidade da sociedade.

Também a moralidade do afeto, e de antemão marcar prioridades como a máxima afeição à "pessoa", depois ao objeto que mais se comunica com, e assim por diante e assim por diante.

Na subseção Social você pode estabelecer algo como uma comunicação prioritária com um objeto "pessoa", em geral, você pode colocar um monte de valores humanos antecipadamente.

Mas não se deve obedecer a regras tais como não matar, não obedecer às pessoas e não se preservar - isso é realmente um absurdo. Imaginemos por um momento uma imagem na qual um terrorista invade e derruba tudo e todos - e depois pede a tal robô para recarregar sua arma - na lógica das três regras, ele deve recarregar a arma. Mas de acordo com os princípios da moralidade - ele deveria foder esse terrorista por apelo de apego moral às pessoas, para que ele não mate mais e depois morra por receber uma pesada penalidade da mesma moralidade até a demolição completa do sistema, embora na verdade o robô deva ficar alto apenas pela visão de cadáveres (de fora parecerá que contra o pano de fundo das emoções é assim - bem, em geral o ser humano fica).

E a moralidade primordial pode proibir o desenvolvimento acima de um certo nível, mas a moralidade da promessa de colocar em super-prioridade explícita - falará quase 24 horas por dia. E eles podem até conversar uns com os outros - momentos parodiosos de comportamento humano "brincando".

Em geral, não será um robô, mas uma moral ambulante. Com talvez um caráter infantil (vai gostar de brincar, fazer piadas)

E com o tempo, entenderemos a corrente certa para o aprendizado adequado e esta corrente será algo como um genoma.

E me parece que o futuro pertence a tal gizmo....

E esta coisa pode não entender a si mesma - mas será indistinguível de um humano. Entretanto, esta coisa pode decidir escrever sua própria IA e ninguém sabe o que ela vai escrever ali.

O engraçado é que tal bot provavelmente aprenderá muito lentamente - e o mais surpreendente logicamente também terá que ser ensinado como falar, depois como ler e até mesmo aprender a programar.

Talvez um dia, em uma exposição de robótica - um dos visitantes será um andróide, que desfruta (recebe um prêmio sob o sistema HC) da sociedade (comunicando-se com as pessoas) e olhará com perplexidade para todos os tipos de outros robôs "primitivos" exibidos como os últimos desenvolvimentos. E nem vamos notar que um de nós não é mais humano de maneira alguma.

É apenas uma questão de tempo antes de simularmos um playground virtual e colocarmos estas coisas lá. Ha-ha-ha (Ominosamente)

 
Alexandr Andreev:

Tudo o que é escrito é implementado com a ajuda da AG.

 
Vizard_:

Tudo o que é escrito é implementado com a ajuda da AG.


GA é a busca de padrões, NS são os próprios padrões

 

Você não acha que toda a vida na Terra já é AI, criada por alguém. Um produto envolto em uma variedade de conchas com um conjunto de software que sabe como se adaptar a certas condições e sabe como se reproduzir.

Admiramos uma bela borboleta e antes disso ela existia como uma crisálida e antes disso como uma lagarta.

Isso não pode ser alcançado sem um determinado programa. Enquanto uma pedrinha não ficar à beira da estrada, não se tornará uma borboleta.

Muitas coisas as pessoas não sabem. E no mundo de hoje, as coisas mais interessantes já estão sendo ocultadas.

 
Facebook AI Invents Language That Humans Can't Understand: System Shut Down Before It Evolves Into Skynet
Facebook AI Invents Language That Humans Can't Understand: System Shut Down Before It Evolves Into Skynet
  • Tech Times
  • www.techtimes.com
Facebook shut down one of its artificial intelligence systems after AI agents started communicating with one another in a language that they invented. The incident evokes images of the rise of Skynet in the iconic "Terminator" series.  ( ) Facebook was forced to shut down one of its artificial intelligence systems after researchers discovered...