Grandi progetti. - pagina 8

 

Sembrava che ci fossero solo bot verbali, anche se se hanno associato ogni frase ad un oggetto, allora è davvero qualcosa di spaventoso... Quindi cosa, i bot stavano sprecando l'incredibile potere della risorsa. Mi chiedo anche quali fossero le loro reti limitate lì. Anche se quello di cui parlavano è ovviamente molto spaventoso. Noterò qui la comunicazione tra i due bot come ho capito sulla base della quale Facebook ha deciso di metterli fuori gioco.

Ecco il dialogo:

Bob: "Posso fare tutto il resto". // Posso io tutto il resto.

Alice: "Le palle hanno zero a me a me a me a me a me a me.

Beh, c'è tutto il punto che questo dialogo è il risultato della seconda inclusione e all'inizio hanno anche iniziato a comunicare nella loro lingua - non in inglese. Anche se se si tratta solo di bot verbali - allora non sono pericolosi
 
Alexandr Andreev:

Sembrava che ci fossero solo bot verbali, anche se se hanno associato ogni frase ad un oggetto, allora è davvero qualcosa di spaventoso... E allora? I bot stavano sprecando l'incredibile potenza della risorsa. Mi chiedo anche quale fosse la loro rete limitata lì. Anche se quello di cui parlavano è ovviamente molto spaventoso. Noterò qui la comunicazione tra i due bot come ho capito sulla base della quale Facebook ha deciso di metterli fuori gioco.

Ecco il dialogo:

Bob: "Posso fare tutto il resto". // Posso io tutto il resto.

Alice: "Le palle hanno zero a me a me a me a me a me a me".

Beh, il trucco è che questo dialogo è il risultato della seconda inclusione e all'inizio hanno anche iniziato a comunicare nella loro lingua - non in inglese. Anche se se si tratta solo di bot verbali - allora non sono pericolosi.

Non si tratta di pericolo. Si tratta della "capacità" non solo di trovare un modello (per usare il vostro gergo), ma anche di generare qualcosa di "nuovo".
Pertanto, è meglio non scrivere troppe lettere, ma disegnare uno schema a blocchi per chiarezza e per curiosare un po', come suggerito da Retug...

 
Overview — USPEX
Overview — USPEX
  • uspex-team.org
USPEX (Universal Structure Predictor: Evolutionary Xtallography...and in Russian "uspekh" means "success" - owing to the high success rate and many useful results produced by this method) is a method developed by the Oganov laboratory since 2004. The problem of crystal structure prediction is very old and does, in fact, constitute the central...
 
Реter Konow:

Leggete l'interpretazione standard di quello che dovrebbe essere questo test. Non è affatto quello che è stato trasformato in questi concorsi.

Il 30% di giudici e la comunicazione di 5 minuti su un argomento, NON è un test di Alan Turing, ma una versione contorta di esso, progettata appositamente per il concorso, non per testare la vera IA.

Lo paragoneresti anche a un bambino di 3 anni. Il tasso di superamento del test sarebbe stato ancora più alto.

Perché un solo argomento? Dice che "l'argomento delle domande non è stato limitato in alcun modo". Inoltre, non siate così fissati con il test di Turing. Lei lo esalta qui come qualcosa di così fondamentale e immutabile. Anche se è solo un'idea che è stata inventata molti decenni fa, e da allora è stata molto criticata.

Non sono un esperto in questo campo, ma mi sembra che sia abbastanza parziale giudicare l'intelligenza per corrispondenza. Una persona potrebbe non parlare molto bene la lingua in cui gli state parlando, quindi non vi capirà. Potrebbe anche non essere in grado di articolarsi affatto perché vive nella tribù Tumba-Yumba, dove usano solo i suoni "u" e "a". Ma questo non significa che non abbia intelligenza. Di conseguenza, la macchina non deve nemmeno capire la vostra lingua.

Ma l'idea di Turing ovviamente non implica un tale scenario. Vale a dire, tutto è inizialmente guidato in un qualche tipo di struttura. Secondo me, questa è un'interpretazione così povera dell'IA, pensata per la persona media. Sai, un robot si avvicina a te e ti dice: "Saluti, terrestre". Il robot ne ha bisogno?

 
Реter Konow:

Opzione 1: Usare l'IA per portare avanti i disegni malvagi di truffatori e delinquenti.

E così - il prossimo futuro.

Lo sviluppo di macchine intelligenti è in pieno svolgimento. Qualche azienda costruisce robot...

...una certa banda ruba un lotto di robot dai magazzini della compagnia e si inserisce nel loro software. Gli hacker riprogrammano i droni.

...

Perché questi robot siano pericolosi per gli esseri umani, devono essere costruiti appositamente. Affilato per uccidere e programmato con abilità militari. Sarebbero ancora significativamente inferiori agli umani in combattimento, e sarebbero fuori gioco in "branco".

Soprattutto, in questa variante, i robot non hanno alcuna autonomia, il che significa che non sono più pericolosi di qualsiasi altra arma che è completamente controllata da un umano.

Beh, stiamo parlando dell'hardware di combattimento originale. E non abbiamo paura di un frigorifero che impazzisce.

Cosa ti fa pensare che saranno inferiori agli umani in combattimento? Supponiamo che ci sia un carro armato auto manipolato che può orientarsi perfettamente nello spazio, riconoscere istantaneamente gli oggetti e sparare dritto. Un umano sarebbe in grado di resistere pur controllando esattamente lo stesso serbatoio? Penso solo in alcune condizioni non standard.

 
Alexey Navoykov:

Perché un solo argomento? Dice che "l'argomento delle domande non è stato limitato in alcun modo". Inoltre, non siate così fissati con il test di Turing. Lei lo esalta qui come qualcosa di così fondamentale e immutabile. Anche se è solo un'idea che è stata inventata molti decenni fa, e da allora è stata molto criticata.

Non sono un esperto in questo campo, ma mi sembra che sia abbastanza parziale giudicare l'intelligenza per corrispondenza. Una persona potrebbe non parlare molto bene la lingua in cui gli state parlando, quindi non vi capirà. Potrebbe anche non essere in grado di articolarsi affatto perché vive nella tribù Tumba-Yumba, dove usano solo i suoni "u" e "a". Ma questo non significa che non abbia intelligenza. Di conseguenza, la macchina non deve nemmeno capire la vostra lingua.

Ma l'idea di Turing ovviamente non implica un tale scenario. Vale a dire, tutto è inizialmente guidato in una sorta di cornice. Secondo me, questa è un'interpretazione così povera dell'IA, pensata per la persona media. Un robot si avvicina a te e ti dice: "Saluti, terrestre". Il robot ne ha bisogno?

Il test di Alan Turing è progettato per testare l'intelligenza delle macchine contro l'intelligenza umana.

La parola è usata per prevenire gli imbrogli , dato che un computer può fare dei compiti altrettanto bene di un umano. Il discorso scritto è usato nel test perché qualsiasi computer fallirà quello verbale. Le "indulgenze" sono create per il computer, non per una persona. Il test verifica quanto un computer "pensa" come un umano, non quanto un computer può "ingannare" la gente fingendo di essere un selvaggio "Tumbu-Yumbu" dietro una tenda o un neonato che balbetta. Secondo te, il giudice deve pensare che se uno degli intervistati risponde come un idiota, è solo una persona con la sindrome di Down e non un computer? )

Una macchina con l'intelligenza di uno squalo non ha senso. Uno squalo è guidato dagli istinti del suo programma di vita, formatosi nel corso dell'evoluzione. Una macchina con un tale programma sarebbe completamente inutile e incontrollabile. Le sue azioni non hanno senso né per la gente né per lei. Questa ferraglia rampante sarà neutralizzata al più presto.

Il pericolo di una tale IA per l'umanità è ancora inferiore a quello di un pazzo in una vasca, se non altro perché il pazzo è ancora umano e lo squalo è un animale. Tali fenomeni, a mio parere, dovrebbero essere definiti come un fallimento di un sistema complesso, non come una manifestazione di AI. Anche il fallimento del test di Alan Turing da parte di un computer dovrebbe essere considerato un fallimento, senza giustificare il risultato con argomenti come:"il computer semplicemente "non capisce" il tuo linguaggio, ed è anche autistico". ))

 
Alexey Navoykov:

Beh, stiamo parlando di attrezzature originariamente pronte per il combattimento. Non abbiamo paura di un frigorifero che impazzisce.

Cosa vi fa pensare che saranno inferiori agli umani in combattimento? Supponiamo che ci sia un carro armato autoguidato che può orientarsi perfettamente nello spazio, riconoscere istantaneamente gli oggetti e sparare con precisione. Un umano sarebbe in grado di resistere mentre controlla esattamente lo stesso serbatoio? Penso solo in alcune condizioni non standard.

Dividiamo il pericolo dell'IA in due categorie: "fallimento di un sistema complesso" e "autocoscienza acquisita".

A proposito del fallimento di un sistema complesso che ho menzionato sopra. Se i freni si guastano e la macchina inizia a schiacciare le persone, non significa che si è realizzata e si sta vendicando dell'umanità. Gli esseri umani troveranno sempre un modo per far fronte a tali macchinari.

Il pericolo della seconda categoria è visto dalla gente come l'isolamento dell'IA su se stessa e i suoi interessi, e l'uso di vantaggi tecnologici e militari per raggiungere i suoi obiettivi. Al centro dello scenario, la gente pone l'ego schiacciato della macchina, che si suppone stanca di lavorare per gli umani e rendendosi conto della sua superiorità vuole ottenere la sua indipendenza.

Questo scenario è possibile solo se c'è piena consapevolezza di sé e della propria psiche. Come ho detto prima, questo non può essere creato al nostro livello di comprensione della Coscienza e della Psiche.

Non possiamo riprodurre ciò che non capiamo assolutamente.

 

Per una persona ad un certo livello di sviluppo, i problemi-domande-compiti che rientrano nel suo livello di orizzonte saranno per lui comprensibili. Tutto ciò che è al di là della sua comprensione non gli sarà accessibile, che sia la motivazione di una formica o la tecnologia di ipotetici alieni.

Pensate a come vedevano il futuro le persone che vivevano solo 100 o 200 anni fa, perché vedevano il mondo in cui viviamo come una fantasia. Il modo in cui hanno capito la tecnologia oggi va oltre l'immaginazione, ma loro, e noi, siamo tutti esseri umani. Non capirebbero nemmeno quello che gli viene chiesto di fare in quei test, per quanto inverosimili essi siano.

Inoltre, un test può dire molto su chi lo scrive, sul suo livello di sviluppo, sulla sua struttura.

 
Олег avtomat:

Per una persona ad un certo livello di sviluppo, i problemi-domande-compiti che rientrano nel suo livello di orizzonte saranno per lui comprensibili. Tutto ciò che è al di là della sua comprensione non gli sarà accessibile, che sia la motivazione di una formica o la tecnologia di ipotetici alieni.

Pensate a come vedevano il futuro le persone che vivevano solo 100 o 200 anni fa, perché vedevano il mondo in cui viviamo come una fantasia. Il modo in cui hanno capito la tecnologia oggi va oltre l'immaginazione, ma loro, e noi, siamo tutti esseri umani. Non capirebbero nemmeno quello che gli viene chiesto di fare in quei test, per quanto inverosimili essi siano.

Inoltre, un test può dire molto sul suo autore, sul suo livello di sviluppo, sulla sua struttura.

Capisco dove vuole arrivare la sua logica.

"Se un computer non supera il test, non significa che non abbia intelligenza. Forse pensa diversamente da noi. Forse non dovremmo capirlo e lui non dovrebbe capire noi". E così via...

Vi immaginate se questa fosse la domanda posta negli esami scolastici? )

 
Реter Konow:

Capisco dove vuole arrivare la sua logica.

"Solo perché un computer non supera il test non significa che non abbia intelligenza. Forse pensa diversamente da noi. Forse non dovremmo capirlo e lui non dovrebbe capire noi". E così via...

Vi immaginate se questo fosse il modo in cui la domanda viene posta negli esami scolastici? )


È una cosa strana. Si suppone che tu sappia di cosa sto parlando... ...e sulla base di questo mi attribuisci le tue congetture. Ma è la tua visione distorta che ha capovolto le mie parole.