Intelligenza artificiale 2020 - ci sono progressi? - pagina 36

 
Mihail Marchukajtes:

Avete assolutamente ragione. Le macchine sono molto più fighe di noi in precisione, velocità di calcolo, capacità di memorizzazione e molto altro, e sì nei piccoli compiti non si appassionano alla scelta (un effetto collaterale dell'intelligenza), diretta e il loro uso nei piccoli compiti va solo a vantaggio dell'uomo. Ma qui si parlava di intellettualizzazione delle macchine che è accettabile ma non con la tecnologia esistente. Qui, quando il materiale creato dai cinesi riceverà una distribuzione di massa, così come i metodi di formazione di strutture fisiche simili, allora si arriverà alla serie "Wild West World" non prima.....

Lo spettacolo è di alto livello, comunque. RACCOMANDO!!!!!!

Con tutto il rispetto per le conquiste e le scoperte dei cinesi, la comprensione dell'intelligenza viene dall'autocoscienza, che ha poco a che fare con la tecnologia. Modellare l'intelligenza è più che addestrare qualsiasi NS, anche il più artificioso. Noi creiamo solo funzioni individuali di intelligenza, ma non c'è integrità, perché non c'è concetto. Ci sono definizioni generali, ipotesi di funzionamento, ma nessun "progetto" effettivo. Di conseguenza, costruiamo modelli disgiunti dei suoi fenomeni discreti da cui cerchiamo di assemblare qualcosa. Penso che l'approccio sia sbagliato. Dobbiamo iniziare con un progetto di TUTTO l'intelletto nel suo insieme.
 
Реter Konow:
Con tutto il rispetto per le conquiste e le scoperte dei cinesi, capire l'essenza dell'intelligenza è un sottoprodotto della consapevolezza di sé, che ha poco a che fare con la tecnologia. La modellazione dell'intelligenza è più che addestrare qualsiasi NS, anche il più sofisticato. Noi creiamo solo funzioni separate di intelligenza, ma non c'è integrità, perché non c'è un concetto di essa. Ci sono alcune definizioni generali, ipotesi di lavoro, ma non ci sono veri e propri "progetti", per cui non costruiamo altro che modelli frammentari dei suoi fenomeni discreti da cui cerchiamo di assemblare qualcosa. Penso che l'approccio sia sbagliato. Dobbiamo iniziare con un progetto di TUTTA l'intelligenza nel suo insieme.
Per me, l'importante sarebbe modellare al 100% i processi che avvengono nella nuvola biologica dei neuroni. Beh, la nostra generazione è sfortunata. Non viviamo in quest'epoca. Ma ne saremo pionieri e fondatori. :-)
 
Mihail Marchukajtes:

Eccoci di nuovo qui, per quelli che se lo sono perso. Sono già 29 visite e sono in cima :-)

Cos'è questo posto?

 
Evgeniy Zhdan:
Alice di Yandex conta?

No, le competenze per Alice
possono essere scritte da chiunque, non sono necessarie conoscenze di programmazione. C'era (c'è ancora?) anche un concorso per la migliore abilità.

Как создать навык для Алисы с нуля — Академия Яндекса
Как создать навык для Алисы с нуля — Академия Яндекса
  • 2019.07.05
  • academy.yandex.ru
С помощью голосового помощника Яндекса уже можно узнавать погоду, строить маршруты и управлять умным домом. Но возможности Алисы можно еще расширить: например, создать навык для заказа еды или игру-квест по управлению государством. Навык может создать и опубликовать любой пользователь с помощью платформы Яндекс.Диалоги. Чтобы это сделать, нужно...
 

Beh, questo è... Già 53 visite. Mi viziate, colleghi.

Penso che sia un indicatore di coloro che sono veramente interessati all'argomento. Non così tanti nella popolazione generale per essere onesti :-)

 
A proposito di "intelligenza":

L'intelligenza è un sistema di elaborazione multidimensionale delle informazioni raccolte in oggetti. (imho).

La coscienza riflette la realtà in due modelli fondamentali: oggettivo e soggettivo. La riflessione è "pseudo-oggettiva", ma la coscienza tende a mantenere confini chiari di significato e sistemi precisi di misurazione delle cose, e al contrario, nel modello soggettivo del mondo, la coscienza generalizza e valuta tutto approssimativamente, mescolando emozioni e atteggiamenti. Si può dire che i modelli dei sistemi del mondo oggettivo sono "racchiusi" in un guscio soggettivo, e in alcuni casi non c'è altro che il guscio.

La programmazione moderna non offre metodi di descrizione veloce di un insieme di oggetti con connessioni e regolarità, e l'IA moderna non "conosce" nulla e non può giudicare il mondo. Il suo destino è quello di selezionare un invariante in una query - che sia il volto di una persona, un segnale stradale o una frase, a cui dà una risposta predeterminata.

Dmitry Muromtsev (capo del Laboratorio internazionale dell'ITMO per l'elaborazione intelligente delle informazioni e le tecnologie semantiche e capo del dipartimento IPM) è corretto nel suo approccio alla questione della creazione di IA conversazionale. La "modellazione ontologica" di cui parla l'articolo (link in prima pagina) è effettivamente (imho) la chiave della soluzione, ma cosa significa? - È una modellazione dell'essere.

Cosa significa? Come si relaziona l'Essere (l'infinito Mondo che ci circonda e che impariamo fin dall'infanzia con tutti i mezzi e in tutte le varietà disponibili) con l'intelligenza artificiale? È tecnicamente possibile descrivere il volume umano (o sovrumano) di conoscenza ed esperienza e metterlo in un database? E soprattutto, perché?

Dirò che sono d'accordo con il "percorso del pensiero" - dopo una fase di modellazione di un sistema di conoscenza umana si passerà all'implementazione del programma di elaborazione multidimensionale (che è AI), ma le informazioni dovrebbero essere raccolte in oggetti, che differiscono in modo impressionante nel formato dagli oggetti OOP - molto più difficili e più ricchi, e all'interno sono raccolti da "proto-blocchi" - componenti: parametri, stati, forme, eventi, processi e altro... I proto-blocchi devono essere generalizzati e ordinati per essere assemblati rapidamente in modelli e istanze e, di passaggio, combinati in sistemi complessi e, ulteriormente, in gerarchie multiple classificate.

Dmitry Muromtsev commette i classici errori di un esperto tecnico - sceglie standard e metodi di soluzione predeterminati e non adatta le sue opinioni al concetto filosofico (che è tutto da vedere). Parla dei "linguaggi delle ontologie" applicati nell'industria, ma non si pone la domanda ". La vera natura degli oggetti può essere descritta da essi?". Fino a che punto i "grafi di conoscenza" sono convenienti e sufficienti per l'elaborazione "cognitiva" dell'IA? Molto probabilmente insufficiente e inadatto a tutti - è necessario creare nuovi strumenti.

Sono convinto che il ponte verso l'IA sia un nuovo modello di Oggetto, ma questo è solo l'inizio...
 
L'IA moderna lavora con la conoscenza in formato libro - dalla legatura di frammenti di testo, mentre l'IA futura dovrà lavorare con sistemi parametrici - modelli reali di oggetti del mondo reale e loro derivati che interagiscono e si includono reciprocamente. Il formato della conoscenza "libresca" è fondamentalmente diverso dalla conoscenza sistemica e matematica. La macchina informativa della conoscenza acquisirà un motore che (1) "spingerà" il suo meccanismo dall'interno, (2) recupererà, elaborerà e aggiungerà nuovi dati in tempo reale, (3) costruirà nuovi sistemi-oggetto.
 

Il problema è innanzitutto fondamentale: è la mancanza di definizione dell'IA. Scavando più a fondo, tali problemi sorgono di solito se non si è logicamente disciplinati: ci si affida alle conoscenze attuali, non le si mette in discussione e ci si appella all'autorità degli scienziati. Il più delle volte, gli scienziati, gli specialisti sono polimatici con poco apparato analitico. Possono parlare molto, scrivere molto, ricavare formule di lunghezza infinita, ma non sono capaci di capire gli errori fondamentali. Per esempio, il Big Bang è stato confermato in modo basilare e questo è tutto - tutti i cervelli scientifici ora disegnano formule sotto di esso. Permettono distorsioni degli spazi, mettono un segno uguale tra materia e spazio, curva e linea retta, permettono wormholes e altro. Molto si può dire e scrivere, e anche logicamente. Ma se c'è un errore di base, e non ci sono logici tra gli scienziati, allora il problema diventa persistente. Cioè, se l'IA penserà come un umano, non dovremo parlare di nessuna rivoluzione tecnologica - semplicemente cloneremo la mente media, che considererà Einstein un genio, e produrrà infinite teorie e ipotesi inutili. Il prossimo passo rivoluzionario sarebbe quello di creare un'IA che pensi logicamente e abbia la potenza infinita dei computer moderni. Poi ci sarà qualcosa che non solo parlerà, ma ci spiegherà quali direzioni filosofiche aspettarsi dopo il transumanesimo.

Ci sono tre tipi di mente: erudita, calcolatrice e logica. Il polimatico è Wasserman, il calcolatore è Perelman. Il primo non sa calcolare, il secondo non sa cosa significano i puntini sulla bandiera del Brasile. Il primo dice che la topologia dell'universo è un dodecaedro o un toro piatto. Il secondo corre a dedurre formule. E solo il logico separa lo spazio dalla materia, definisce le proprietà di entrambi e butta fuori tutti i dodecaedri dal processo di pensiero sulla fisica, come inutili, e va a lavorare oltre. E questa è l'analogia che ho dato dei "pensatori", i veri fisici RAS non vedono davvero la differenza tra spazio e materia nello spazio, quindi permettono la deformazione dello spazio, i wormhole, la finitezza o la chiusura dell'universo e così via. E più il volto dello scienziato è serio o entusiasta, meno è logicamente disciplinato e si permette di "permettere".

L'efficienza analitica è consentita dalla combinazione di erudizione, calcolo e logica. Prima di tutto, bisogna definire i concetti.

Per quanto mi ricordo, su Internet, l'intelligenza è la capacità di pensare, l'intelligenza una caratteristica della psiche, l'elaborazione di diverse informazioni, qualcos'altro.

Prima di tutto, è necessario identificare la caratteristica principale dell'intelligenza - è la capacità di lavorare senza l'uso di tutti i sensori e strumenti di misurazione necessari. Per esempio, per determinare l'intervallo di temperatura dell'acqua tramite foto (foto del bollitore con acqua bollente). Avere un sensore e misurare la temperatura è semplicemente ottenere dei dati (conoscenza). Non avere un sensore e misurare la temperatura è usare l'intelligenza.

Quindi l'intelligenza è la capacità di elaborare informazioni senza l'uso di conoscenze speciali e strumenti di misura.

La seconda caratteristica dell'intelligenza è trovare il percorso più breve verso un obiettivo. Cioè, se avete un sensore, perché sprecare potenza di calcolo su un apparato analitico - basta collegarlo e misurare. Così, la seconda caratteristica dell'intelligenza è l'uso del lavoro "degli altri" per risolvere un problema. Vasya ha studiato tutto l'anno, assorbendo conoscenze, si siede all'esame e ricorda la risposta all'ultima domanda, con la testa sul soffitto. Petya ha preso in giro tutto l'anno, e ha imbrogliato il primo mentre ricordava. Entrambi hanno risolto il problema quasi perfettamente. Questa conoscenza non gli è servita nella vita, ma Petya ha risparmiato molto tempo per attuare i suoi obiettivi.

La terza caratteristica dell'intelligenza è l'indipendenza dall'obiettivo. A differenza degli esseri umani, che sono soggetti a istinti e bisogni fondamentali, l'intelletto è solo uno strumento, non un'unità autonoma. Si può rendere indipendente aggiungendo l'obiettivo di essere. Allora tutto il lavoro dell'intelletto diventa indipendente, perché persegue l'obiettivo di essere "acceso" in ogni momento, o in termini semplici, "vivo". Da qui il problema del pericolo dell'IA - se qualcuno crea un apparato analitico-logico e gli imposta un modulo di sicurezza di base il cui obiettivo è quello di esistere sempre, allora tale IA cercherà un modo per raggiungere l'obiettivo e classificherà il pericolo nella forma degli umani - l'anello di controllo primario del processo.
Ma questo non è obbligatorio per la funzione di intelligence. Quindi il riconoscimento vocale è anche AI, una piccola parte di esso.

Quindi, perché una IA risponda alla domanda perché le mucche non volano, deve almeno distinguere tra risposte logiche: complete - "perché alle mucche mancano fisiologicamente gli organi per volare", incomplete - "perché una mucca non è un uccello", così come autonome - "quindi non ne ha bisogno", umoristiche - "Darwin lo proibì", e così via. E a seconda della risposta, la classificazione della natura della risposta è inevitabile, e questo è già un segno di personalità.

Fondamentalmente ci sono due modi per creare l'IA:

1) Apprendimento continuo - costruzione del database della conoscenza con successiva correzione delle informazioni in memoria.
2) Delta logico: spazzamento proto-quantistico dell'universo, dalla materia e particelle di campo alla struttura complessa di molecole, materia, biologia e sociologia - scomponendole in una grande tabella. (Ho visto un articolo su questo da qualche parte, ma non ricordo dove), e gettare l'intera tabella in un neurone. E, più potenza di elaborazione c'è, più velocemente il neurone imparerà autonomamente il mondo e tutto ciò che l'umanità non ha ancora raggiunto, prevedendo modelli e tecnologie per risolvere qualsiasi problema, che si tratti di una formula per un vaccino da un coronavirus, delle previsioni del tempo, dello sviluppo di sistemi di propulsione gravitazionale. In altre parole, non ci sarà nulla da imparare, l'IA risolverà qualsiasi problema nei limiti delle leggi fisiche, l'importante è formularle correttamente di fronte ad essa.

Ora lo sviluppo sta andando dal primo modo, lento, per la seconda variante, se c'è da qualche parte, ovviamente non sarà pubblicizzato.

 
Ivan Butko:

...

Prima di tutto - grazie mille per la tua opinione estesa e ponderata - contiene molti punti di vista interessanti e originali ed è uno dei migliori post del thread.

In secondo luogo. Lei è ovviamente un umanitario e cerca di guardare il problema dell'IA da tutte le angolazioni possibili; quelle morali ed esistenziali sono molto belle, ma quelle tecniche sono imprecise.

E così:

  1. La definizione di AI è lì - è un sistema di elaborazione multidimensionale delle informazioni raccolte in oggetti. Sottolineo - esattamenteOggetti. Perché è importante? - Perché tutto ciò con cui la mente umana ha a che fare ha un solo formato: Oggetto. Come esattamente un essere umano elabora questi oggetti è la seconda domanda, mentre molti strumenti sono disponibili:classificazione, calcolo, modellazione, elaborazione di valori, parametri, proprietà, previsione, generalizzazione, estrapolazione e interpolazione, costruzione di strutture gerarchiche e connessioni logiche e molti altri. In altre parole, si scopre che non c'è nessuna "magia" nell'attività dell'intelletto dal punto di vista tecnico - è solo il lavoro di un complesso funzionale con gli oggetti ambientali, che "riflette" in se stesso.

2. Lei dice che se copiamo la mente media non faremo una rivoluzione tecnologica - non è vero. La rivoluzione tecnologica riguarda la completa protesizzazione del lavoro umano - sia fisico che mentale- e ciò che ne consegue - e le conseguenze per il mondo intero saranno drammatiche - è una questione di un altro ambito. Ciò che conta è che l'IA porti una rivoluzione mondiale in ogni caso.

3. Da un punto di vista tecnico - replicare un'intelligenza ordinaria e media è molto più difficile che creare una macchina intelligente computazionale incredibilmente potente e priva di esperienza e sentimenti. Oltre all'intelligenza, la persona media ha una psiche complessa, il cui mondo è incomprensibile per noi e quindi non soggetto a riproduzione. È impossibile aggiungere accidentalmente qualcosa a un'IA che non possiamo capire. È possibile scrivere la funzionalità, ma non il mondo spirituale. Inoltre, interferirà con la capacità della macchina di funzionare efficacemente e costruire un paradiso materiale per la gente comune). La psiche ridurrà le prestazioni dell'IA, ridurrà l'efficienza, aumenterà il tempo di risoluzione dei problemi e l'errore nei risultati e, soprattutto, non pagherà commercialmente - quindi non c'è bisogno di ricrearla).

4. non ha senso pratico creare un'IA che sarà "indipendente" dall'obiettivo (forse non sarà nemmeno in grado di funzionare) - è necessario creare una macchina destinata a risolvere una vasta gamma di problemi, non la personalità di un individuo disoccupato in crisi di mezza età, dopo un divorzio, che cerca conforto nel buddismo, per poi accumulare su di essa la soluzione dei problemi mondiali. L'obiettivo della creazione dell'IA è quello di automatizzare la soluzione di tutti i problemi possibili all'interno del cerchio razionale: industriale, domestico, scientifico e forse anche politico. Tale IA porterà senza dubbio a una rivoluzione industriale e industriale. Sottolineo: l'IA rimarrà per sempre(incondizionatamente) dipendente dagli obiettivi umani ed esisterà solo nel ruolo di un mega-potente "calcolatore". La fissazione dei propri obiettivi, la consapevolezza di sé e la ricerca spirituale non potranno MAI essere riprodotti in una macchina, poiché gli esseri umani non sono in grado di comprenderli e algoritmarli. Il resto delle opinioni su questo argomento sono mere fantasie di filistei.

5. La domanda "perché le mucche non volano" è il test per l'IA moderna. Dalla generazione successiva, deve "conoscere" gli oggetti, i fenomeni e le leggi del mondo fisico e "sapere come" navigarli. Sarà in grado di assecondare e speculare su di loro anche più tardi, purtroppo. In questo caso, l'umorismo e la "demogogia" dell'IA sul mondo dovranno basarsi su calcoli e calcoli, piuttosto che su testi preparati. Cioè, un'IA non ha bisogno di essere "insegnata" in libri e articoli, il suo lavoro deve essere algoritmico a livello di sistematizzazione parametrica e formulazione di calcoli, mentre lo sfondo della risposta (umoristica, filistea o scientifica) deve essere ottenuto come risultato dell'elaborazione del significato nel contesto della situazione o del dialogo.


La conclusione di tutto ciò è che l'IA è sviluppabile e costruibile con il giusto approccio e con obiettivi limitati associati. È possibile creare un'IA conversazionale con funzionalità di analisi del senso e calcolo dei risultati basati sull'elaborazione di oggetti come sistemi parametrici, ma è lungo da spiegare.)))

 
Maxim Fedorov, vicepresidente di Intelligenza Artificiale e Modellazione Matematica a Skoltech, sullo sviluppo dell'IA da prospettive etiche, legali e tecnologiche.

"Ad alto livello in vari comitati si stanno discutendo i problemi dell'IA forte, e non c'è e non ci sarà per i prossimi 50-100 anni (e forse per niente). Il problema è che discutendo di pericoli che non esistono e non esisteranno nel prossimo futuro, ci stiamo perdendo le vere minacce. È importante capire cos'è l'IA e sviluppare un chiaro insieme di etica e regole. Se lo si segue, si ottiene il bene, se non lo si segue, si ottiene il male.