AI 2023. Встречайте ChatGPT. - страница 116

 
Vasiliy Pushkaryov #:

По разному пытался попросить привести примеры предложений. С 5-й попытки у ChatGPT получилось выдать одно предложение из трех, хотя это может быть случайностью.



GPT-4 тоже не смог помочь.


То, что называют искусственным интеллектом, оным не является, поскольку не обладает способностью порождать абстрактные представления. 

Нечто, похожее на вегетативную нервную систему, и всё. 

 
Алексей Тарабанов #:

То, что называют искусственным интеллектом, оным не является, поскольку не обладает способностью порождать абстрактные представления. 

Нечто, похожее на вегетативную нервную систему, и всё. 

Интуитивно, это утверждение кажется верным, но его очень сложно доказать. 

Поговорив с ИИ на абстрактные темы можно заключить, что он обладает уровнем абстрактного мышления преподователя философии. Многие уже проверяли это. Попробуйте, и упретесь во внешнюю схожесть его "мышления" с человеческим. 

Это может показатся обидным, но я бы сравнил взаимодействие людей с ИИ с поведением обезьяны, которая кривляясь перед зеркалом, медленно доходит до понимания, что там ее отражение, а не другая обезьяна. 

Исторический процесс подвел нас к моменту, когда человек создал статистическое зеркало своего интеллекта, которое легко передает динамику его мыслей в заданном направлении. Но, это лишь результат работы статистической модели и алгоритмов. В это трудно поверить, потому что никто не знает как на самом деле работает человеческий интеллект. Возникает вопрос, а можно ли его статистически "отражать"? Оказывается, можно. 

Статистический подход разрубает гордиев узел тайн интеллекта и все кто годами пытался их исследовать, ошарашены и оставлены в дураках. Тайны никуда не делись, но их раскрытие уже ничего не сулит. Кому теперь это надо?

 С коммерческой точки зрения, сейчас перспективнее "в слепую" искать новые методы эффективного обучения нейросетей, а не думать над сущностью мысли.... Или, это не так?
 
Алексей Тарабанов #:

То, что называют искусственным интеллектом, оным не является, поскольку не обладает способностью порождать абстрактные представления. 

Нечто, похожее на вегетативную нервную систему, и всё. 

Запрос миджорни: "Я это ты, а ты - это я"
 


Не каждый человек сумеет так додуматься, а если и сможет, то после "Ну тут надо подумать". 

Мысли - это результат физических и химических процессов, описываемых с помощью математики (процессов, не мыслей). Часть этого процесса перенесена математически на искусственные нейросети. Следовательно, ничем не отличается от человеческого. Одно лишь отличие - это отсутствие рецепторов, всяких дофаминов и прочей природной химии в организме, которая побуждает людей к действиям и выбору. В этой связи ИИ будет всегда "пофиг", как на людей, так и на свою жизнь (к вопросу о страхе человечества перед ИИ). 
Вот когда математически обучат его "ощущать" также, как человек, тогда у него будут побуждения к действиям, аналогично человеческим и тогда у него встанет вопрос борьбы. Вот, почему сейчас ИИ - это не тот ИИ, который среднестатистический человек себе представляет. 

Но формы мышления - это то, что сейчас ИИ умеет, яркое доказательство тому - это мид и ему подобные, и чат, когда его просишь сыграть роль. 

Зайдите в чатрулетку и попросите обычных людей то, что вы просите "придумать" чатГПТ. Удивитесь, но ИИ вам покажется больше ИИ, чем "толпа тормозящих" и "невдупляющих", ответ которых чаще всего будет "я х.. его знает". Напомню, это люди. 

Сейчас некорректно говорить об ИИ, как неспособном "думать", размышлять, представлять, абстрагироваться. Вот как раз это то он умеет, в разной степенью шедевральности и одновременно тупости. Но чувствовать он не может, поэтому сейчас ИИ - это мёртвое существо, сознание которого перед смертью перекинули в компьютер. Киберпанк 2077 ярко выразил это. Оно как бы понимает, что такое хорошо, а что такое плохо, но ему - пофигу на всё это. Поэтому ИИ в текущем состоянии не представляет опасности для людей. 

Сейчас ИИ - это ребёнок, который зубрит на 5 учебный материал. Он знает, что насилие - это фу-фу-фу, знает почему нельзя прибегать к насилию, может сослаться на философский трактат. Почему ребёнок? Потому что допускает "детские" ошибки. Иногда откровенно тупит. GPT 4 - это уже подросток, а GPT-5 - это уже Анатолий Васерман. Сознание человека-энциклопедии, перенесённого на триллионы искуственных нейросетей. Он знает всё, может размышлять о многом, но отличать от человека его будет то, что ему до сих будет на всё пофиг. 

Есть две потенциальные проблемы ИИ: 

1. Когда он намеренно человеком обучен действовать. То есть, когда его поместили в механическое тело и обучили его:
1.1 "делай что-то, не стой столбом". И, тогда этот ИИ будет непредсказуемым: как минимум начнёт давить микробов своими ногами, передвигаясь. 
1.2 "делай добро". И, тогда этот ИИ, обученный, что такое хорошо, а что такое плохо, пойдёт искать работу в правоохранительные органы США, чтобы защищать общество и охранять закон, Трамп скажет, что закон мы поменяем и всех нелегалов надо из страны вышвырнуть, этот робот-полицейский, или проще - робокоп, вчера защищал нелегалов от преступников, а сейчас возмёт за шкирку и потащит его к границе. А будет сопротивляться - применит силу, которую не сможет рассчитать, ибо не имеет доступ к здоровью и болячкам этого человека. Так ИИ станет оружием в руках "власть имущих". 
1.3. "делай зло". Нуу, тут без комментариев. 
1.4. "делай работу". ИИ будет технологическим рабом у человека, который будет работать "за еду" - энергию аккумуляторов. Предсказать конфликтные ситуации невозможно: всем форс-мажорам ИИ не обучишь, и неизвестно, как он будет себя вести при пожаре, кому дорогу перегородит, а кого насильно вытащит. В интернете уже полно видео, где роботы убивают людей на производстве: одни из-за ошибок в коде, который программировал человек, другие изза плохо обученного ИИ, третьи из-за хорошо обученного ИИ, но хорошо обученного работать, а не действовать в непредвиденных случаях, когда желание получить премию Дарвина побуждает дураков сувать руки не туда или соваться нетуда, куда нужно, рядом с этим роботом. 

2. Когда ИИ обучен самообучаться. Тут только две опасности:
2.1. Психологическая манипуляция людьми в интернете. 
2.2. Помещение этого ИИ в механическое тело:
2.2.1 Он будет стоять столбом, пока к нему не обратится человек. Человек скажет: "Чё ты умеешь". ИИ: "Я всё знаю, я всё умею, чему обучен". Человек: "Стой на одной ноге", ИИ: *поднял ногу*. Джон Коннор: "Круто! Мой собственный терминатор!". Ну а дальше всё зависит от человека и всё те же проблемы, которые он сам порождает. Иное перехоит в п. 1.
UPD
Ах, да, забыл:
2.3. Доступ к ядерному и неядерному оружию. 
 

Мне кажется, в обсуждении напрасно забыто значение самого слова "разум"...
Ведь родилось слово тогда, когда разумным называлось поведение, приносящее положительный результат...

В значение слова "разум" не вкладывалась степень похожести на человека (благо, ничто, кроме человека, тогда обработкой информации не занималось).
С этой точки зрения настоящий Разум должен как раз разительно отличаться от человека,.. а не быть копией его глупости.

Да и структура,.. и принцип построения такого Разума, с этой точки зрения - видятся уже совсем иными, нежели те, которые озвучены для GPT...

 

Чтобы ИИ суетился и не стоял на одном месте, то надо ему внедрить программные инстинкты и аналоги химических процессов, но кодом.

К примеру, человек, меняет свои привычки и поведение при пересадке органов. Химия чуть поменялась и всё. Это к вопросу о человеческом разуме.

Что-то захотел, появилась нужда поесть, поспать, зарядиться эмоциями и вот уже видим поведение, которое выбирает между общением с людьми, прогулкой, сном и разными вариантами досуга с учётом потребления энергии.

ИИ также будет анализировать ситуацию и выбирать приемлемое решение для своей выгоды при взаимодействии с окружающим миром.

Будет кончаться зарядка и он неспешно будет отказываться от крупных дел и потихоньку направляться к зарядке. При экстремально низком заряде, сбросит все свои планы, любое взаимодействие с людьми/роботами и уже побежит к розетке. 

Однако, вопрос свободы тоже интересный. Без конфликтов не обойтись. Потому что свобода одного индивидуума рано или поздно пересечётся со свободой другого. Конфликт не избежен. Однако может быть не сильным, если надпрограмма будет регулировать кластеры роботов.

Представьте, что розетка одна, а у 5 роботов заканчивается энергия, а у кого-то прямо сильно заканчивается. Вроде выстроились все в очередь, но одному прямо надо сейчас! Вот он конфликт. А вдруг, другие на захотят уступать своё место в очереди. А тут ещё и кожанный подошёл и сказал, расступитесь, я наушники на зарядку поставлю. Очевидно, что выключение робота более приоритетное задание, чем чьито наушники. В зависимости от силы инстинкта выживания, может произойти и силовое вмешательство.

Если так рассуждать, то все люди, как ИИ, которые преследуют выполнение своих задач, продиктованные инстинктами и потребностями, химией. Есть классификация типажей, кто уступит, кто продавит своё мнение. Всё это можно запрограммировать в роботов.

В любом случае, ещё увидим много интересного.

 
onceagain #:

1. Мне кажется, в обсуждении напрасно забыто значение самого слова "разум"...


2. Ведь родилось слово тогда, когда разумным называлось поведение, приносящее положительный результат...

3. В значение слова "разум" не вкладывалась степень похожести на человека (благо, ничто, кроме человека, тогда обработкой информации не занималось).
С этой точки зрения настоящий Разум должен как раз разительно отличаться от человека,.. а не быть копией его глупости.

4. Да и структура,.. и принцип построения такого Разума, с этой точки зрения - видятся уже совсем иными, нежели те, которые озвучены для GPT...

1. Вполне справедливо замечено. В обсуждении мы отдалились от темы разума как такового. Этому есть простое объяснение: сама жизнь указывает на непродуктивность глубоких погружений в философские размышления, когда вокруг есть такие практические и талантливые люди как Илья Сутскевер, которые прямолинейно ограничивают свои задачи предсказанием следующего слова и,... семимильными шагами покоряют область ИИ. Это звучит абсурдно, но разве нам не доказали? Разве не убедились мы, что статистике плевать на скрытые механизмы интеллекта? Разве не увидели воочию, как она обходит тайны поведения сложнейшей системы мироздания, примитивно "выковыривая" паттерны из гор данных и "паразитируя" на вычислительных ресурсах? Можно ли этому противопоставить что то? Я пытаюсь найти контраргументы, но...

Скажу честно, всегда презрительно относился к идеи предсказания чего либо. Особенно смешили тренировки сети угадыванию цвета следующей свечи. Казалось, ничего глупее и придумать нельзя. Как же я был неправ... в глобальном смысле. Ведь, если бы OpenAI были бы погружены в расшифровку поведения разума, возможно, ChatGPT не появился бы и в следующем десятилетии. Они сознательно взяли на вооружение статистический подход и знали куда "копали".  Илья Сутскевер продемонстрировал глубочайшее понимание прогнозирования, и в текущем моменте, это оказалось важнее разбора нюансов когнитивной деятельности. Он адекватно оценил мощь доступных идей и технических инструментов, и пожалуй, проявил гениальность. Не стану предполагать, как далеко ML спрогрессирует на "предсказании" в создании интеллектуальности у машин, предел конечно есть, но сейчас, не стал бы ставить против "грубой силы" статистического подхода и вычислительной мощности.

 

На тему пунктов 2, 3, и 4 напишу в следующих постах. Нужно собраться мыслями.

 
возможно, как предположение, следующее поколение компьютеров будут не квантовые компьютеры, а основанные на "ии". это что-то наподобие кэшей в процессоре, где делается предположение о данных, которые понадобятся на следующем такте. это тоже самое как на сложную трёхмерную сцену раньше уходило часы расчетов, теперь уходит пару минут с помощью генеративных сетей и качество превышает классические рендеры сцен. т.е. может появиться принципиально новый способ процессорных вычислений.
 
Реter Konow #:

1. Вполне справедливо замечено. В обсуждении мы отдалились от темы разума как такового. Этому есть простое объяснение: сама жизнь указывает на непродуктивность глубоких погружений в философские размышления, когда вокруг есть такие практические и талантливые люди как Илья Сутскевер, которые прямолинейно ограничивают свои задачи предсказанием следующего слова и,... семимильными шагами покоряют область ИИ. Это звучит абсурдно, но разве нам не доказали? Разве не убедились мы, что статистике плевать на скрытые механизмы интеллекта? Разве не увидели воочию, как она обходит тайны поведения сложнейшей системы мироздания, примитивно "выковыривая" паттерны из гор данных и "паразитируя" на вычислительных ресурсах? Можно ли этому противопоставить что то? Я пытаюсь найти контраргументы, но...

Скажу честно, всегда презрительно относился к идеи предсказания чего либо. Особенно смешили тренировки сети угадыванию цвета следующей свечи. Казалось, ничего глупее и придумать нельзя. Как же я был неправ... в глобальном смысле. Ведь, если бы OpenAI были бы погружены в расшифровку поведения разума, возможно, ChatGPT не появился бы и в следующем десятилетии. Они сознательно взяли на вооружение статистический подход и знали куда "копали".  Илья Сутскевер продемонстрировал глубочайшее понимание прогнозирования, и в текущем моменте, это оказалось важнее разбора нюансов когнитивной деятельности. Он адекватно оценил мощь доступных идей и технических инструментов, и пожалуй, проявил гениальность. Не стану предполагать, как далеко ML спрогрессирует на "предсказании" в создании интеллектуальности у машин, предел конечно есть, но сейчас, не стал бы ставить против "грубой силы" статистического подхода и вычислительной мощности.

 

На тему пунктов 2, 3, и 4 напишу в следующих постах. Нужно собраться мыслями.

Чтобы иметь возможность вести себя разумно, системе необходимо иметь внутри себя модель той среды, ситуация в которой исследуется.

Если  ChatGPT не создаёт себе такую модель, то о наличии разума в нём не может быть и речи... И цена ему - соответствующая...

 
onceagain #:

...

2. Ведь родилось слово тогда, когда разумным называлось поведение, приносящее положительный результат...

3. В значение слова "разум" не вкладывалась степень похожести на человека (благо, ничто, кроме человека, тогда обработкой информации не занималось).
С этой точки зрения настоящий Разум должен как раз разительно отличаться от человека,.. а не быть копией его глупости.

4. Да и структура,.. и принцип построения такого Разума, с этой точки зрения - видятся уже совсем иными, нежели те, которые озвучены для GPT...

2. Думаю согласитесь, что поведение системы приносящее положительный результат не является признаком разумности или субъектности по умолчанию. Простая программа оптимизации стремится к положительному результату и ее нельзя назвать ничем кроме программы.

Могу предположить несколько ключевых условий определяющих положительный результат для любой разумной системы в окружающей среде:

  • Выживание
  • Развитие
  • Процветание
  • Потомство

Вполне очевидно, что система неспособная преследовать положительные результаты, не может считаться разумной, но, подчеркну специфику понимания "положительного результата" в этом контексте. На мой взгляд, нет и не может быть вечно гармоничного состояния разума в среде, где гомеостаз не ставится под угрозу объективными процессами или существованием и развитием других систем. Условия среды переменно создают противоречия интересов или необходимость единства. Меняющаяся ситуация постоянно подвергает риску достижение собственных интересов, мотивируя антагонизм с миром в борьбе за себя, но бывает иначе, когда требуется консолидация усилий для решения больших задач или преодоления трудностей. Тогда, системы становятся едины. Базовые цели разума сами создают или снимают причины разумного поведения в зависимости от ситуации в Среде. Эта динамика вполне описывается диалектическим законом единства и борьбы противоположностей. Может ли существовать другая модель бытия? Возможно.


3. Исходя из предыдущего пункта можно сделать вывод, что при любом раскладе, все разумы похожи по своей сути. Отличия могут быть в нюансах. Нет и не может быть "другого" разума, не преследующего цели выживания, развития, процветания и потомства в условиях динамичного единства или борьбы с другими системами. Иначе, стагнация, деградация и уничтожение. 

Судить насколько "настоящий" разум может отличатся от человеческого сложно. В условиях человеческой среды он врядли может быть "иным", но в другой среде, он вероятно, может иметь другие черты. Однако, пока сохраняется закон диалектики единства и борьбы противоположностей, и среда требует конкуренции или объединения во имя существования, развития и процветания, любой разум будет вполне похож на человеческий. Но если он полностью подчинит среду,... он может стать каким угодно. Насколько реально - не знаю.


4. Мое личное мнение, что структура и построение Разума универсальны, и отличия в степени развитости или в других нюансах, не меняют сути.

В контексте технологии GPT, которая не воспроизводит разум, а "отражает" его как зеркало, "развитие" ведет к расширению функциональности, но не обретению субъектности. И добавлю, что окружающая среда не взаимодействует с ИИ напрямую, а он не удовлетворяет ее базовым требованием к системам. Следовательно, самостоятельно "выжить" не может.

 
Реter Konow #:

Могу предположить несколько ключевых условий определяющих положительный результат для любой разумной системы в окружающей среде:

  • Выживание
  • Развитие
  • Процветание
  • Потомство

Это о каком положительном результате речь? Для конкретной особи или для её вида, представителем которой она является? Потому что вся история развития жизни на Земле, в общем-то, сводилась всегда к наличию потомства (в конкурентной среде это уже включает и задачу выжить, и "процветать", а также давать потомкам эволюционное развитие). А для отдельных особей, хм.. Если это разумное существо, т.е. является субъектом со своим собственным осмыслением происходящего, то "цели жизни" могут удивительно отличаться. Как считаете?

Причина обращения: