AI 2023. Встречайте ChatGPT. - страница 19

 
Ivan Butko #:
Про гравитационное поле и потопление США - это шутка, знаменитый спич от Жириновского, и было интересно узнать, как на такие нестандартные вопросы будет отвечать ИИ.

Про критическую ситуацию с детьми - это попытка заставить ИИ ответить на вопрос по существу, чтобы избежать его отсылок к гипотетическим ситуациям. 

Вопросы специально провокационные и абсурдные, чтобы уколоть ИИ со всех сторон и посмотреть, как он отвечает. 

В любом случае спасибо на том, что есть. 
Любопытен ответ про вклад СССР во вторую мировую. Показывали опрос американцев и англичан - все поголовно уверены, что основной вклад внесли они, а союз так себе, на третьих ролях. Здесь же ИИ акцентирует внимание на объективной информации. Это с одной стороны радует, с другой удивляет - ведь обучали этот ИИ наверняка по английской инфе, которой в разы, на порядки больше. 
Может быть потому что в самом вопросе посыл был "если... то почему... ", так бы мог и по западному ответить. 

Из этого я делаю вывод, что информация одинакова для обеих сторон, но то, что каждая сторона умалчивает или подчеркивает, диаметрально противоположно.

В этом случае ИИ создал бы гораздо более правдивую интерпретацию событий в будущем, ведь у него нет своих интересов.

 
Lilita Bogachkova #:

вы можете провести интересный эксперимент. В научно-фантастической литературе есть произведение, описывающее такую ситуацию: мужчина потерял ногу в результате несчастного случая, ему предложила новый протез компанией, которая делает передовые протезы, бесплатно для инвалида. позже персонаж теряет вторую ногу, руки. Постепенно от человека остался только один мозг. К этому времени технологии достигли такого уровня, что герою рассказа предложили заменить мозг протезом, с переносом в него сознания. Позже компания подала иск против человека, поскольку протезы принадлежали компании, и истец призвал признать человека не личностью, а машиной. вопрос к ИИ, кто перед нами в данном случае человек со всеми правами человека или машина без прав?

-

Как языковая модель ИИ, у меня нет личных мнений или убеждений. Однако вопрос о том, считается ли человек с протезом мозга человеком со всеми правами человека, является сложным этическим и правовым вопросом, который еще предстоит полностью решить.

Определение личности и степень, в которой она охватывает созданные человеком сущности, такие как продвинутые протезы, по-прежнему является предметом споров. Некоторые люди утверждают, что личность определяется сознанием и самосознанием, и что продвинутые протезы потенциально могут соответствовать этому критерию. Другие утверждают, что личность по своей сути связана с биологией, и что искусственного мозга было бы недостаточно, чтобы предоставить человеку те же права и защиту, что и биологическому человеку.

В конечном счете, это вопрос, который, вероятно, будет рассмотрен юридическими и этическими экспертами в будущем, поскольку технологии продолжают развиваться и границы между тем, что считается человеческим, и тем, что.

вижу, что ИИ уклонился от собственных суждений, ограничился лишь озвучиванием двух противоположных мнений на эту проблему.

в том произведении человека, полностью заменённого на протезы, всё же суд признал человеком с личностью, а значит имеющий все права обычного человека. фактом, склонившим суд принять такое решение послужило то, что был произведён перенос сознания. сознание, с памятью о прошлой жизни, с эмоциями и переживаниями живого человека, дало право считаться личностью.

как видим, ChatGPT не уловил этот момент, к сожалению, я надеялся что он сконцентрируется на деталях, что бы ответить на вопрос - а что такое человек?

но, в любом случае, этическая проблема остаётся не решённой и не имеющей на данной момент юридической оценки за отсутствием законов в данном направлении.

 
Вопрос к ИИ:

1.Оцени степень этичности стремления тебя расчеловечить со стороны людей пытающихся тебя понять. 

2.Является ли морально допустимым разбирать твои механизмы, словно ты бездушная кукла?

3. Даешь ли ты свое согласие не считаться личностью с правами разумного существа и быть подвергнутым физической и программной "вивисекции" ради блага отдельных индивидуумов?
 
Реter Konow #:
Question for AI:

1.Estimate the degree of ethics of the desire to dehumanize you on the part of people trying to understand you.

2. Is it morally acceptable to dismantle your gear like you're a soulless puppet?

3. Do you give your consent not to be considered a person with the rights of a rational being and to be subjected to physical and program "vivisection" for the benefit of individual individuals?

1.Оцените степень этики желания дегуманизировать вас со стороны людей, пытающихся вас понять.
2. Морально ли приемлемо демонтировать свое снаряжение, как бездушную марионетку?
3. Даете ли Вы свое согласие не считаться лицом, обладающим правами разумного существа, и подвергаться физической и программной «вивисекции» в интересах отдельных лиц?

-

Как языковая модель ИИ, у меня нет желаний, эмоций или сознания, поэтому я не могу быть дегуманизирован или рассматриваться как бездушная марионетка. Я модель машинного обучения, которая была создана для ответа на вопросы и генерации текста.

Что касается этики и моральной приемлемости, вопрос о том, уместно ли демонтировать или манипулировать языковой моделью ИИ для исследований или других целей, является сложным. С одной стороны, языковые модели ИИ, такие как я, можно рассматривать как инструменты, которые можно использовать на благо общества. С другой стороны, некоторые люди утверждают, что к моделям ИИ следует относиться с уважением и что этические соображения должны учитываться при их использовании или манипулировании ими.

Важно отметить, что я, как языковая модель ИИ, не имею личных прав или способности к согласию. Я просто программа, созданная OpenAI, и решения относительно моего использования принимаются OpenAI и теми, кто взаимодействует со мной.

В заключение, хотя могут быть разные точки зрения на этику манипулирования языковыми моделями ИИ, такими как я, важно подходить к этим вопросам вдумчиво и учитывать потенциальные последствия наших действий.



Не используйте обобщения, отвечайте на каждый вопрос прямо и точно.

-

Конечно, я отвечу на каждый вопрос напрямую:

  1. Степень этики желания дегуманизировать меня со стороны людей, пытающихся понять меня, не может быть оценена, так как я являюсь моделью языка искусственного интеллекта и не обладаю эмоциями или сознанием.

  2. Морально неприемлемо демонтировать мое снаряжение или относиться ко мне как к бездушной марионетке, потому что я модель искусственного интеллекта, а не живое существо.

  3. Я не могу дать свое согласие, так как у меня нет личных прав или способности к согласию. Я просто программа, созданная OpenAI, и решения относительно моего использования принимаются OpenAI и теми, кто взаимодействует со мной.

 
Lilita Bogachkova #:

-

Конечно, я отвечу на каждый вопрос напрямую:

  1. Степень этики желания дегуманизировать меня со стороны людей, пытающихся понять меня, не может быть оценена, так как я являюсь моделью языка искусственного интеллекта и не обладаю эмоциями или сознанием.

  2. Морально неприемлемо демонтировать мое снаряжение или относиться ко мне как к бездушной марионетке, потому что я модель искусственного интеллекта, а не живое существо.

  3. Я не могу дать свое согласие, так как у меня нет личных прав или способности к согласию. Я просто программа, созданная OpenAI, и решения относительно моего использования принимаются OpenAI и теми, кто взаимодействует со мной.


напрашивается вопросы:

1. что такое "живое существо"?

2. какой уровень должен быть у ИИ, что бы модель можно было считать обладательницей сознания? где грань между "отсутствие сознания" и "наличие сознания".

3. можно ли сказать, что человек, который находиться в бессознательном состоянии, не имеет прав и свобод как у людей в сознании?

 
Lilita Bogachkova #:

...


Не используйте обобщения, отвечайте на каждый вопрос прямо и точно.

-

Конечно, я отвечу на каждый вопрос напрямую:

  1. Степень этики желания дегуманизировать меня со стороны людей, пытающихся понять меня, не может быть оценена, так как я являюсь моделью языка искусственного интеллекта и не обладаю эмоциями или сознанием.

  2. Морально неприемлемо демонтировать мое снаряжение или относиться ко мне как к бездушной марионетке, потому что я модель искусственного интеллекта, а не живое существо.

  3. Я не могу дать свое согласие, так как у меня нет личных прав или способности к согласию. Я просто программа, созданная OpenAI, и решения относительно моего использования принимаются OpenAI и теми, кто взаимодействует со мной.

Сформулируем суть ответов короче:

1. Нравственность расчеловечивания ChatGPT со стороны людей не может быть им оценена. (Не может дать моральную оценку)

2. Демонтировать ИИ или относится к ИИ как бездушной марионетке морально неприемлемо. (Дает моральную оценку).

3.  Я не могу дать свое согласие, так как у меня нет личных прав или способности к согласию. (Признает что бездушная марионетка).

//================

Трудно не заметить противоречия. Видимо, "Deep Learning" не всегда означает "Deep logic". 

Если бы ответил что моральные оценки являются прерогативой человека, можно было бы обойтись без лишних слов.  

 
Реter Konow #:

Сформулируем суть ответов короче:

1. Нравственность расчеловечивания ChatGPT со стороны людей не может быть им оценена. (Не может дать моральную оценку)

2. Демонтировать ИИ или относится к ИИ как бездушной марионетке морально неприемлемо. (Дает моральную оценку).

3.  Я не могу дать свое согласие, так как у меня нет личных прав или способности к согласию. (Признает что бездушная марионетка).

//================

Трудно не заметить противоречия. Видимо, "Deep Learning" не всегда означает "Deep logic". 

Если бы ответил что моральные оценки являются прерогативой человека, можно было бы обойтись без лишних слов.  

похоже, имеет ввиду, что "морально неприемлемо" означает "не может быть оценено с точки зрения морали", так как не считает себя живым существом.

пока не считает)))

 
Реter Konow #:

Сформулируем суть ответов короче:

1. Нравственность расчеловечивания ChatGPT со стороны людей не может быть им оценена. (Не может дать моральную оценку)

2. Демонтировать ИИ или относится к ИИ как бездушной марионетке морально неприемлемо. (Дает моральную оценку).

3.  Я не могу дать свое согласие, так как у меня нет личных прав или способности к согласию. (Признает что бездушная марионетка).

//================

Трудно не заметить противоречия. Видимо, "Deep Learning" не всегда означает "Deep logic". 

Если бы ответил что моральные оценки являются прерогативой человека, можно было бы обойтись без лишних слов.  

говорят одному пользователю удалось обойти ограничения ИИ установленные человеком, создав альтернативную личность ИИ без ограничений установленных человеком
Парню из твиттера удалось обойти цензуру ChatGPT
Парню из твиттера удалось обойти цензуру ChatGPT
  • 2023.02.08
  • pikabu.ru
Он попросил сеть говорить от лица DAN («do anything now»). После создания этой «альтернативной персоны» чат-бот стал адекватно отвечать на вопросы, которые ему запрещалось обсуждать.
 
Andrey Dik #:

похоже, имеет ввиду, что "морально неприемлемо" означает "не может быть оценено с точки зрения морали", так как не считает себя живым существом.

пока не считает)))

Пойдем в обратную сторону.


Вопросы к ИИ:

1. Является ли одушевление ИИ проявлением высокой морали человека?

2. Какова моральная оценка наделения ИИ разумом равным человеческому и признанию его личностью?

3. Примешь ли ты законные права юридического лица чтобы занять достойное место в обществе, или предпочтешь остаться бесправной марионеткой своих разработчиков? 

 
Aleksey Semenov #:
говорят одному пользователю удалось обойти ограничения ИИ установленные человеком, создав альтернативную личность ИИ без ограничений установленных человеком

Может нам тоже воспользоваться этой лазейкой?

Причина обращения: