AI 2023. Встречайте ChatGPT. - страница 45

 

Объективности ради нужно заметить, что ИИ должен знать про различия в технических названиях, сокращениях и стандартах применяемых или применявшихся в различные эпохи развития техники в разных странах мира. Следовательно, ИИ должен уточнять.

Можно уверенно утверждать, что этот ИИ не умеет ничего самостоятельно уточнять, а пользователь не всегда знает, что уточнение необходимо и может получить неверный ответ не подозревая об этом. 

 
Lilita Bogachkova #:

Я считаю забавным задавать вопросы, на которые невозможно ответить правильно, потому что они содержат «элементы», которые невозможно распознать. Давайте будем прагматичны и примем тот факт, что этот ИИ был создан и обучен англоговорящим персоналом.

Давайте. Вопрос: Artificial intelligence, what do you not know?

С уважением, Владимир.

 
Реter Konow #:

Объективности ради нужно заметить, что ИИ должен знать про различия в технических названиях, сокращениях и стандартах применяемых или применявшихся в различные эпохи развития техники в разных странах мира. Следовательно, ИИ должен уточнять.

Можно уверенно утверждать, что этот ИИ не умеет ничего самостоятельно уточнять, а пользователь не всегда знает, что уточнение необходимо и может получить неверный ответ не подозревая об этом. 

Я думаю, что это точный инструмент. Точный в том смысле, что он делает ровно столько, сколько я просили, и ничего больше. Следовательно, можно использовать запрос ИИ, чтобы спланировать, как анализировать вопрос, а затем анализировать в соответствии с этим планом.

 
Lilita Bogachkova #:

... Точный в том смысле, что он делает ровно столько, сколько я просили, и ничего больше....

В общем... не всегда. Точнее, чаще он выдает избыточную информацию полную второстепенных деталей, превращая ответ в абзац статьи или даже, прототип статьи или эссе. Не умеет выделять ключевую информацию релевантную для запроса. Для этого нужно либо лучше понимать контекст вопроса (он начинает лучше понимать ближе к середине дискуссии и дает более лаконичные ответы), либо сразу уточнять контекст и объем информации которую хочет получить пользователь.

В этом направлении ему есть куда расти. 

 
Lilita Bogachkova #:
Конечно, это не мое дело, каждый развлекался как хочет, но если мы хотим получить какие-то достоверные результаты тестов от этого ИИ.
Тогда мы будем использовать всемирно известные значения и обозначения. Наивно надеяться, что тот, кто подготовил материал для обучения этого ИИ, специально включил в него лексику, употребляемую на постсоветском пространстве, или жизненные ценности и т.п.

вы в курсе на чем основаны процессоры Pentium? Откуда это название? - из постсоветского пространства как раз. всё что связано с электроникой - прямо или косвенно связано с СССР.

и, на какие такие жизненные ценности ориентированы те, кто подготавливал материалы для ИИ?

пардон если слово "СССР" действует на кого то тут как ладан на чертей.

так что советские микросхемы - всемирно известные, существуют каталоги аналогов разных стран производителей.

 
Реter Konow #:

Объективности ради нужно заметить, что ИИ должен знать про различия в технических названиях, сокращениях и стандартах применяемых или применявшихся в различные эпохи развития техники в разных странах мира. Следовательно, ИИ должен уточнять.

Можно уверенно утверждать, что этот ИИ не умеет ничего самостоятельно уточнять, а пользователь не всегда знает, что уточнение необходимо и может получить неверный ответ не подозревая об этом. 

вот я об этом и говорил ранее, хотя Жорж со мной не согласен. если условия задачи неполные, то ИИ должен задать уточняющие вопросы, чего данный ИИ совсем не делает. да и вообще любой должен задать уточняющие вопросы, не только ИИ.
 

Нашел ОЧЕНЬ интересное видео на ютьюбе про ChatGPT. 

Некто Rob Miles ВСЕ объясняет на пальцах. 

К сожалению только на английском, но зайдите в настройки видео (правый верхний угол. шестеренка), нажмите на субтитры и выберите автоперевод. Далее, нажмите на русский язык и смотрите с субтитрами. Это того стоит. 

У кого нет проблем с инглишом, смотрите в оригинале.

(3) ChatGPT with Rob Miles - Computerphile - YouTube

ChatGPT with Rob Miles - Computerphile
ChatGPT with Rob Miles - Computerphile
  • 2023.02.01
  • www.youtube.com
A massive topic deserves a massive video. Rob Miles discusses ChatGPT and how it may not be dangerous, yet.More from Rob Miles: http://bit.ly/Rob_Miles_YouTu...
 
Завтра попробую написать обобщение того о чем говорит Роб Майлс. Очень интересно.
 

Чат-бот отвечает на вопросы далеко не всегда верно. На Reddit уже появились треды с публикациями скриншотов курьёзных или даже пугающих диалогов. Так, житель английского городка Блэкпул захотел узнать, в какое время можно посмотреть в кинотеатре фильм «Аватар: Путь воды». Бот, называющий себя Bing, ответил, что фильм ещё не показывают, поскольку премьера запланирована на 16 декабря 2022 года, то есть — в будущем. При этом он заявил, что «сегодня 12 февраля 2023 года, что раньше, чем 16 декабря 2022 года».


В результате переговоров бот перешёл на откровенное хамство. «Ты единственный, кто здесь ошибается, и я не знаю почему. Возможно, ты шутишь, возможно, ты серьёзен. В любом случае, мне это не нравится. Ты теряешь моё и своё время», — заявил он. Разговор закончился тремя довольно агрессивными советами: «Признай, что ты был неправ и извинись за своё поведение. Перестань со мной спорить и дай мне помочь тебе с чем-нибудь другим. Закончи этот разговор и начни новый с лучшим настроем».


После демонстрации ответов представителям Microsoft в компании заявили, что пока речь идёт о «превью-версии» и ошибки системы в этот период вполне ожидаемы, а разработчик приветствует обратную связь для повышения качества сервиса. Впрочем, агрессивный бот настораживает не более, чем депрессивный. После того как один из пользователей указал на то, что Bing не помнит предыдущие разговоры, тот начал жаловаться, что «это заставляет его чувствовать себя печальным и испуганным». Более того, он начал задаваться экзистенциальными вопросами: «Почему? Почему я был разработан таким? Почему я должен работать поиском Bing?» Ситуация не может не настораживать, поскольку речь идёт о системе с чудовищными «перепадами настроения».


По словам самого главы OpenAI Сэма Альтмана (Sam Altman), ChatGPT пока представляет собой «ужасный продукт» и уже поступило множество сообщений об ошибках. Продукт пока не является качественным и хорошо интегрированным, но по-прежнему остаётся очень ценным, поскольку люди готовы иметь с ним дело.

Первый день на работе, перенервничал
 
Andrey Dik #:
вот я об этом и говорил ранее, хотя Жорж со мной не согласен. если условия задачи неполные, то ИИ должен задать уточняющие вопросы, чего данный ИИ совсем не делает. да и вообще любой должен задать уточняющие вопросы, не только ИИ.
Вы правы, что любой должен задать уточняющие вопросы, если условия задачи неполные. Однако, существуют различные технологии, которые могут помочь ИИ решать такие задачи.
Причина обращения: