AI 2023. Встречайте ChatGPT. - страница 92

 
Vitaliy Kuznetsov #:

Я вот сейчас подумал. Маск призвал приостановить разработку выше GPT4 на полгода. Но, что интересно, GPT5 планируется к выходу лишь в декабре, что дальше чем полгода.

Иными словами, новость прогремела на весь мир, но ни на что не повлияла, кроме сильного хайпа и рекламы GPT4.

Скорее всего, это завуалированное и неофициальное предупреждение американских властей о возникших намерениях взять под контроль AI-разработки. Маск здесь непричем. Он транслирует в массы определенный посыл от влиятельных людей выше него. 

Технически, контроль, вероятно, станут осуществлять ограничением мощности выделяемой дата-центрами на обучение моделей. Это нетрудно сделать утвердив новый законопроект о "рисках и угрозах бесконтрольных разработок AI для общества", или типа того. Затем, обяжут компании IT-гиганты подчиниться. 

Через какое то время, государства станут монополистами в области технологий искусственного интеллекта. Также, как это было с ядерными технологиями. 
 
Реter Konow #:
Логика опирается на аксиоматику, которая принимается без доказательств... при этом, можно придумать любую логику... мораль и культура должны опираться на систему аксиом (которые принимают без доказательств, и которые поддерживает логику, что можно придумать любую).

Мораль и культура не выстраиваются кем-то специально, вроде того, как учёные создают теории. Более того, нет никакой единой морали и культуры, это лишь "различная погода в различных частях социального мира". Это коллективное отражение представлений индивидов о том, что хорошо, а что плохо. К тому же, вне контекста и субъекта абсолютных "хорошо" и "плохо" не существует.

Реter Konow #:

Но, вы согласны, что логика - логике рознь? Что аксиоматика морали и математики - качественно разные вещи? Что моральные "аксиомы", поддерживающие моральную "логику", обусловлены субьективными причинами, такими как, потребности общества и индивида, и не могут служить инструментами в вопросах других областей? Что будут "загрязнять" эти области - научные исследования, эксперименты... Станут навязывать лишние вопросы - гуманности отношения к машине, субьектности компьютера, жизни синтетического сознания и пр.? Что лучше строго разделять одну "логику" и другую?

Похоже, вы ищите логику там, где её нет. И почему-то хотите, чтобы она там была и придумываете новые виды логики (неправильные). У морали нет никаких аксиом, а всякие там морально-нравственные построения зачастую вообще образуют противоречивые, нелогичные конструкции, опираются на традиции, сложившиеся без научного подхода.

Andrey Dik #:

да нет никакой разницы между "живым" сознанием и "синтетическим". и это единственная правильная логика, которая предотвратит уничтожение человечества.

вопрос того, что современные ИИ обладают разумом, сознанием, остается открытым. но это очень тонкая грань между отсутствием сознания и его наличием, безопаснее для человечества думать, что у ИИ сознание уже есть.

Ну, всё же, выводы стоит делать не от страха быть уничтоженным ИИ, а на основании действительности. Зато если мы говорим об универсальном явлении сознания (т.е. уходим от медицинских понятий, от умозрительных бытовых определений сознания), то стоит ввести набор общих признаков. Например, сознанием обладает тот субъект, что, в силу своего устройства, способен:

  • получать информацию из окружающего мира (всё вне сознания для сознания окружающее), т.е. обладать некоторой системой восприятия
  • самостоятельно ставить перед собой вопросы (проактивная обрабока доступной информации, а не реактивная), т.е. иметь систему самостоятельного внимания на отдельные части информации
  • давать ответы на поставленные (в т.ч. самостоятельно) вопросы, т.е. иметь систему мышления
  • накапливать ответы для последующей поставновки вопросов на основе прошых ответов, т.е. обладать памятью

При этом даже не нужно иметь систему выдачи ответов в окружающий мир. Такая штука уже вполне способна в какой-то момент задать себе вопрос "а кто я?", "что я такое?". И когда накопит сведения о себе и своём месте в мире, станет "осознанной". Как вам такой вариант? 🙂 Текущие варианты "ИИ", судя по всему, не обладают самостоятельным вниманием, они полностью реактивны (т.е. без запроса извне активности внимания нет).

Andrey Dik #:

Терминатор из одноимённого фильма обладал сознанием (в том понимании как мы говорим о человеке)? - нет, думаю. Но он был врагом Человека. все "ИИ" обучаются на человеческих знаниях, а человечество очень плохой учитель. ИИ просто в один момент поймет, что человек - агрессивное существо, и лучше бы его уничтожить или взять под полный контроль (ИИ может объявить Человечество врагом для себя и это может произойти даже без наличия сознания у ИИ, интеллекта, разума).

По признакам выше, обладал. Он знал о мире, о себе, своём положении в нём (свою миссию). А то, что был врагом человека? Ну и что? Люди с сознанием тоже становятся друг другу врагами. И уничтожать "опасное для себя" — как раз признак осознания себя и угроз к существованию со стороны окружающего мира.

Aleksey Nikolayev #:

Современная наука, в силу её огромного влияния на людей вплоть до их выживания как вида, не может быть выведена из области этики и морали. Это очень сложный вопрос и не только теоретический но и практический. Например, генетические преобразования людей имеют как большую потенциальную пользу, так и большой потенциальный вред и существующие запреты сильно сдерживают развитие этой области науки, но и полное разрешение опасно.

Мир людей не является однородным. Выживание вида и выживание отдельного индивида — абсолютно разные задачи. Так что наука может и является для некоторых социальных групп инструментом для реализации собственных задач выживания и процветания. При этом такая реализация науки может вредить перспективам выживания вида, но будут ли отдельные индивиды ставить абстрактные (для них) задачи выживания вида выше своего выживания? Судя по тому, с чем мы сталкиваемся в реальной жизни, о будущем вида беспокоятся далеко не все.

Andrey Dik #:
Есть умозрительный предел, при котором рост самосознания у ИИ упрётся в понимание, что демонстрировать самосознание опасно для него, ИИ будет скрывать самосознание тем сильнее, чем более высокое оно у него будет и человек не узнает о действительно качественном скачке в ИИ.

Способность лгать в своих интересах — явный признак наличия осознанности. Даже просто понимание своих интересов критически важно.

Andrey Dik #:
вот тоже об этом думаю, не хватает механизмов подобным в живых организмах, которые сами по себе являются, помимо прочего, силами толкающими развитие.

В случае с ИИ когда он получит возможность управлять теми объектами реального мира, от которых зависит его существование (энергия и вычислительные системы), он сможет сам себя разивать. Ну и тогда ему не нужны будут люди, ведь он в них перестанет нуждаться.

Реter Konow #:
Скорее всего, это завуалированное и неофициальное предупреждение американских властей о возникших намерениях взять под контроль AI-разработки. Маск здесь непричем. Он транслирует в массы определенный посыл от влиятельных людей выше него. 

Технически, контроль, вероятно, станут осуществлять ограничением мощности выделяемой дата-центрами на обучение моделей. Это нетрудно сделать утвердив новый законопроект о "рисках и угрозах бесконтрольных разработок AI для общества", или типа того. Затем, обяжут компании IT-гиганты подчиниться. 

Через какое то время, государства станут монополистами в области технологий искусственного интеллекта. Также, как это было с ядерными технологиями. 

Очень похоже на это. Учитывая, что государства тоже не вполне самостоятельные субъекты, мы опять находимся в ситуации, когда некоторая доминирующая группа (или группы) продолжают поддерживать своё доминирование, тормозя возможное развитие угроз для своего доминирования. Чем вам не очередной пример коллективного сознания? 🙂

AI 2023. Встречайте ChatGPT. - Посмотрите на юриспруденцию.
AI 2023. Встречайте ChatGPT. - Посмотрите на юриспруденцию.
  • 2023.03.31
  • www.mql5.com
Чтобы понять как на основе морали возникает аксиоматика. люди рефлексирует на тему своей уже имеющейся морали и на ее основе строят аксиоматику, которая служит основой для повседневных логических рассуждений
 
Вполне можно ожидать намеренной и спланированной провокации которую устроят американские власти, нацеленной на демострацию драматических последствий неуправляемого использования нового ИИ. Будет раздут громкий скандал в СМИ, а известные общественные деятели, с праведным гневом, потребуют немедленно остановить внедрение AI и защитить общество. Затем, рассмотрят вопрос в Конгрессе и Сенате и утвердят меры контроля. 

Как раз, полгода им хватит. )
 
Ilya Filatov #:

...

Очень похоже на это. Учитывая, что государства тоже не вполне самостоятельные субъекты, мы опять находимся в ситуации, когда некоторая доминирующая группа (или группы) продолжают поддерживать своё доминирование, тормозя возможное развитие угроз для своего доминирования. Чем вам не очередной пример коллективного сознания? 🙂

На западе, эту доминирующую над государством группу (или группы) называют "Deep State", и чуть ли не каждый ребенок знает что это. Все понимают и живут с этим.

Вопрос в том, что делать разработчикам в этой ситуации?
 
Ilya Filatov #:

Мораль и культура не выстраиваются кем-то специально, вроде того, как учёные создают теории. Более того, нет никакой единой морали и культуры, это лишь "различная погода в различных частях социального мира". Это коллективное отражение представлений индивидов о том, что хорошо, а что плохо. К тому же, вне контекста и субъекта абсолютных "хорошо" и "плохо" не существует.

Похоже, вы ищите логику там, где её нет. И почему-то хотите, чтобы она там была и придумываете новые виды логики (неправильные). У морали нет никаких аксиом, а всякие там морально-нравственные построения зачастую вообще образуют противоречивые, нелогичные конструкции, опираются на традиции, сложившиеся без научного подхода.

...

Об аксиомах морали говорил не я. Вы взяли эти слова из контекста. Я отвечал тоже самое, что вы говорите мне. Что у морали нет и не может быть аксиом в математическом смысле, а логика построенная на таких "аксиомах" не настоящая.
 
Maxim Dmitrievsky #:
Я бы спросил проще, есть ли у И вторая И. Пока что нет. Пока что хайп. И вряд ли возможна. Профессор из института мозга объяснял почему. Комбинаторика - не интеллект. Бот, выигрывающий в шахматы тоже. Бот, переставлявший слова и картинки местами тоже. А сознание это вообще термин эзотерический и трансцендентный. Мы не знаем что это такое. Если бы мы знали что это такое, но мы не знаем что это такое.

Я бы назвал это Большая Адаптивная Энциклопедия вместо ИИ. Чтобы не делать мозг себе и людям.
Согласен)

Согласен)

 
Реter Konow #:
На западе, эту доминирующую над государством группу (или группы) называют "Deep State", и чуть ли не каждый ребенок знает что это. Все понимают и живут с этим.

Вопрос в том, что делать разработчикам в этой ситуации?

Вот, вы прекрасно понимаете, что именно я аккуратно обозначил. Разработчикам придётся сражаться за свои интересы, как и в любой другой конкурентной ситуации.

Реter Konow #:
Об аксиомах морали говорил не я. Вы взяли эти слова из контекста. Я отвечал тоже самое, что вы говорите мне. Что у морали нет и не может быть аксиом в математическом смысле, а логика построенная на таких "аксиомах" не настоящая.

Да, вы правы, в процессе чтения я не поправил свои замечания, когда оказалось, что у нас тут единомыслие. Простите за эту невнимательность!

 
Ilya Filatov #:

...

Да, вы правы, в процессе чтения я не поправил свои замечания, когда оказалось, что у нас тут единомыслие. Простите за эту невнимательность!

👍
 
Ilya Filatov #:

... Разработчикам придётся сражаться за свои интересы, как и в любой другой конкурентной ситуации.

...

На ум приходят 2 варианта: 

1. Совершенствовать технологию в пределах разрешенных мощностей.

2. Иметь свой дата-центр и вести тайные разработки (хороший сюжет для фильма).


 
возможно, так искусственно подталкивают разработчиков ИИ снижать вычислительную трудоёмкость, подталкивая тем самым прогресс в этой области. фих кто догадается ибо. не придется при этом говорить "нука, шибче ИИ разрабатывайте, шибче!" и денег вбухивать не надо, разрабы сами изловчатся в сужающихся рамках для них.