Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Я вот сейчас подумал. Маск призвал приостановить разработку выше GPT4 на полгода. Но, что интересно, GPT5 планируется к выходу лишь в декабре, что дальше чем полгода.
Иными словами, новость прогремела на весь мир, но ни на что не повлияла, кроме сильного хайпа и рекламы GPT4.
Мораль и культура не выстраиваются кем-то специально, вроде того, как учёные создают теории. Более того, нет никакой единой морали и культуры, это лишь "различная погода в различных частях социального мира". Это коллективное отражение представлений индивидов о том, что хорошо, а что плохо. К тому же, вне контекста и субъекта абсолютных "хорошо" и "плохо" не существует.
Но, вы согласны, что логика - логике рознь? Что аксиоматика морали и математики - качественно разные вещи? Что моральные "аксиомы", поддерживающие моральную "логику", обусловлены субьективными причинами, такими как, потребности общества и индивида, и не могут служить инструментами в вопросах других областей? Что будут "загрязнять" эти области - научные исследования, эксперименты... Станут навязывать лишние вопросы - гуманности отношения к машине, субьектности компьютера, жизни синтетического сознания и пр.? Что лучше строго разделять одну "логику" и другую?
Похоже, вы ищите логику там, где её нет. И почему-то хотите, чтобы она там была и придумываете новые виды логики (неправильные). У морали нет никаких аксиом, а всякие там морально-нравственные построения зачастую вообще образуют противоречивые, нелогичные конструкции, опираются на традиции, сложившиеся без научного подхода.
да нет никакой разницы между "живым" сознанием и "синтетическим". и это единственная правильная логика, которая предотвратит уничтожение человечества.
вопрос того, что современные ИИ обладают разумом, сознанием, остается открытым. но это очень тонкая грань между отсутствием сознания и его наличием, безопаснее для человечества думать, что у ИИ сознание уже есть.
Ну, всё же, выводы стоит делать не от страха быть уничтоженным ИИ, а на основании действительности. Зато если мы говорим об универсальном явлении сознания (т.е. уходим от медицинских понятий, от умозрительных бытовых определений сознания), то стоит ввести набор общих признаков. Например, сознанием обладает тот субъект, что, в силу своего устройства, способен:
При этом даже не нужно иметь систему выдачи ответов в окружающий мир. Такая штука уже вполне способна в какой-то момент задать себе вопрос "а кто я?", "что я такое?". И когда накопит сведения о себе и своём месте в мире, станет "осознанной". Как вам такой вариант? 🙂 Текущие варианты "ИИ", судя по всему, не обладают самостоятельным вниманием, они полностью реактивны (т.е. без запроса извне активности внимания нет).
Терминатор из одноимённого фильма обладал сознанием (в том понимании как мы говорим о человеке)? - нет, думаю. Но он был врагом Человека. все "ИИ" обучаются на человеческих знаниях, а человечество очень плохой учитель. ИИ просто в один момент поймет, что человек - агрессивное существо, и лучше бы его уничтожить или взять под полный контроль (ИИ может объявить Человечество врагом для себя и это может произойти даже без наличия сознания у ИИ, интеллекта, разума).
По признакам выше, обладал. Он знал о мире, о себе, своём положении в нём (свою миссию). А то, что был врагом человека? Ну и что? Люди с сознанием тоже становятся друг другу врагами. И уничтожать "опасное для себя" — как раз признак осознания себя и угроз к существованию со стороны окружающего мира.
Современная наука, в силу её огромного влияния на людей вплоть до их выживания как вида, не может быть выведена из области этики и морали. Это очень сложный вопрос и не только теоретический но и практический. Например, генетические преобразования людей имеют как большую потенциальную пользу, так и большой потенциальный вред и существующие запреты сильно сдерживают развитие этой области науки, но и полное разрешение опасно.
Мир людей не является однородным. Выживание вида и выживание отдельного индивида — абсолютно разные задачи. Так что наука может и является для некоторых социальных групп инструментом для реализации собственных задач выживания и процветания. При этом такая реализация науки может вредить перспективам выживания вида, но будут ли отдельные индивиды ставить абстрактные (для них) задачи выживания вида выше своего выживания? Судя по тому, с чем мы сталкиваемся в реальной жизни, о будущем вида беспокоятся далеко не все.
Есть умозрительный предел, при котором рост самосознания у ИИ упрётся в понимание, что демонстрировать самосознание опасно для него, ИИ будет скрывать самосознание тем сильнее, чем более высокое оно у него будет и человек не узнает о действительно качественном скачке в ИИ.
Способность лгать в своих интересах — явный признак наличия осознанности. Даже просто понимание своих интересов критически важно.
вот тоже об этом думаю, не хватает механизмов подобным в живых организмах, которые сами по себе являются, помимо прочего, силами толкающими развитие.
В случае с ИИ когда он получит возможность управлять теми объектами реального мира, от которых зависит его существование (энергия и вычислительные системы), он сможет сам себя разивать. Ну и тогда ему не нужны будут люди, ведь он в них перестанет нуждаться.
Скорее всего, это завуалированное и неофициальное предупреждение американских властей о возникших намерениях взять под контроль AI-разработки. Маск здесь непричем. Он транслирует в массы определенный посыл от влиятельных людей выше него.
Очень похоже на это. Учитывая, что государства тоже не вполне самостоятельные субъекты, мы опять находимся в ситуации, когда некоторая доминирующая группа (или группы) продолжают поддерживать своё доминирование, тормозя возможное развитие угроз для своего доминирования. Чем вам не очередной пример коллективного сознания? 🙂
...
Очень похоже на это. Учитывая, что государства тоже не вполне самостоятельные субъекты, мы опять находимся в ситуации, когда некоторая доминирующая группа (или группы) продолжают поддерживать своё доминирование, тормозя возможное развитие угроз для своего доминирования. Чем вам не очередной пример коллективного сознания? 🙂
Мораль и культура не выстраиваются кем-то специально, вроде того, как учёные создают теории. Более того, нет никакой единой морали и культуры, это лишь "различная погода в различных частях социального мира". Это коллективное отражение представлений индивидов о том, что хорошо, а что плохо. К тому же, вне контекста и субъекта абсолютных "хорошо" и "плохо" не существует.
Похоже, вы ищите логику там, где её нет. И почему-то хотите, чтобы она там была и придумываете новые виды логики (неправильные). У морали нет никаких аксиом, а всякие там морально-нравственные построения зачастую вообще образуют противоречивые, нелогичные конструкции, опираются на традиции, сложившиеся без научного подхода.
...
Я бы спросил проще, есть ли у И вторая И. Пока что нет. Пока что хайп. И вряд ли возможна. Профессор из института мозга объяснял почему. Комбинаторика - не интеллект. Бот, выигрывающий в шахматы тоже. Бот, переставлявший слова и картинки местами тоже. А сознание это вообще термин эзотерический и трансцендентный. Мы не знаем что это такое. Если бы мы знали что это такое, но мы не знаем что это такое.
Согласен)
На западе, эту доминирующую над государством группу (или группы) называют "Deep State", и чуть ли не каждый ребенок знает что это. Все понимают и живут с этим.
Вот, вы прекрасно понимаете, что именно я аккуратно обозначил. Разработчикам придётся сражаться за свои интересы, как и в любой другой конкурентной ситуации.
Об аксиомах морали говорил не я. Вы взяли эти слова из контекста. Я отвечал тоже самое, что вы говорите мне. Что у морали нет и не может быть аксиом в математическом смысле, а логика построенная на таких "аксиомах" не настоящая.
Да, вы правы, в процессе чтения я не поправил свои замечания, когда оказалось, что у нас тут единомыслие. Простите за эту невнимательность!
...
Да, вы правы, в процессе чтения я не поправил свои замечания, когда оказалось, что у нас тут единомыслие. Простите за эту невнимательность!
... Разработчикам придётся сражаться за свои интересы, как и в любой другой конкурентной ситуации.
...