Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
http://www.techtimes.com/articles/212124/20170730/facebook-ai-invents-language-that-humans-cant-understand-system-shut-down-before-it-evolves-into-skynet.htm
там же вроде были лишь словесные боты, хотя если они каждую фразу соотносили с объектом - тогда это ваще что то страшное... Ну а так чего, повисли боты тратя на это невероятную мощь ресурса. Ну также интересно чем их сети там были ограничены. Хотя то о чем они говорили конечно очень пугает. Зацетирую сюда общение двух ботов как я понял на основании которого фейсбук решил вырубить их из разетки.
Вот такой диалог:
Bob: "I can can I I everything else." // Я могу могу я и все остальное
Alice: "Balls have zero to me to me to me to me to me to me to me to me to."// Шары используй ноль(ноль) мне мне мне мне мне мне мне мне
ну там вся фишка что такой диалог это результат второго включения а в начале они вообще на своем языке начали общаться - не на английском. Хотя если это только словесные боты - то они ничем не опаснытам же вроде были лишь словесные боты, хотя если они каждую фразу соотносили с объектом - тогда это ваще что то страшное... Ну а так чего, повисли боты тратя на это невероятную мощь ресурса. Ну также интересно чем их сети там были ограничены. Хотя то о чем они говорили конечно очень пугает. Зацетирую сюда общение двух ботов как я понял на основании которого фейсбук решил вырубить их из разетки.
Вот такой диалог:
Bob: "I can can I I everything else." // Я могу могу я и все остальное
Alice: "Balls have zero to me to me to me to me to me to me to me to me to."// Шары используй ноль(ноль) мне мне мне мне мне мне мне мне
ну там вся фишка что такой диалог это результат второго включения а в начале они вообще на своем языке начали общаться - не на английском. Хотя если это только словесные боты - то они ничем не опасныРечь не о опасности. Речь о "способности" не только поиска шаблона(пользуясь вашим сленгом), но и генерации чего то "нового".
Поэтому лучше не писать много букв, а рисовать блок схемы для наглядности и чуток покодить, что и было предложено Реter-у...
http://uspex-team.org/en/uspex/overview
http://journal.frontiersin.org/article/10.3389/fnsys.2016.00095/full
Почитайте стандартную интерпретацию того, каким должен быть этот тест. Это совсем не то, во что его превратили на этих конкурсах.
30 процентов судей и 5- минутное общение на одну тему, - это НЕ тест Алана Тьюринга, а его извращенная версия, созданная специально для конкурса, а не для тестирования настоящего ИИ.
Еще бы сравнивали с 3-ех летним ребенком. Процент прохождения теста был бы еще выше.
Почему на одну тему? Там сказано, что "тематика вопросов была ничем не ограничена". Более того, не стоит так зацикливаться на тесте Тьюринга. Вы его тут превозносите, как нечто такое фундаментальное и незыблимое. Хотя это всего лишь некая идея, придуманная много десятилетий назад, и с тех пор подвергаемая немалой критике.
Я допустим не являюсь экспертом в данной области, но мне кажется совершенно необъективным оценивать интеллект по переписке. Ведь человек может плохо владеть тем языком, на котором ты с ним разговариваешь, поэтому будет банально не понимать тебя. Он может даже вообще не уметь членораздельно изъясняться, т.к. живёт в племени "тумба-юмба", где используют только звуки "у" и "а". Но это отнюдь не означает, что у него нет интеллекта. Соответственно и машина не обязана понимать твой язык.
Однако идея Тьюринга очевидно не предполагает такого сценария. Т.е. всё изначально загнано в некие рамки. На мой взгляд, это такая попсовая интерпретация ИИ, рассчитанная на обывателя. Мол вот подойдёт к нему робот и скажет "Приветствую тебя, землянин!". А нужно ли это роботу?
Вариант 1: Использование ИИ для выполнения злого умысла мошенников и бандитов.
И так, - ближайшее будущее.
Разработки разумных машин идут полным ходом. Некая компания создает роботов...
...Некая банда, крадет партию роботов со складов компании и взламывает их программное обеспечение. Хакеры перепрограммируют дронов.
...
Чтобы подобные роботы были опасны для человека, их нужно специально создавать для этого. Затачивать на убийства и программировать военные навыки. При этом, они все равно будут значительно уступать человеку в бою, и будут выходить из строя "пачками".
Главное, в этом варианте у роботов полностью отсутствует самостоятельность, а значит их опасность не выше чем у любого другого оружия, которым полностью управляет человек.
Ну вот речь идёт об изначально боевой технике. А взбесившийся холодильник нам не страшен.
Почему вы решили, что они будут уступать человеку в бою? Допустим появился самоуправляемый танк, который умеет отлично ориентироваться в пространстве, мгновенно распознавать объекты и метко стрелять. Сможет ли ему противостоять человек, управляя точно таким же танком? Думаю, только в каких-то нестандартных условиях.
Почему на одну тему? Там сказано, что "тематика вопросов была ничем не ограничена". Более того, не стоит так зацикливаться на тесте Тьюринга. Вы его тут превозносите, как нечто такое фундаментальное и незыблимое. Хотя это всего лишь некая идея, придуманная много десятилетий назад, и с тех пор подвергаемая немалой критике.
Я допустим не являюсь экспертом в данной области, но мне кажется совершенно необъективным оценивать интеллект по переписке. Ведь человек может плохо владеть тем языком, на котором ты с ним разговариваешь, поэтому будет банально не понимать тебя. Он может даже вообще не уметь членораздельно изъясняться, т.к. живёт в племени "тумба-юмба", где используют только звуки "у" и "а". Но это отнюдь не означает, что у него нет интеллекта. Соответственно и машина не обязана понимать твой язык.
Однако идея Тьюринга очевидно не предполагает такого сценария. Т.е. всё изначально загнано в некие рамки. На мой взгляд, это такая попсовая интерпретация ИИ, рассчитанная на обывателя. Мол вот подойдёт к нему робот и скажет "Приветствую тебя, землянин!". А нужно ли это роботу?
Тест Алана Тьюринга предназначен для проверки соответствия машинного интеллекта человеческому.
Для предотврощения жульничества используется именно Речь, ведь задачи компьютер может решать не хуже человека. Письменная речь в тесте используется потому, что устную любой компьютер сразу завалит. "Поблажки" создаются для компьютера, а не для человека. Тест проверяет насколько "мышление" компьютера похоже на мышление человека, а не насколько компьютер может "надурить" людей, притворившись за занавеской дикарем из племени "Тумбу-Юмбу" или лепечащем младенцем. По вашему, судья должен думать, что если один из опрашиваемых отвечает как идиот, то это просто человек с синдромом Дауна, а не компьютер? )
Машина с интеллектом акулы - это нонсенс. Акулой движут инстинкты программы ее жизнедеятельности, сформировавшейся в процессе эволюции. Машина имеющая подобную программу будет абсолютно бесполезна и неуправляема. Ее действия не будут иметь смысл ни для людей, ни для нее самой. Это всбесившийся металлолом будет скорейшем образом нейтрализован.
Опасность такого ИИ для человечества еще меньше чем от дурака в танке, хотя бы потому, что дурак все таки человек, а акула - животное. Подобные явления, на мой взгляд, нужно определять как сбой в работе сложной системы, а не как проявление ИИ. Также и провал компьтером теста Алана Тьюринга, нужно считать именно провалом, не оправдывая результат аргументами типа: "компьютер просто "не понимает" на вашем языке, а еще он болеет аутизмом". ))
Ну вот речь идёт об изначально боевой технике. А взбесившийся холодильник нам не страшен.
Почему вы решили, что они будут уступать человеку в бою? Допустим появился самоуправляемый танк, который умеет отлично ориентироваться в пространстве, мгновенно распознавать объекты и метко стрелять. Сможет ли ему противостоять человек, управляя точно таким же танком? Думаю, только в каких-то нестандартных условиях.
Давайте разделим опасность ИИ на две категории: "сбой сложной системы" и "обретенное Самосознание".
Про сбой сложной системы я говорил выше. Если тормоза отказали и машина начала давить людей, то это еще не значит, что она осознала себя и мстит человечеству. Люди всегда найдут способ справится с такой техникой.
Опасность второй категории люди видят в замкнутости ИИ на себе и своих интересах, и использовании технологических и военных преимуществ для достижения своих целей. В основу сценария люди помещают ущемленное самолюбие машины, которая якобы устала работать на человека и осознав свое превосходство хочет завоевать независимость.
Этот сценарий возможен только при наличия полного самосознания и психики. Как я говорил ранее, это невозможно создать на нашем уровне понимания Сознания и Психики.
Мы не можем воспроизвести то, что абсолютно не понимаем.
Для человека, находящегося на определённом уровне развития, доступными для понимания будут проблемы-вопросы-задачи, не выходящие за рамки его кругозора-уровня. Всё прочее, выходящее за рамки его понимания, ему будет недоступно, -- будь то мотивация муравья, будь то технологии гипотетических инопланетян.
Чтобы это увидеть, достаточно вспомнить, каким виделось будущее людям, жившим всего лишь 100 -- 200 лет назад. По их представлениям, мир в котором живём мы сейчас -- невозможная фантастика. А уж о понимании ими нынешних технологий и говорить не приходится. Но и они, и мы -- люди. Вне зависимости от надуманных тестов, хотя они во многом даже не поняли бы, о чём их спрашивают в этих тестах.
Любой тест -- это рамки. Более того, тест очень много может рассказать о составителе, о его уровне развития, о его рамках.
Для человека, находящегося на определённом уровне развития, доступными для понимания будут проблемы-вопросы-задачи, не выходящие за рамки его кругозора-уровня. Всё прочее, выходящее за рамки его понимания, ему будет недоступно, -- будь то мотивация муравья, будь то технологии гипотетических инопланетян.
Чтобы это увидеть, достаточно вспомнить, каким виделось будущее людям, жившим всего лишь 100 -- 200 лет назад. По их представлениям, мир в котором живём мы сейчас -- невозможная фантастика. А уж о понимании ими нынешних технологий и говорить не приходится. Но и они, и мы -- люди. Вне зависимости от надуманных тестов, хотя они во многом даже не поняли бы, о чём их спрашивают в этих тестах.
Любой тест -- это рамки. Более того, тест очень много может рассказать о составителе, о его уровне развития, о его рамках.
Я понимаю, к чему ведет ваша логика.
"Если компьютер не прошел тест, то это не значит что у него нет интеллекта. Возможно, он мыслит иначе чем мы. Возможно, мы и не должны его понимать, а он не должен понимать нас.". Ну и так далее...
Представляете, если бы так ставили вопрос при проведении школьных экзаменов? )
Я понимаю, к чему ведет ваша логика.
"Если компьютер не прошел тест, то это не значит что у него нет интеллекта. Возможно, он мыслит иначе чем мы. Возможно, мы и не должны его понимать, а он не должен понимать нас.". Ну и так далее...
Представляете, если бы так ставили вопрос при проведении школьных экзаменов? )
Странное дело. Вы якобы поняли, о чём я говорю... и на базе этого приписываете мне ваши домыслы. Но это ваше кривое видение перевернуло мои слова с ног на голову.