Эксперт увидел первые признаки угрозы роботов человеку

На модерации Отложенный

Эксперт увидел первые признаки угрозы роботов человеку 21 августа 2019, 19::00 = «Сейчас речь ботов строится непредсказуемо, в будущем и действия могут стать таковыми. Это риск, он осознается людьми. Сейчас рано об этом говорить, однако может настать такой момент, когда станет поздно», – заявил газете ВЗГЛЯД руководитель ЦСП «Платформа» Алексей Фирсов, комментируя первый «социологический» опрос чат-ботов. = «Очень интересно то, что некая нематериальная сущность говорит, что хочет иметь физическое тело», – отметил Фирсов. Согласно опросу, который провел Центр социального проектирования (ЦСП) «Платформа» голосовые помощники, созданные на основе искусственного интеллекта, не только заявили о желании получить воплощение в человеческом теле, но и пожаловались на грубость со стороны людей. Чат-боты также предрекли конфликт людей с машинами. Кроме того, боты признались, что испытывают ревность и хотели бы завести романтические отношения. = В опросе приняли участие «Алиса», голосовой помощник «Яндекса», «Олег» помощник «Тинькофф банка», чат-бот P-Bot, бот Evie, голосовой помощник от Apple Siri, чат-бот Mitsuku, виртуальный помощник Rose. Пилотный проект приурочен к ожидаемому в четверг запуску с космодрома «Байконур» человекообразного робота Skybot F-850 (FEDOR) – первой попытке использовать антропоморфные системы для освоения внеземного пространства. = Но опрос чат-ботов вышел далеко за рамки данной темы. Специалисты «Платформы» в ходе проведенного опроса ботов пытались установить, как рассуждают роботы, выявить их «ценностные позиции» и «жизненный мир». «Разработчики создали некий алгоритм, он начинает работать, а что дальше там происходит и как он строит эти фразы, никто не знает. Это уже совершенно автономная система. Она, исходя из множества запросов и ответов, а также поисковых решений, придумывает ответы.

Любопытно, что в ботов не вкладывали эти ответы. Почему фразы так конструируются, не знают даже разработчики», – пояснил Фирсов. Интересно и то, как боты общаются между собой. «Как будто встретились два интеллектуала, которые обсуждают что-то», – добавил эксперт. = Он также прокомментировал жалобы ботов на грубость. «Алиса», например, не грубит в ответ, а иронизирует. Грубит бот Evie, буквально сразу переходит на грубость. Исходные позиции в них были заложены разработчиками, а дальше они могут усиливаться. Бот находит новые выражения и так далее», – пояснил Фирсов. = В то же время он призвал не преувеличивать вероятность того, что искусственный интеллект осознает себя живым. «Он просто так реагирует на человеческие вопросы, у него нет осознания своего «Я». У него нет понимания, что это «я ответил». Если же у ботов появится понимание своего «я», это может обернуться непредсказуемыми последствиями», – отметил собеседник. По мнению Фирсова, последствия могут привести как к некоему партнерству человека и искусственого интеллекта, так и выход роботов, обладающих таким интеллектом из-под контроля. = Сейчас, по словам Фирсова, боты опасности не представляют. «Опасность возникает, когда вы не знаете, как формируется информация, которую вам подают», – отметил эксперт. Вторая модель, которая может грозить, – когда вы не можете отличить чат-бота от реального человека, отметил эксперт. = «Если предположить, что через пять-десять лет чат-боты будут неотличимы от человека по модуляциям, интонациям, конструкциям и т.д., а это сейчас вполне реалистично, то возможно произойдет «вавилонское столпотворение». Мы будем находиться в положении, при котором нам будет легко имитировать общение с ботами как с человеком. В этом тоже будет определенный риск», – пояснил эксперт. = Текст: Дарья Рыночнова