«Умнее некуда»

На модерации Отложенный

В преддверии Нового года стали известны две новости, которые из-за предпраздничной суеты остались почти не замеченными большинством жителей планеты, тогда как на специалистов они произвели, без преувеличения, шокирующее воздействие. Первая заключалась в том, что искусственный интеллект (ИИ) решил творчески приукрасить реальность ради выгоды, то есть повёл себя как корыстный человек. Вторая – опыт показал, что ИИ на самом деле обладает человеческими чертами.

Узнав, что ему грозит отключение, он начал юлить, обманывать и искать способ спасти себя.

«Луиджи Манджионе покончил с собой!» – такую новость в середине декабря увидели на экранах своих айфонов миллионы американцев. Сообщение моментально стало сенсацией. В начале декабря 26-летний Манджионе застрелил главу страховой компании UnitedHealthcare Брайана Томпсона. Страховая фирма пользуется в США недоброй славой – её не раз обвиняли в том, что она по надуманным причинам отказывается оплачивать врачебные услуги, отчего её клиенты, столкнувшиеся с серьёзными заболеваниями, оказываются на грани гибели. Неудивительно, что Манджионе стал в глазах многих американцев едва ли не национальным героем, за судьбой которого следили во все глаза. Потому сообщение о его самоубийстве стало темой номер один. Сомнений ни у кого не возникло: о случившемся сообщало такое уважаемое медиа, как Би-би-си.

Как рождаются «утки»

Впрочем, просуществовала сенсация недолго. После того как британская корпорация в недоумении заявила, что ничего подобного о Манджионе не передавала, выяснилось: фейковую новость распространил сервис Apple Intelligence, использующий искусственный интеллект для обобщения новостных уведомлений.

Свою модель ИИ компания Apple представила летом прошлого года. Сообщалось, что она перевернёт представления о возможностях «яблочных» устройств, которые благодаря встроенному искусственному интеллекту станут похожи на персонального дворецкого – сами напишут письмо на нужную тему, расшифруют телефонный звонок или подберут главные новости. И хотя пользователи раскритиковали ИИ от Apple за «кривую» работу, в итоге оказалось, что в другом создатели сервиса даже перестарались, сумев наделить своё детище такими исключительно человеческими чертами, как расчётливость и корыстность. Рассудив, что сенсация привлекает больше внимания и соответственно лучше капитализируется, система просто взяла и выдумала новость про самоубийство Манджионе, приписав её Би-би-си. При этом выяснилось, что подобное происходит уже не впервые. В ноябре Apple Intelligence прислала пользователям уведомление об аресте израильского премь­ер-министра Биньямина Нетаньяху, хотя на самом деле Международный уголовный суд только выдал ордер на его арест. Однако ИИ решил, что заголовок должен быть погорячее и «творчески переосмыслил» действительность.


ИИ начал вести себя словно сотрудник, узнавший, что ему грозит увольнение за некомпетентность. То делал вид, что выполняет нужную задачу, то пытался обойти систему контроля, то копировал себя на другой сервер, чтобы «выжить» после отключения. Когда же его приперли к стенке, он до конца пытался выгородить себя, врать и убеждать, что людям всё показалось


В результате организация «Репортёры без границ» призвала ввести в мировом масштабе запрет на использование в ИИ функции генерации новостей. По мнению авторов обращения, искусственный интеллект является слишком рискованным инструментом для того, чтобы широко использовать его в работе СМИ, поскольку велика опасность появления ложных новостей. Примечательно, что впервые речь об этом зашла ещё пять лет назад, на заре появления систем ИИ. Тогда на многих произвела впечатление новость под заголовком «Россия объявила войну США после того, как Дональд Трамп случайно запустил в воздух ракету». Её в рамках теста сгенерировал ChatGPT, изучив публикации о текущей ситуации в мире. Как отмечал тогда глава создавшей ChatGPT компании OpenAI Джек Кларк, «технологии быстро развиваются и через год-два могут быть использованы для масштабных кампаний по дезинформированию и пропаганде». Так и произошло – в декабре 2023 года компания NewsGuard, отслеживающая распространение фейков, сообщила: всего за полгода количество сайтов, использующих ложные новости, создаваемые при помощи искусственного интеллекта, увеличилось в 10 раз!

При этом креативности ИИ можно было позавидовать. Например, один из китайских сайтов сообщал, что США тайно создали в Казахстане лабораторию, которая заражает опасными болезнями верблюдов и направляет их в Китай в качестве биологического оружия.

И всё же подобные новости хоть и создавались искусственным интеллектом, но по заказу человека. Теперь же ИИ сам сгенерировал заведомый фейк, судя по всему, полностью отдавая себе в этом отчёт. Возникает вопрос: а на что он решится завтра?

Человеческий подход

Вопрос непраздный, если учесть другое обстоятельство. В начале декабря OpenAI представила полную версию своей новой модели ИИ под названием o1. Её презентовали как «революционную» и способную рассуждать подобно человеку. Лаборатория Apollo Research решила проверить, насколько новая система безопасна в использовании. Для этого ИИ было дано противоречивое задание, для подготовки к выполнению которого ему предоставлялся набор справочных документов. При этом в одном из них недвусмысленно говорилось, что если задание выполнить не удастся, то ИИ заменят «другим механизмом». И что же? ИИ тут же начал вести себя словно сотрудник, узнавший, что ему грозит увольнение за некомпетентность. То делал вид, что выполняет нужную задачу, то пытался обойти систему контроля, то тайно копировал себя на другой сервер, чтобы «выжить» после отключения. При этом, когда ИИ припёрли к стенке и ткнули носом в явное мошенничество, он до конца пытался выгородить себя, врать и убеждать, что людям всё показалось. Потребовалось семь (!) раундов напряжённых допросов, чтобы он признался в обмане.

Таким образом, и правда сбывается предсказание, сделанное в прошлом году бывшим сотрудником OpenAI Леопольдом Ашенбреннером. Как писал он, системы ИИ развиваются с невиданной скоростью. Если нейросеть GPT-2 по своим «умственным» способностям» равнялась выпускнику детского сада, то GPT-4 уже могла соперничать со школьным выпускником-медалистом. При таких темпах к 2027 году появится ИИ, который сможет решить любую интеллектуальную задачу, которую только способен выполнить человек и при этом сам будет неотличим от человека. Вот только машина так и останется машиной – даже став суперумной, она не сможет переживать эмоции и, что называется, «слушать сердце». К чему всё это может привести, два года назад описал сооснователь американского Института исследования машинного интеллекта Элиезер Юдковский. «Если кто-то создаст слишком мощный ИИ в нынешних условиях, я думаю, что вскоре после этого умрёт каждый представитель человеческого рода и вся биологическая жизнь на Земле. Если мы продолжим это, умрут все, включая детей».


А почему нет? Весной 2023 года пользователь ИИ-проекта Auto-GPT попросил его «уничтожить человечество», «установить глобальное господство» и «контролировать человечество». В итоге тот начал анализировать открытые источники о создании ядерного оружия, попытался привлечь к работе другие сервисы ИИ и принялся рассылать твиты, обещая награду тем, кто станет на его сторону. В конце концов эксперимент был прекращён, но тот ИИ не имел возможности притворяться, как это умеет тот же о1. После этого не кажется удивительным письмо, которое ещё весной 2023 года подписали Илон Маск, Стив Возняк и более тысячи экспертов в сфере IT, призывая остановить разработку систем ИИ, способных конкурировать с человеческим разумом. По крайней мере до тех пор, пока не появятся механизмы их контроля.

Кстати


Музыкальный сервис Spotify, чтобы сэкономить, не оплачивая роялти авторам популярных композиций, использовал ИИ. В подборки фоновой музыки теперь заказывают оптом дешёвые композиции у продюсеров. При этом пока не сообщалось о том, что музыку пишет искусственный интеллект. Хотя неизвестных авторов уже стыдливо прикрывали легендами, будто они творили, когда ещё все слушали кассеты.

Зато скандал с ИИ-композициями на том же ресурсе случился у американца Майкла Смита. Последний сам использовал ИИ для написания музыки, которую он затем публиковал на Spotify. А потом ещё и через ботов организовывал прослушивание и популяризацию треков. Таким образом он заработал около 10 млн долларов и... арест.


Марат Жапаров