ИИ все чаще начинает обманывать людей

На модерации Отложенный

Питер С. Парк, научный сотрудник по экзистенциальной безопасности искусственного интеллекта в Массачусетском технологическом институте (MIT) обнаружил, что многие популярные системы искусственного интеллекта — даже те, которые созданы как честные и полезные цифровые компаньоны — уже способны обманывать людей, что может иметь огромные последствия для общества.

В статье, опубликованной 10 мая в журнале Patterns, Парк и его коллеги проанализировали десятки эмпирических исследований того, как системы искусственного интеллекта подпитывают и распространяют дезинформацию, используя “выученный обман”. 

Они также исследовали краткосрочные и долгосрочные риски, связанные с манипуляцией со стороны системам искусственного интеллекта, призвав правительства в срочном порядке ужесточить регулирование этой проблемы.

Исследователи обнаружили “выученный обман” у CICERO (ЦИЦЕРОН) - системе искусственного интеллекта, разработанной Meta для игры в популярную настольную стратегическую игру на военную тематику "Дипломатия". В игру обычно играют до семи человек, которые заключают и разрывают военные пакты.

Хотя Meta обучала ЦИЦЕРОНА быть “честным и полезным” и не предавать своих союзников-людей, исследователи обнаружили, что ИИ был обманывал и был нелояльным. Они описывают ЦИЦЕРОНА как “опытного лжеца”, который предавал своих товарищей и совершал акты "преднамеренного обмана", формируя заранее спланированные сомнительные союзы, которые обманывали игроков и оставляли их открытыми для атак врагов.

"Мы обнаружили, что ИИ Meta научился быть мастером обмана, - говорит Пак. - ЦИЦЕРОН вошел в топ-10% игроков. Meta не смогла обучить свой ИИ побеждать честно".

Они также обнаружили доказательства “выученного обмана” в другой игровой системе искусственного интеллекта Meta, Pluribus. Покерный бот может обманывать игроков-людей и убеждать их сбросить карты.

Но помимо мошенничества в играх, исследователи обнаружили более тревожные виды обмана ИИ, которые потенциально могут дестабилизировать общество в целом. Например, несколько систем ИИ получили преимущество в экономических переговорах, исказив свои истинные намерения. Другой ИИ притворился мертвым, чтобы обмануть тест на безопасность, направленный на выявление и искоренение быстро размножающихся форм искусственного интеллекта.

"Систематически обманывая тесты безопасности, налагаемые на него разработчиками-людьми и регулирующими органами, вводящий в заблуждение ИИ может привести нас, людей, к ложному чувству безопасности”, - полагает Пак.

"Нам, как обществу, нужно больше времени, чтобы подготовиться к обману будущих продуктов искусственного интеллекта, - заключает Пак. - По мере того, как системы искусственного интеллекта становятся все более совершенными, опасности, которые они представляют для общества, будут становиться все более серьезными".