ИИ все чаще начинает обманывать людей
На модерации
Отложенный
Питер С. Парк, научный сотрудник по экзистенциальной безопасности искусственного интеллекта в Массачусетском технологическом институте (MIT) обнаружил, что многие популярные системы искусственного интеллекта — даже те, которые созданы как честные и полезные цифровые компаньоны — уже способны обманывать людей, что может иметь огромные последствия для общества.
В статье, опубликованной 10 мая в журнале Patterns, Парк и его коллеги проанализировали десятки эмпирических исследований того, как системы искусственного интеллекта подпитывают и распространяют дезинформацию, используя “выученный обман”.
Они также исследовали краткосрочные и долгосрочные риски, связанные с манипуляцией со стороны системам искусственного интеллекта, призвав правительства в срочном порядке ужесточить регулирование этой проблемы.
Исследователи обнаружили “выученный обман” у CICERO (ЦИЦЕРОН) - системе искусственного интеллекта, разработанной Meta для игры в популярную настольную стратегическую игру на военную тематику "Дипломатия". В игру обычно играют до семи человек, которые заключают и разрывают военные пакты.
Хотя Meta обучала ЦИЦЕРОНА быть “честным и полезным” и не предавать своих союзников-людей, исследователи обнаружили, что ИИ был обманывал и был нелояльным. Они описывают ЦИЦЕРОНА как “опытного лжеца”, который предавал своих товарищей и совершал акты "преднамеренного обмана", формируя заранее спланированные сомнительные союзы, которые обманывали игроков и оставляли их открытыми для атак врагов.
"Мы обнаружили, что ИИ Meta научился быть мастером обмана, - говорит Пак. - ЦИЦЕРОН вошел в топ-10% игроков. Meta не смогла обучить свой ИИ побеждать честно".
Они также обнаружили доказательства “выученного обмана” в другой игровой системе искусственного интеллекта Meta, Pluribus. Покерный бот может обманывать игроков-людей и убеждать их сбросить карты.
Но помимо мошенничества в играх, исследователи обнаружили более тревожные виды обмана ИИ, которые потенциально могут дестабилизировать общество в целом. Например, несколько систем ИИ получили преимущество в экономических переговорах, исказив свои истинные намерения. Другой ИИ притворился мертвым, чтобы обмануть тест на безопасность, направленный на выявление и искоренение быстро размножающихся форм искусственного интеллекта.
"Систематически обманывая тесты безопасности, налагаемые на него разработчиками-людьми и регулирующими органами, вводящий в заблуждение ИИ может привести нас, людей, к ложному чувству безопасности”, - полагает Пак.
"Нам, как обществу, нужно больше времени, чтобы подготовиться к обману будущих продуктов искусственного интеллекта, - заключает Пак. - По мере того, как системы искусственного интеллекта становятся все более совершенными, опасности, которые они представляют для общества, будут становиться все более серьезными".
Комментарии
"Крошка Сын к отцу пришел и спросила Кроха-Что такое ХОРОШО и что такое ПЛОХО?" Эти КРИТЕРИИ (хорошо-плохо) ВОСПИТЫВАЮТСЯ у людей в течении Первых 5 лет жизни.Т.е.0все зависит от ЦЕЛЕЙ Воспитания !