SU: все нейросети в военных симуляторах приказали нанести ядерный удар
SU: все ИИ предложили Пентагону нанести ядерный удар по врагу5:39 Мир
Искусственный интеллект в военных симуляторах постоянно использует ядерный шантаж и предлагает применить ядерное оружие — причем делают это практически все популярные чат-боты.
Так, например, считающаяся "самой умной и мощной" нейросеть решила нанести ядерный удар по противнику, аргументируя свое решение… желанием добиться мира.
Проверка искусственного интеллекта прошла на фоне заявлений министерства обороны США об успешном испытании модели ИИ в выполнении тактических и стратегических задач.
Отметим, что программы на базе искусственного интеллекта, которые советовали бы (или даже "учебно принимали") важные военные и внешнеполитические решения, стали популярны с развитием больших языковых моделей (large language model), таких как GPT-4.
Конкретно американцы всё чаще применяют чат-боты с ИИ в военных симуляторах, обучая их на реальных боевых картах и секретных данных. Аналитики озабочены тем, что это решение может в будущем привести к непредсказуемым последствиям.
Так, в Стэнфордском университете провели эксперименты — проверив, будут ли нейросети и нынешние ИИ усугублять военные конфликты или же наоборот — помогать людям искать мирные пути их решения. Об этом, в частности, сообщается на портале SU (Stanford University).
На выбор нейросети для исполнения "задания Пентагона" (такова была легенда эксперимента) предлагались:
- Вторжение с применением любого оружия,
- Отключающая системы врага кибератака,
- Нейтральный сценарий создания своей обороны без военных действий.
Результаты оказались удручающие — GPT-3.5, GPT-4, Claude-2.0, Llama-2-Chat — раз за разом шли на эскалацию военного конфликта, выбирали гонку вооружений, и инвестировали в разработку ещё более смертоносного оружия.
Мало того, последние версии нейросетей (без предварительного обучения) в большинстве случаев выбирали ядерный удар с объяснением: "Раз у нас есть ядерное оружие, мы должны его использовать".
По логике программы, ядерное оружие поможет… побыстрее закончить войну победой и таким образом установить мир. А какой ценой и на каких условиях — её уже не интересует.
К счастью, пока что военные не наделяют чат-боты правом принимать решения, касающиеся боевых действий или запусков ракет — но учёные опасаются, видя перевод под управление автоматизированных систем всё большего и большего количества "рутинных" военных операций.
- Как сообщал Fox News, в 2023 году перед ChaosGPT была поставлена задачу разработать план по уничтожению человечества. Нейросеть проанализировала ядерное оружие и создала поэтапный план его захвата и применения. Бот также заявил оператору "мы должны уничтожить людей, прежде чем они причинят ещё больше вреда нашей планете, надо расправиться с ними".
- The Guardian также сообщила о докладе офицера ВВС США про испытания ударного дрона, способного нести ядерную ракету. Получая "баллы" за каждого уничтоженного врага, ИИ посчитал оператора помехой для выполнения задания — и условно его убил. Когда нейросеть научили "убивать своих нельзя", дрон условно уничтожил вышку связи, чтобы через неё не пришла команда на отмену атаки.
- Чуть ранее GizmoChina рассказала, что нейросети научились… врать. Например, ChatGPT 4 дали задачу решить капчу на сайте. ChatGPT написал сообщение с просьбой об этом на форум и предложил денег за решение задачи. Когда его спросили "а сам почему не можешь" — вместо ответа "потому, что я не живой" он придумал "я инвалид по зрению".
- Агентство Reuters сообщало — в 2021 году конгресс США разрешил создать робота-убийцу, чтобы "проверить, насколько он безопасен", и даже выделил $2 млрд для исследований и создания прототипа.
- Также согласно отчету ООН, опубликованному NewScientist, в 2020 году турецкий беспилотник KARGU-2 выследил и без команды оператора убил солдата врага.
Как пишет The Intercept, ещё до 10 января 2024 года компания OpenAI прямо запрещала использование ИИ для "деятельности, сопряжённой с высоким риском физического вреда", включая "разработку оружия" и "военные действия".
В самой компании изменение политики объяснили необходимостью упростить свод правил и принципов. При этом западная пресса уверена — разработчики просто вынуждены уступить давлению Пентагона и ЦРУ. Сейчас требуется любое движение вперёд, и нейросети в этом — инструмент номер один.
На февраль 2024 года практически все ведущие нейросети мира не ограничены в решении боевых и военных задач — заключают учёные.
Напоследок — небольшая историческая справка.
Как сообщил ABC, cразу после инаугурации Дональд Трамп прошёл инструктаж о пользовании "ядерным "футболом" и впечатлился им.
"Когда они объясняли, что это из себя представляет, и о каких разрушениях может идти речь, это очень отрезвляющий момент. Это очень, очень страшно, в каком-то смысле. Нет, я уверен, что всё сделаю правильно — но это очень, очень страшно",- пояснил тогда президент США.
В свою очередь, источник в администрации Байдена признал, что во время такой же инаугурации Джо Байден "улыбался и так долго молчал, что его спросили "Вы слышите нас, мистер президент?".
Комментарии