Член СПЧ Игорь Ашманов призвал на всякий случай заблокировать в России искусственный интеллект

На модерации Отложенный

Тут нужно сказать о многих важных аспектах этой истории.

1. Прежде всего, мы наблюдаем очередной гигантский медийно–технологический пузырь, причём разработчики ИИ – изнутри. Поэтому многое искажено продвиженцами, "евангелистами", журналистами, медийной истерикой, как это было с "блокчейном, который изменит мир" 4–5 лет назад.
Многое окажется не совсем так или совсем не так, как сейчас представляется и рассказывается. Так что текст ниже нужно читать, имея в уме эту оговорку.

2. Но. Это вроде бы действительно технологический прорыв, подобный выходу в космос. В этот когнитивный космос– на этот раз – американцы вышли раньше нас. Однако, это выход не в безвоздушное пространство, а в социальное и ментальное пространство, где обитаем мы все, поэтому последствия могут быть тектоническими. В первую очередь для социума, прав граждан, государственной безопасности.

3. Социальные риски тут огромные. Технологии, подобные GPT4 и ChatGPT, позволяют имитировать общение, писать тексты, программы, создавать видео и фотоматериалы, практически неотличимые от созданных людьми.

Во–первых, это создаёт угрозу профессиям, и людям, в них занятым. Сейчас в сети – огромный энтузиазм "продвинутых", быстрее других научившихся этим пользоваться, вплоть до того, что уже масса объявлений о курсах по использованию GPT. Уже начинают золотоискателям продавать кирки и джинсы.
Энтузиасты, "евангелисты", рассказывают об использовании GPT в ведении блога, в рекрутинге — полный цикл от анализа и подбора резюме соискателей до интервью и отбраковки их, вплоть до принятия автоматического решения о найме; в маркетинге, в генерации текстов (копирайтинг), в программировании, в переводческом бизнесе, в медицине, в управлении бизнесом.

У тех, кто сейчас считает, что он шустрее других сообразил, ухватил Жар–Птицу за хвост, есть восхитительная, духоподъёмная иллюзия, что теперь Жар–Птица и будет делать за них всю их работу, а им будет оставаться только давать ей затравку ("промпты") и нажимать кнопку исполнения.

Но ведь если ты только и нужен нажимать кнопку — зачем ты тогда нужен вообще? И чем ты лучше других нажимателей – все ведь научатся нажимать кнопку? Мы увидим вскоре не только замену человеческих интеллектуальных продуктов сгенерированным автоматически шлаком, не только массовые увольнения людей, заменяемых этими генераторами, но и катастрофическую потерю компетенций людьми, оставшимися на работе.

Во–вторых, мы вступаем в эпоху фальсификации всего. Теперь нас будут окружать ненастоящие тексты, ненастоящие картины и фото, ненастоящие музыка и новости. Фальшивая история, фальшивая наука, фальшивое образование, фальшивое всё.

Естественно, фальсификация будет со всех сторон. Как вы думаете, если резюме соискателей будет искать и оценивать GPT — то кто будет писать для соискателей эти резюме и общаться за них с автоматическим рекрутером?

В–третьих, это огромный рывок для цифрового криминала. Если раньше вор или уличный мошенник должен был в реальном мире работать индивидуально с одной жертвой, если потом он стал покупать украденные в бане или мобильном операторе персональные данные и обзванивать потенциальных жертв десятками или сотнями в день, отбирая 2% внушаемых (такова сила цифровых технологий), то как вы думаете, кто теперь будет заниматься собственно "разводкой", диалогом с потенциальной жертвой и оценкой того, "ведётся" пенсионер на том конце на разводку или нет?

Можно предположить, что количество мошеннических звонков, фишинговых писем, любых разводок вырастет на порядки, и их эффективность — тоже.
Естественно, теперь можно создать любую убедительную видеосцену с нужными лицами и голосами — как для разводок типа "мама, я в полиции, меня посодют, вышли денег", так и для политических фейков, вбросов, государственной и антигосударственной пропаганды. Теперь бабушку нужно не учить осторожности, а отнимать смартфон и доступ в Интернет — потому что до неё будут достукиваться десятки раз в день очень убедительные, гипнотические цифровые сущности.

Человечество сейчас, по сути, впадёт в цифровой сон, огромную, непрекращающуюся цифровую галлюцинацию. И оно довольно скоро бездумно и радостно разрешит этой галлюцинации управлять собой, передаст ей ответственность и право принимать решения о людях.

В–четвёртых, это очень перспективная военная технология, как любой ИИ и любая "цифра". Военные применения этого – тема отдельного разговора.

4. С моей точки зрения, призыв "остановитесь"окажется не услышанным. Никто ничего не остановит. Создатели GPT4 знают, что они совершили прорыв, у них эйфория. Конкуренты также пытаются догнать — Фейсбук выпустил свой аналог Lama, Гугл изо всех сил догоняет. Это всё компании, связанные с американской военной сферой и разведкой. Никто им не даст остановиться. Это же военное преимущество.

Будет создан толстый слой приложений, расширений, протоколов доступа поверх этих облачных сервисов, появятся решения, которые можно будет скачать на каждый сервер, ноутбук и смартфон.

Естественно, Китай уже делает две (или более) таких технологии. В нашей стране как минимум в Яндексе и в Сбербанке также дана команда догонять. Можем ли мы догнать, при нехватке железа, денег, людей и самой ИТ–индустрии – также тема для отдельного разговора.

5. Что делать? Пока не очень понятно. Нужно разбираться на самом высшем государственном уровне. Это экзистенциальная угроза для общества и государства.

Рассуждения экспертов про то, что так–то ничего страшного, просто нужен этический кодекс использования ИИ, что нужны просто регуляторика, законодательные ограничения на международном уровне — нерелевантны, потому что владелец технологии США никаких ограничений вводить не собирается, считая себя лидером. Зачем же лидеру ограничивать себя? Напомню, что на международном уровне так и не удалось достичь никаких серьёзных договорённостей по информационной безопасности — за 20 с лишним лет. США всегда торпедировали эти попытки, будучи главным источником кибер–угроз.

У нас в стране такой Кодекс этики ИИ введён примерно полтора года назад. И что? Подписанты (добровольные!) – свой же Кодекс массово не исполняют, продолжают эксплуатировать ИИ в хвост и гриву, без оглядки на Кодекс, права граждан и даже законы. В добровольном "отраслевом" Кодексе ИИ нет ни механизмов контроля, ни санкций за нарушение.
Закон 152–ФЗ о персональных данных также грубо нарушается всем цифровым бизнесом и государственными организациями

Да, нам нужно срочно выработать понимание проблемы на государственном уровне, выработать государственную волю, ввести ограничения, придумать технологический ответ — не только симметричный ("щас тоже сделаем такое"), но и асимметричный — по контролю, блокированию и т.п. И осознать огромную военную угрозу за всем этим.

Больше сейчас сказать по существу нельзя: нужно запустить процесс осознания этого пучка угроз на уровне нации.

Член СПЧ Игорь Ашманов призвал на всякий случай заблокировать в России искусственный интеллект