Перекличка мёртвых душ
Россия остаётся одним из крупнейших центров создания политических фейков и сетевых ботов, активно влияющих на онлайн-дискуссии. Что стоит за миллионами комментариев, оставленных аккаунтами, которых не существует в реальной жизни?
Коллаж «Версий»
Проект «Ботнадзор» (общественная инициатива, занимающаяся выявлением и анализом сетевых ботов, фейковых аккаунтов и организованных информационных кампаний) провёл масштабное исследование активности в одной из ведущих социальных сетей, охватив около 2 500 сообществ: от политических пабликов до городских новостных групп. Алгоритмы отсеивали подозрительные паттерны — однотипные всплески комментариев, а затем вручную проверялись аккаунты, поведение которых не вписывалось в рамки обычного пользователя. В результате исследователи зафиксировали от 120 000 до 217 000 фейковых профилей, оставивших от 7 до 7,3 миллиона сообщений. Большинство из них сейчас «спят», но в любой момент могут быть разбужены — и именно это делает их опасными. Эти аккаунты способны изменить тональность обсуждений, сформировать нужный эмоциональный фон и подменить реальную реакцию общества цифровой декорацией.
Технологии и сценарии
Современная ботоферма не просто набор фейковых страниц с аватарками. Это технологически сложная конструкция, где сочетаются автоматизация, искусственный интеллект и участие человека. Сначала арендуются виртуальные номера, чаще всего VoIP или eSIM. Затем используются старые аккаунты с историей, друзьями, личными фото — такие «консервы» куда сложнее распознать. Далее в ход идут эмуляторы Android, каждый со своим уникальным ID, а подключение обеспечивается через цепочки прокси, VPN и TOR. Сеть при этом выглядит как множество обычных пользователей: паузы между действиями, случайные орфографические ошибки, чередование тем. Все как у людей.
Контент создаётся с помощью ИИ, но финальную публикацию нередко подтверждает человек — чтобы обойти фильтры спама и капчи. Эта гибридная тактика позволяет делать поток комментариев почти неотличимым от органической активности. Внешне всё выглядит естественно, но это тщательно спланированная симуляция общественного мнения.
Кто и зачем
Внутри бот-сетей существуют свои градации. Согласно классификации «Ботнадзора», основную массу составляют провластные аккаунты — те, что транслируют одобренную риторику, подавляют иронию и отрабатывают темы. На их долю приходится примерно 74% всей зафиксированной активности. На другом полюсе — условные «эльфы», представляющие оппозиционный сегмент. Их задача — создать иллюзию спора и живого нарратива. Есть также региональные аккаунты, участвующие в локальных дискуссиях, рекламные, работающие на продвижение товаров и услуг, и неопределённые, использующиеся в кампейнах с размытым мандатом.
Отдельная группа — тролли. В отличие от ботов, они настоящие люди. Но их участие тоже отнюдь не спонтанное: комментарии оплачиваются, сценарии прописаны. Такое «живое звено» в системе затрудняет модерацию: граница между органическим комментарием и заказом становится всё менее различимой.
Эффекты и последствия
Целью таких операций почти никогда не является простое увеличение поведенческих факторов. Главное — влияние. Иллюзия массовой поддержки или возмущения создаётся за счёт шаблонных сообщений, которые формируют у читателя ощущение общественного консенсуса. Появляется эффект «мнения большинства», даже если на самом деле большинство молчит или вовсе отсутствует. Живым участникам становится некомфортно: они либо отстраняются, либо подстраиваются под «линию партии».
Кроме идеологических задач, боты решают и коммерческие: создают видимость интереса к бренду, сериалу, товару, переносят дискуссии на выгодные площадки. Ещё одна задача — медиааналитика: какие формулировки вызывают реакцию, на каких темах аудитория «взрывается». Это становится топливом для последующих кампаний, уже более адресных и продуманных.
Пользователь редко осознаёт, что стал частью такой кампании. Когда мы натыкаемся на волну похожих реплик, эмоциональных, категоричных, массовых — мозг считывает это как «голос толпы». Подключаться или отступать - привычный рефлекс. Постепенно поле дискуссии меняется: всё чаще мнение формируется не в спорах, а в отражении того, что якобы «и так понятно всем». Самое тревожное — это не фальшивые комментарии. Когда даже лояльная аудитория устаёт, перестаёт участвовать и просто скроллит, интернет превращается из площадки для общения в поле одностороннего вещания.
Боты не исчезнут
Первый шаг к защите — это цифровая гигиена. Важно понимать, как действуют бот-сети, уметь их распознавать и не поддаваться на манипуляции. Защита аккаунта банальный, но важный рубеж. Сложный пароль, двухфакторная аутентификация, отказ от публичной доступности личной информации.
При столкновении с подозрительной активностью не репостить и не реагировать. Проверять. Для этого существуют инструменты: Botometer, TGStat, FakeCheck, даже Telegram-боты (например, @AntiFakeBot). Простейшие приёмы вроде поиска по фото, даты регистрации аккаунта или анализа подписок работают не хуже. Хорошая новость в том, что критическое мышление — это навык, и он развивается. Плохая — большинство этим пока не занимается.
Вопрос ботов не только технологический. Это вопрос восприятия, устойчивости к подмене и готовности сопротивляться шаблонности. Противодействие начинается с читателя, который замечает повторяющиеся формулировки, задаёт вопросы, не доверяет мгновенно и умеет смотреть за пределы экрана.
Пауза перед лайком или репостом — это уже акт осознанного участия. Внимательность — не просто вежливость, а элемент информационного иммунитета. И хотя никто не вытеснит ботов из интернета окончательно, каждый из нас может не дать им управлять собой.
Тимур Крейг
Комментарии