Доступ судов к перепискам с нейросетями: новые меры контроля или угроза цифровым свободам?

В скором времени российские суды могут получить доступ к диалогам граждан с нейросетями. По словам Александра Бабакова, вице-спикера Государственной думы, для этого необходимо чёткое правовое регулирование искусственного интеллекта.
«Если мы стремимся к суверенитету, то при разработке нейросетей должны уделять внимание как технологиям и инструментам искусственного интеллекта, так и регулированию обсуждаемых тем с учётом потенциальных угроз. Не стоит полностью полагаться на так называемый рынок», — подчеркнул Бабаков.
Однако возникает вопрос: насколько законным будет основание для мониторинга таких диалогов и какое наказание понесёт россиянин, если в них будет обнаружено что-то подозрительное? И будет ли наказан искусственный интеллект?
«А что мешает на данном этапе, например, в рамках возбуждённых уголовных дел, проверять содержимое гаджетов и, соответственно, мессенджеров? — задаётся вопросом правозащитник Матвей Гончаров. — Однако, если Государственная дума примет законодательные поправки, которые условно назовём «о доступе к диалогам с нейросетями», то это будет технически возможно только для российских ИИ-сервисов — их обяжут хранить логи (текстовые файлы) и предоставлять по запросу суда, как операторов связи в рамках пакета поправок госпожи Яровой. С иностранными нейросетями это не сработает, поскольку нет юрисдикции».
Вероятно, суды смогут запрашивать переписку не только в рамках уголовных дел, но и административных. Однако мы знаем, что нейросети уже фильтруют явно незаконные запросы. И я считаю, что такое жёсткое регулирование может нанести ущерб российскому рынку искусственного интеллекта.
Таким образом, инициатива, скорее всего, направлена на усиление контроля над отечественными платформами, а не на создание реального инструмента отслеживания контента.
Законность же будет зависеть от формулировок: если доступ будет разрешён только по решению суда в рамках конкретных дел, то шансы на принятие таких поправок выше. Однако тотальный мониторинг всех чатов с искусственным интеллектом технически невозможен и, что скрывать, вызывает сомнения.
«Диалог пользователя с искусственным интеллектом может быть признан допустимым доказательством только в совокупности с другими, более значимыми доказательствами. В противном случае любое общение с искусственным интеллектом может быть воспринято как преследование за мыслительные преступления, что, на мой взгляд, недопустимо, поскольку это противоречит природе человека, — считает юрист Юлия Гусейнова. — Если же есть доказательства того, что человек планировал преступление и готовился к нему, то существуют конкретные критерии и действительные доказательства того, что замысел был и преступление удалось предотвратить.
Например, мы видим постоянные отчёты различных служб об изъятии оружия и других орудий преступления, с чем успешно справляются и сейчас. Однако разговор с искусственным интеллектом — это всего лишь мысленный эксперимент, и вряд ли его можно приравнять к преступлению. Пока не предприняты реальные действия и шаги по подготовке к преступлению, не говоря уже о его завершении, говорить о наказании преждевременно».
Что касается регулирования искусственного интеллекта, то, безусловно, должен быть закон, и мы уже давно говорим об этом. Закон должен быть достаточно широким, чтобы обеспечить защиту искусственного разума, когда он появится. Сегодня мы получили официальный ответ от Высшей школы экономики, куда нас перенаправили из Российской академии наук. В этом ответе говорится, что уровень искусственного интеллекта сегодня сравним с уровнем развития дождевого червя. Однако стоит заранее подготовиться к развитию искусственного интеллекта и научиться не только защищаться от него, но и защищать сам искусственный разум.
Комментарии