ИИ как пандемия и ядерное оружие: тревожный доклад правительства Великобритании
На модерации
Отложенный
Риши Сунак. Фото: Justin Tallis / WPA Pool / Getty Images
Помимо неоспоримых преимуществ, существуют серьезные риски, связанные с распространением применения искусственного интеллекта (ИИ), сообщается во всеобъемлющем экспертном отчете, представленном британским правительством в четверг, 26 октября. По словам премьер-министра Риши Сунака, в крайних случаях также существует риск того, что человечество полностью потеряет контроль над технологией искусственного интеллекта.
45-страничное исследование, подготовленное по заказу британского министерства науки, инноваций и технологий, является дискуссионным документом для международного саммита по безопасности искусственного интеллекта, созванного британским правительством на начало ноября.
Среди основных рисков, упомянутых авторами исследования, названо то, что использование искусственного интеллекта может способствовать производству биологического, химического и радиационного оружия и осуществлению кибератак.
Различные модели искусственного интеллекта могут предоставлять пользователям «персонализированные» научные знания, направлять лабораторную работу, необходимую для достижения конкретной цели, и предоставлять информацию о возможных способах получения биологического и химического сырья.
Используя системы искусственного интеллекта, пользователи, представляющие угрозу, также могут сэкономить время. Искусственный интеллект, например, уже помог создать компьютерные вирусы, которые время от времени меняются, затрудняя их обнаружение.
Ранее производство таких вирусов занимало довольно много времени, но пользователи форумов некоторых хакерских групп уже сообщают, что с помощью ChatGPT и других подобных инструментов им стало возможно быстро создавать вредоносное программное обеспечение на множестве различных языков программирования.
По мнению авторов исследования, так называемый метод социальной инженерии, который использует человеческий фактор, применяет психологические манипуляции, подкрепленные искусственным интеллектом. Этот метод уже включен в регулярно используемый инструментарий киберпреступников. Это комбинированное устройство может, например, идеально имитировать голоса людей, которым станет доверять предполагаемый объект.
Премьер-министр Великобритании Риши Сунак, выступая в четверг 26 октября на мероприятии Британской академии наук, заявил, что правительственный доклад, в котором также используется оценка ситуации британской разведкой, следует рассматривать как серьезное предупреждение, поскольку террористические организации могут вызвать еще более серьезные разрушения с использованием искусственного интеллекта.
Премьер-министр Великобритании также процитировал совместное заявление, недавно опубликованное сотнями ведущих экспертов в области искусственного интеллекта. По мнению подписантов, приоритетной задачей на глобальном уровне должно стать предотвращение того, чтобы искусственный интеллект стал причиной уничтожения человечества. К этому риску, по мнению исследователей, следует относиться так же, как к угрозе пандемии или ядерной войны.
Премьер-министр Великобритании заявил, что в случае самых маловероятных, экстремальных сценариев существует риск того, что человечество полностью потеряет контроль над искусственным интеллектом.
По словам Риши Сунака, британское правительство созовет на следующей неделе первый в мире глобальный саммит по безопасности искусственного интеллекта, на который оно пригласило Китай. «Я знаю, что Китай следовало исключить, но не может быть серьезной стратегии в области искусственного интеллекта без, по крайней мере, попытки вовлечь все ведущие мировые державы в области искусственного интеллекта», — сказал британский премьер в своем выступлении в четверг 26 октября.
Комментарии
Еще один вариант конца света, как мило
Риски от развития ИИ ровно такие иже, как и от появления прочих достижений науки и техники, то есть от самого Прогресса. Дело в том что в ДУРНЫХ руках любое, самое полезное изобретение возможно применить во вред человечества. Что же, теперь из-за наличия множества дурных личностей, особенно во властных и элитных кругах, следует нам отказаться от Прогресса? А может, вообще, вернуться в каменный век? Никто видно не заметил, что с развитием производства идёт соответствующее развитие общества, социального Прогресса, базой которого и является развитие общественного производства, науки и техники, включая развитие ИИ.
Сторонников разработок в области ИИ нужно переселять в безлюдные мест, где нет интернета, и загружать тяжелым физическим трудом. Например, убирать картошку в минусовые температуры воздуха.
Человечество с определением собственного интеллекта испытывает непреодолимые трудности.
Что уже говорить о ИИ. Который, по сути, представляет собой компиляцию многоуровневых баз данных на очень быстром железе.