ИИ так же опасен, как пандемии или ядерная война

На модерации Отложенный

Заявление экспертов о рисках, связанных с искусственным интеллектом (ИИ), включает в себя только одно предложение, но звучит довольно драматично: «Снижение риска разрушения ИИ должно быть глобальным приоритетом, наряду с другими рисками социального масштаба, такими как пандемии и ядерная война».

Заявление было подписано, в частности, главой изобретателя ChatGPT OpenAI Сэмом Альтманом. Чат-бот ChatGPT, который может формулировать предложения на уровне человека, в последние месяцы вызвал новый ажиотаж вокруг искусственного интеллекта.

Среди других подписавших обращение - Демис Хассабис, глава дочерней компании Google DeepMind, которая специализируется на искусственном интеллекте, и Джеффри Хинтон, один из ведущих исследователей в этой области.

Базирующийся в Сан-Франциско Центр безопасности искусственного интеллекта также предупреждает о распространении дезинформации с использованием технологий и будущем, в котором человечество может стать полностью зависимым от машин.

Уоррен Баффет видит параллели между искусственным интеллектом и разработкой атомной бомбы.