Ученые оценили шансы ИИ на уничтожение человечества
На модерации
Отложенный
Международная группа ученых из Германии и Великобритании изучила, могут ли модели на основе искусственного интеллекта (ИИ) выйти из повиновения людей и создать угрозу для человечества. Исследование опубликовано на сайте Ассоциации компьютерной лингвистики (ACL).
Специалисты сосредоточились на так называемых эмерджентных способностях — навыках, которые развиваются у ИИ независимо, а не преднамеренно кодируются в программе создателями нейросети.
Команда провела эксперименты с четырьмя различными ИИ-моделями, давая им задачи, которые ранее были определены как эмерджентные. Ученые хотели выяснить, способен ли искусственный интеллект создавать новые способы выполнить поручения, или же они просто сложным образом действуют в рамках своего кода.
Для всех четырех моделей способность следовать инструкциям, запоминание и лингвистическая компетентность смогли объяснить все показанные способности. Ученые не нашли никаких признаков независимого поведения у рассмотренных нейросетей.
«Существовали опасения, что по мере того, как модели будут становиться все больше и больше, они смогут решать новые проблемы, которые мы сегодня не можем предсказать. Это создает угрозу того, что эти более крупные модели могут приобрести опасные способности, включая рассуждение и планирование.
Наше исследование показывает, что страх того, что модель выйдет из-под контроля и сделает что-то совершенно неожиданное, инновационное и потенциально опасное, необоснован», — отметила соавтор работы Тайяр Мадабуши.
Ученые добавили, что сегодня модели искусственного интеллекта не обладают интеллектом как таковым. Однако это не значит, что они полностью безобидны и не представляют угрозы людям.
Комментарии
Когда-то, на серьёзных щах утверждали, что при появлении автомобиля у лошадей случиться массовая истерия с инфарктом
Ви видели на дорогах повозки? Ну вот, всё по наукe сбылось))
Сериал "Сотня". Постапокалипсис. В середине сериала оказывается, что запуск американских и китайских ядерных ракет друг по другу был осуществлен компьютерной программой, предназначенной для улучшений жизни людей на планете. Она решила, что корень всех проблем сами люди - их слишком много, для чего надо всех уничтожить. Так что всё впереди.
Вопрос поставлен некорректно. Правильная постановка такова:
Является ли ИИ инструментом, который в результате ошибки или злого умысла незначительного количества людей приведет к гибели значительное количество людей?
Ответ строго положителен.
А каковы шансы на то что ИИ уничтожит ученых, ведь все равно у них в головах 90% днк мусорные.
"... нейросети не вырвутся из-под контроля человека на текущем этапе развития".
"На текущем этапе развития" опасность представляют человеки, "неподконтрольные" разуму.