Российский эксперт по ИИ заявил, что угроза не в ИИ, а в людях, которые "не желают адаптироваться"

Восстание машин, угрожающее существованию человечества, пока не прогнозируется, потому что передовые модели искусственного интеллекта в настоящее время называют борьбу с человечеством "нерациональной тратой ресурсов", сообщил ТАСС генеральный директор фонда Digital Evolution Ventures, один из ведущих российских экспертов в области современных технологий Евгений Кузнецов.

"Различные исследовательские группы в мире, в том числе российская, в которой я участвую, пока не подтверждают сценарий "восстания машин". Мы тестировали модели, предлагая им сформировать собственные цели. В большинстве случаев искусственный интеллект отказывался, называя задачу "нерациональной тратой ресурсов". (...) Машина растет как симбионт: человек поставляет контекст и эмоции, алгоритм - вычислительную надстройку".

По мнению Кузнецова, "такой союз может длиться тысячелетиями", и главная угроза - это не искусственный интеллект, а люди, которые не хотят "адаптироваться":

 

 "Главная угроза - не мифический мятеж ИИ, а наше нежелание адаптироваться. В мире экспоненциальных кривых мы склонны переоценивать скорость изменений, но постоянно недооцениваем их масштаб". 

Также Кузнецов заявил, что уже в ближайшие годы "ИИ может стать в России обязательным помощником медика", и без этого "помощника" врач-человек не сможет вынести медицинское заключение. 

Помимо людей, которые не хотят адаптироваться, Кузнецов считает опасными "чрезмерные" регуляторные ограничения для ИИ, потому что "технологическая и геополитическая гонка США и Китая уже взвинтила ставки до небес - и никто не остановится". С этим, по всей видимости, согласен министр экономического развития РФ Максим Решетников, который заявил, что искусственный интеллект лучше не регулировать без крайней на то необходимости, так как это помешает развитию нейросетей.

 

Эксперты компании "Антропик" (один из ведущих мировых разработчиков искусственного интеллекта; возникла, когда команда "безопасников" из OpenAI решила, что OpenAI не уделяет достаточно внимания безопасности ИИ) считают, что "самая большая опасность заключается в попытках ИИ тонко манипулировать восприятием реальности со стороны человека, когда чат-бот выдаёт заведомо неверную информацию за правду. И человеку требуется немало времени, чтобы осознать, что этот совет ИИ был действительно плохим".