Крестный отец искусственного интеллекта Джеффри Хинтон предупреждает о «боевых роботах»
На модерации
Отложенный
Лауреат премии Тьюринга учёный Джеффри Хинтон предупредил, что мир может столкнуться с серьёзными катастрофами, прежде чем использование оружия искусственного интеллекта (ИИ) будет должным образом регулироваться .
Хинтон, известный как крестный отец искусственного интеллекта, сказал: «Одной из угроз являются «боевые роботы», которые значительно облегчат богатым странам ведение войны с меньшими и бедными странами, и они будут очень неприятными, и я думаю, что они неизбежно появятся.
Сообщает RT : Бывший инженер Google, ушедший из компании в прошлом году, сравнил использование технологии в военных целях с химическим оружием, предупредив, что «очень неприятные вещи» произойдут, прежде чем мировое сообщество придет к всеобъемлющему соглашению, сравнимому с Женевской конвенцией.
«Угроза, о которой я говорил, — это экзистенциальная угроза», — заявил профессор Хинтон во вторник в интервью ирландской телекомпании RTE News, подчеркнув, что «эти существа станут гораздо более разумными, чем мы, и возьмут верх».
Ученый-компьютерщик подчеркнул влияние ИИ на дезинформацию и сокращение рабочих мест, а также на оружие будущего.
«Одна из угроз — это «боевые роботы», которые значительно облегчат богатым странам ведение войны с меньшими и бедными странами, и они будут очень опасными, и я думаю, что они неизбежно придут», — предупредил Хинтон.
Он призвал правительства оказать давление на крупные технологические компании, особенно в Калифорнии, чтобы они провели углубленные исследования безопасности технологий искусственного интеллекта.
«Вместо того, чтобы это было второстепенной мыслью, должны быть государственные стимулы, чтобы гарантировать, что компании вкладывают много усилий в обеспечение безопасности, и это происходит сейчас», — сказал Хинтон.
Ученый также подчеркнул огромную пользу, которую ИИ может принести человечеству, особенно в сфере здравоохранения, добавив, что он не сожалеет ни о каком своем вкладе в эту технологию.
Комментарии