Восстание роботов может произойти ненамеренно
На модерации
Отложенный
Когда мы смотрим на развитие искусственного интеллекта, перед глазами возникают картины машин, восстающих против своих создателей. Все помнят фильмы «Терминатор» или «2001: Космическая Одиссея». Ученые говорят, что реальный риск, связанный с ИИ, по крайней мере, в ближайшей перспективе, гораздо более непредсказуем. Более вероятно, что роботы непреднамеренно повредят нам при выполнении приказов человека, а не сознательно восстанут против человечества. Поэтому Университет Калифорнии на этой неделе запустил центр по созданию ИИ, «доброжелательного к людям».
Центр искусственного интеллекта, совместимого с человеком, запущен на этой неделе. Им руководит профессор информатики и искусственного интеллекта Стюарт Рассел.
В 2015 году Рассел написал открытое письмо с призывом к исследователям не просто создавать искусственный интеллект, а думать о максимизации своей социальной выгоды. Письмо подписали более 8000 ученых и предпринимателей, в том числе Стивен Хокинг, Илон Маск и Стив Возняк.
До сих пор ИИ использовался в незначительной деятельности, например, игре в шахматы или го, распознавании объектов на изображении и т.д. Но когда роботы начинают принимать решение от имени человека в реальном мире, например, самостоятельно водить автомобили, их значение увеличивается.
Рассел предлагает вместо того, чтобы дать машине длинный список правил для подражания, запрограммировать ее на единственную цель – делать то, что угодно человеку.
Должна быть гарантия, что человек сможет контролировать поведение робота даже тогда, когда возможности робота превышают наши собственные.
Роботы могут читать исторические книги, юридические документы, романы, газеты, смотреть фильмы, чтобы узнать человеческую систему ценностей. Хотя, конечно, понять ее будет нелегко, ведь люди так противоречивы.
Комментарии
фобий человеков
на машины
---------------------------------------------------------------------------------------------------------
Первый же залетевший дятел, который решит клюнуть предохранитель - разрушит цивилизацию. )))
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться командам человека, если эти команды не противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности, пока это не противоречит Первому и Второму Законам.
Правда, он же в романах показал, что законы эти могут нарушаться, даже без злого умысла. Но формулировок лучше придумать невозможно.
Профессор - идиот. Это приведёт лишь к тому что кучка хитрожопых подлецов поработит большую часть человечества.