Die Welt: машине доверять нельзя — эксперты против наделения интеллектом роботов-убийц
Грядёт революция роботов-убийц, пишет Die Welt. На полях сражений будущего воевать уже будут не люди, а машины с искусственным интеллектом. Но не все рады такой перспективе. Учёные и эксперты опасаются, что разработки в этой сфере могут привести к новой гонке вооружений. К тому же рано или поздно автономные боевые системы попадут в руки террористов, которые смогут их с лёгкостью перепрограммировать на уничтожение других целей.

Reuters
В 2050 году на полях сражений будет больше роботов, чем людей, пишет Die Welt. Такой прогноз сделала Научно-исследовательская лаборатория армии США. Автономные боевые машины будут использоваться повсеместно. Они не будет знать усталости и страха, а также станут «умными» и более-менее самостоятельными в принятии решений, рассказывает автор статьи Кристиан Бук. Всё больше государств увеличивают инвестирование в сферу производства высокотехнологичных роботов-убийц. В 30 странах уже есть летающие беспилотные устройства, способные нести вооружение. Ещё большее число государств имеют системы ПРО, которые реагируют на угрозу так быстро, что не требуют человеческого вмешательства.
После изобретения пороха и ядерного оружия человечество стоит перед «новой революцией в сфере вооружения», констатирует Бук. Главную роль в разработке автономных боевых систем сыграл стремительный прогресс в робототехнике и создании искусственного интеллекта, ведь это позволило создавать машины, способные распознавать противников и убивать их. «Точно и эффективно, не испытывая при этом усталости, жажды мести, страха или сострадания», — пишет автор.
Ещё одно преимущество: люди, которые пилотируют дроны, находятся вдали от зоны боевых действий, могут вести разведку и уничтожать цели в безопасных условиях. Впрочем, беспилотным устройствам до сих пор нужен относительно большой наземный экипаж. Для круглосуточного использования моделей Predator и Reaper необходимо десять пилотов. При этом солдаты также страдают от посттравматического стрессового расстройства, как и их коллеги, сидящие в кабинах самолётов.
Полностью автономные дроны должны решить эту проблему, продолжает издание. Они смогут выполнять свою миссию без участия человека и даже радиосвязи с командным центром. Особый интерес представляют беспилотные подводные аппараты, ведь в океане радиоволны быстро затухают. Калифорнийская фирма Ocean Airo уже разработала устройство Submaran, которое может неделями или даже месяцами находиться под водой и всплывать для того, чтобы пополнить запасы своей энергии с помощью ветра и солнечных лучей.
Технических трудностей, которые стоят на пути применения автономных боевых систем, осталось мало, констатирует издание. Нужно сделать всего один небольшой шаг, связанный с исследованиями в сфере машинного обучения, а именно искусственных нейронных сетей, имитирующих работу человеческого мозга. С распознаванием изображений они уже справляются лучше людей. Различают военные объекты и солдат, сопоставляют их со списком целей из базы данных и в случае совпадения самостоятельно открывают огонь.
Однако применение таких устройств вызывает ряд юридических вопросов, продолжает Бук. Любое применение оружия должно соответствовать нормам международного гуманитарного права. Согласно ему, военные должны отличать гражданских от солдат. К тому же необходимо прилагать все возможные усилия, чтобы минимизировать побочный ущерб. То есть перед атакой автономные системы должны определить предположительное число жертв среди мирного населения, а также не стрелять по бойцам, которые сдались, или раненым.
В 2015 году эксперты по искусственному интеллекту Тоби Уолш и Стюарт Рассел вместе с физиком Максом Тегмарком обратились к ООН с призывом запретить разработку, производство, торговлю и использование автономного оружия. Их сначала поддержали 4500 учёных со всего мира, занимающихся робототехникой и исследованием ИИ, а позже ещё 26 тыс. специалистов и институтов, например, основатель компании Tesla Илон Маск и Университетский колледж Лондона.
Все они опасаются, что дальнейшие разработки в этой сфере могут спровоцировать новую гонку вооружений. Эксперты убеждены, что машине нельзя доверять решение, будет ли человек жить или умрёт. В завершение этой «технологической авантюры» автономные боевые системы станут «калашниковыми будущего», прогнозируют специалисты. Они попадут в руки террористических организаций или государств-изгоев. При этом можно будет без труда перепрограммировать устройство на уничтожение других целей.
Дойдёт ли дело до бойкота роботов-убийц — это политический вопрос, отмечает издание. Уже сейчас 28 государств выступают за полный запрет таких систем, но США, Великобритании, Австралии, Китаю и России он не выгоден. Также неизвестно, как контролировать его выполнение, если ООН всё-таки примет соответствующую конвенцию. «Складывается впечатление, что джинн уже выпущен из бутылки, и загнать его обратно будет тяжело», — заключает Бук.
Комментарии
Похоже на то, что это и будет расплатой за отказ от коммунистической идеи.
Отказались одни, но расплачиваться придётся всем.
Но одни раньше, а другие - позже. На то и расчёт.
Китай коммунистический, но выступает против запрета роботов.
Прогресс шагает по планете невзирая на идеи и режимы.
А коммунистическая идея здесь при том, что она зиждется на нравственных ценностях. Например, на тезисе равенства и на отказе от эксплуатации человека человеком.
И отказавшись от этих ценностей, человечество само не заметит, как окажется в каком-нибудь "электронном концлагере".
Что до Китая - когда он поймёт свою ошибку - может быть, откажется от идеи роботизации. Если успеет понять.
Скажем так - расхожие заблуждения.
Опрокинутый, догорает - но гусеницы ещё крутятся...
Речь-то идёт (должна идти) не о гигабайтах и мегабодах, а об интерпретации получаемой информации, причём интерпретация - процесс, диалогичный по своей сути.
И потому - как я думаю - ИИ ("настоящий", или "китайская подделка") должен функционировать в режиме диалога.
Два полушария нашего мозга - это самое примитивное толкование этого процесса.
Меня больше воодушевляют "братья наши меньшие" - осьминоги.
Легендарный Пауль - тот самый, который угадывал результаты предстоящих футбольных матчей - меня больше поражал тем, что правильно интерпретировал заданный ему вопрос, нежели своей способностью к предсказаниям.
Хотя и предсказания - тоже интересны...
ящик Пандоры не закрыть...
И бояться надо в первую голову его хозяев. Что они там в его мозги заложили, поди разберись...
У самого же ИИ, ввиду его неодушевлённости, нет ни малейшей рефлексии и причинит он вред человеку или пользу, железу наплевать. Что будет поставлено в задаче, то и причинит.
А эта структура никогда не удивится "нравственному закону внутри неё", перефразируя изречение И.Канта.
В том-то и беда.
https://www.youtube.com/watch?time_continue=306&v=x2aWThN7aCw
И замечание: "Экономика полных знаний о клиенте" - очень точная характеристика.
14 минута: "Если ты не очень благонадёжен - тебя могут "притормозить в очереди к врачу" - эта технология давно используется в РФ, и называется "блат".
20 минута и далее: "нравственность в России выше - из-за того, что мы были под влиянием христианских ценностей и за железным занавесом" - это неверно. Просто в сознании советского человека - как бы ни отторгался этот концепт нынешним обществом - нравственные основы были имплантированы едва ли не на генетическом уровне.
И по сути, вся "перестройка" в нашем сознании сводилась к содержанию ролика в старом "Ералаше": - "Научи меня плохому!"
И этот нравственный багаж - результат саморазвития русского общества, ставшего возможным благодаря общению (на русском языке) - ИМХО.
А то, что цифровой код ребёнка подобен штрих-коду на упаковке товара - очень существенное замечание...
Блат, а по сути, кумовство - это совсем другое. В той или иной форме он существует практически во всех странах с незапамятных времён. "Ну как не порадеть родному человечку.." Вы знаете меня, я знаю вас, и очень многие из нас хоть когда-то пользовались этим.
Когда же вас дискриминируют по подозрению в нелояльности или чего-то вроде этого, то это уже совсем, совсем другая история.
По-видимому, под "совершенно иным ценностным багажом" Вы понимаете нечто, разделяемое лично Вами, равно как и под оппонентами, имеющими оный - тех, с кем бы Вы были согласны?
в стремлении себя уничтожить.