Войти в аккаунт
Хотите наслаждаться полной версией, а также получить неограниченный доступ ко всем материалам?

Честь робота: кодекс для боевого автомата

Честь робота: кодекс для боевого автомата

Боевым роботам, которые (теперь уже несомненно) будут принимать самое активное участие в будущих войнах, требуется внушить особый «кодекс чести». Только так мы сможем быть уверенными, что «разгоряченный» схваткой стальной монстр гуманно отнесется и к мирным жителям, и к раненым, и к собственным товарищам по оружию.

Серьезное предупреждение о потенциальной опасности сформулировано в официальном докладе, который был подготовлен и выпущен исследовательским центром американских ВМС. В нем рассматриваются самые разные возможные сценарии развития событий, вплоть до будущего в духе «Терминатора», с полным порабощением всей человеческой расы.

Доклад предрекает приближение эры, когда роботы станут достаточно умными для того, чтобы принимать на поле боя самостоятельные решения. «В какой-то момент, - замечается в тексте, - они начнут и в этом демонстрировать явные преимущества в сравнении с солдатами-людьми».

Авторы исследования продолжают: «Весьма распространено заблуждение, что роботы будут делать только то, что заложено в их программу. К сожалению, это мнение давно устарело, относится оно еще к тем временам, когда даже самую сложную программу мог написать и понять один человек. Реальность же сегодняшнего дня такова, что даже текст современных программ составляет миллионы строк кода, написанных большими командами программистов – и ни один из них не представляет всю программу полностью и целиком». Соответственно, никто не может со стопроцентной вероятностью и предсказать, как поведет себя управляемый такой программой робот в условиях реального боя. Для этого понадобятся, как минимум, самые широкие и всесторонние полевые испытания – а против них могут выступить компании-производители, стремящиеся, естественно, как можно скорей выпустить продукт на рынок.

От себя добавим, что если робот должен действительно уметь принимать решения даже в условиях боя, то в такую систему заранее ввести все возможные комбинации и варианты событий попросту нереально. Алгоритмы его работы должны обязательно включать элементы самообучения – а уж чему научится робот в этих условиях, сказать еще сложнее. Да и вряд ли чему-то хорошему.

Решение, предлагаемое авторами доклада, состоит в составлении особых «воинских кодексов» для роботов, выполнение которых «намертво» будет вшито в их железные мозги. Это не столь изящно, как предложение их коллег создать для роботов своего рода систему эмоций, зато и намного проще.

Авторы также рассмотрели и другие этические, юридические, социальные и политические аспекты военной робототехники. В частности, они впервые подняли вопросы защиты таких боевых систем от взлома и использования хакерами, от ошибок в программном обеспечении. Поднят и такой интересный вопрос, как ответственность – кто будет виноват, если боевой робот «обезумеет» и пойдет крушить все направо и налево? Не стоит ли снабдить их универсальной «кнопкой самоубийства»?

Все эти проблемы не просто своевременны, но и совершенно насущны, ведь, по плану американских военных, уже к 2010 г. треть всей дальней авиации США будет состоять из беспилотных устройств, а к 2015 г. автоматической будет треть всей наземной бронетехники. Да и инциденты уже случались – мы уже рассказывали о трагедии, случившейся с боевой пулеметной системой.

«Стремление разработчиков как можно скорее выйти на рынок с реальными предложениями, - говорится в докладе, - отбрасывая необходимую проработку этических моментов использования боевых автономных систем, дает мало надежды на то, что первые поколения таких систем и роботов не совершат ошибок, которые могут стоить многих людских жизней».

Для начало дело за малым – составлением «воинского кодекса» роботов, который сочетал бы достаточно агрессивное поведение с гуманным отношением... Не хотите ли высказать свои предложения? За основу можно взять классику – Три закона робототехники, сформулированные в 1950-х Айзеком Азимовым:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму законам.

Источник: www.popmech.ru
{{ rating.votes_against }} {{ rating.rating }} {{ rating.votes_for }}

Комментировать

осталось 1800 символов
Свернуть комментарии

Все комментарии (6)

stronz

комментирует материал 08.03.2009 #

Три закона Азимова никак не подходят для военных роботов. Основная их задача - именно причинить вред человеку. Исходя из этого постулата боевые роботы потенциально очень опасная игрушка и для их разработчиков в том числе. Очень не хочется стать персонажем какого нибудь реалити-шоу: Терминатор таки существует.

user avatar
s_mart

комментирует материал 08.03.2009 #

а может просто боевых роботов не создавать?

user avatar
VLADIMIR4

комментирует материал 09.03.2009 #

Стингеры откровенно отказывались сбивать блэк хавк.Свой-чужой не требует сложной электроники. Однако не стоит обольщаться по поводу роботов.электромагнитный импульс,длиною наносекунды,безвредный для людей,превращает их в консервные банки.Правда защититься можно...метровым слоем армированного бетона.

user avatar
henk2009

комментирует материал 09.03.2009 #

Пусть создают. На свою голову. Запустим вирус и ,,пойдет брат на брата". А война уже началась. ,,Мирно дремавший" российский спутник превратился в ,,камикадзе". А сколько их еще ждут сигнала из Центра...

user avatar
атомщег

комментирует материал 10.03.2009 #

Сразу почему-то вспомнился Голем..
И то как он стал своих создателей затем колбасить...

user avatar
×
Заявите о себе всем пользователям Макспарка!

Заказав эту услугу, Вас смогут все увидеть в блоке "Макспаркеры рекомендуют" - тем самым Вы быстро найдете новых друзей, единомышленников, читателей, партнеров.

Оплата данного размещения производится при помощи Ставок. Каждая купленная ставка позволяет на 1 час разместить рекламу в специальном блоке в правой колонке. В блок попадают три объявления с наибольшим количеством неизрасходованных ставок. По истечении периода в 1 час показа объявления, у него списывается 1 ставка.

Сейчас для мгновенного попадания в этот блок нужно купить 1 ставку.

Цена 10.00 MP
Цена 40.00 MP
Цена 70.00 MP
Цена 120.00 MP
Оплата

К оплате 10.00 MP. У вас на счете 0 MP. Пополнить счет

Войти как пользователь
email
{{ err }}
Password
{{ err }}
captcha
{{ err }}
Обычная pегистрация

Зарегистрированы в Newsland или Maxpark? Войти

email
{{ errors.email_error }}
password
{{ errors.password_error }}
password
{{ errors.confirm_password_error }}
{{ errors.first_name_error }}
{{ errors.last_name_error }}
{{ errors.sex_error }}
{{ errors.birth_date_error }}
{{ errors.agree_to_terms_error }}
Восстановление пароля
email
{{ errors.email }}
Восстановление пароля
Выбор аккаунта

Указанные регистрационные данные повторяются на сайтах Newsland.com и Maxpark.com

Перейти на мобильную версию newsland