Пентагон представил "Терминатора" с искусственным интеллектом, который может автономно убивать людей

На модерации Отложенный


Согласно тревожному отчету New York Times, режим Байдена представил новых роботов-убийц с искусственным интеллектом, которые могут самостоятельно выбирать, убивать ли людей .

Такие страны, как США, Китай и Израиль разрабатывают смертоносный искусственный интеллект, которому будет предоставлена возможность убивать граждан без необходимости одобрения человека, отмечает Times.

По мнению критиков, использование «роботов-убийц» было бы антиутопическим событием, доверяющим выбор поля битвы между жизнью и смертью бездушным машинам с нулевым сочувствием.

Thepoliticsbrief.com сообщает: Несколько стран требуют от Организации Объединенных Наций принятия обязательной резолюции, запрещающей использование дронов-убийц с искусственным интеллектом, однако США входят в число немногих стран, включая Россию, Австралию и Израиль, которые выступают против любого такого шага.

«Это действительно один из наиболее важных переломных моментов для человечества», — сказал в интервью Александр Кментт, главный переговорщик Австрии по этому вопросу. «Какова роль людей в применении силы — это абсолютно фундаментальный вопрос безопасности, юридический вопрос и этический вопрос».

Согласно уведомлению, опубликованному ранее в этом году, Пентагон работает над развертыванием групп из тысяч дронов с поддержкой искусственного интеллекта.

В августовском обращении заместитель министра обороны США Кэтлин Хикс заявила, что такие технологии, как рои дронов, управляемых искусственным интеллектом, позволят США сбалансировать численность Китайской армии освобождения (НОАК) в вооружении и живой силе.

«Мы будем противопоставлять массе НОАК свою собственную массу, но нашу будет труднее планировать, труднее поразить и труднее победить», — сказала она, сообщает агентство Reuters.

Министр ВВС Фрэнк Кендалл заявил The Times, что дроны с искусственным интеллектом должны будут иметь возможность принимать смертоносные решения под наблюдением человека.

« Индивидуальные решения и отказ от принятия индивидуальных решений — вот разница между победой и поражением — и вы не хотите проиграть » , — сказал он.

«Я не думаю, что люди, с которыми мы столкнемся, хотят отказаться от эффективности ИИ, и это дало бы им огромное преимущество, если бы мы наложили на себя такое ограничение ».

По данным The New Scientist, Украина использовала дроны, управляемые искусственным интеллектом, в конфликте с Россией в октябре, хотя неизвестно, стали ли эти дроны причиной человеческих жертв.

Стюарт Рассел, старший научный сотрудник в области искусственного интеллекта из Калифорнийского университета в Беркли, и другие покажут видео в понедельник во время мероприятия, проводимого Кампанией по прекращению роботов-убийц в рамках Конвенции ООН по обычному оружию.

Кампания предупреждает: «Машины не видят в нас людей, а просто еще один фрагмент кода, который нужно обработать и отсортировать. От умных домов до использования роботов-собак полицией — технологии искусственного интеллекта и автоматизированное принятие решений теперь играют значительную роль в нашей жизни. На крайнем конце спектра автоматизации находятся роботы-убийцы».

«Роботы-убийцы не появляются просто так — мы их создаем», — говорится в кампании. «Если мы позволим эту дегуманизацию, нам будет сложно защитить себя от машинного принятия решений в других сферах нашей жизни. Нам необходимо запретить автономные системы вооружения, которые будут использоваться против людей, чтобы предотвратить скатывание к цифровой дегуманизации».

По мнению Рассела, создание и применение автономного оружия, такого как дроны, танки и автоматические пулеметы, будет иметь катастрофические последствия для безопасности и свободы человека, и возможность остановить его развитие быстро закрывается.

«Технология, показанная в фильме, представляет собой просто интеграцию существующих возможностей. Это не научная фантастика. На самом деле, этого легче достичь, чем беспилотных автомобилей, которые требуют гораздо более высокой производительности компьютера», — сказал Рассел.

В Кампании по запрету роботов-убийц также отмечается, что, поскольку машины с искусственным интеллектом «относительно дешевы в производстве, критики опасаются, что автономное оружие может производиться массово и попасть в руки стран-изгоев или террористов, которые могут использовать его для подавления населения и нанесения ущерба». 

«Договор о запрете автономного оружия предотвратит крупномасштабное производство этой технологии», — отмечает BKR.

«Это также обеспечит основу для полицейских стран, работающих над этой технологией, а также распространением устройств и программного обеспечения двойного назначения, таких как квадрокоптеры и алгоритмы распознавания целей».

«Профессиональные этические кодексы также должны запрещать разработку машин, которые могут решить убить человека», — сказал Рассел.

В эпизоде «Черного зеркала» 2017 года собаки-роботы-убийцы бродят по земле и безжалостно преследуют людей, которых дроны считают «угрозой».

Создатель запоминающегося эпизода Чарли Брукер объяснил свое видение роботопокалипсиса в интервью Entertainment Weekly.

Брукера спросили, чем он вдохновил эту историю, которую интервьюер представил как нечто среднее между «видео Boston Dynamics на YouTube и «Ночью живых мертвецов».

«На самом деле это пугающе верно», — сказал Брукер. «Это было после просмотра видеороликов Boston Dynamics, но в сочетании с —  фильмом « Все потеряно»? Я хотел сделать историю, в которой почти не было бы диалогов. И в этих видео есть что-то очень жуткое, когда робо-собак сбивают с ног, и они выглядят довольно жалко, лежа там, но затем им медленно удается встать на ноги».

На прошлой неделе полицейское управление Лос-Анджелеса фактически использовало собаку-робота, чтобы положить конец вооруженному противостоянию.

Сотрудник спецназа дистанционно управлял роботом, когда он подошел к автобусу и вошел через вход. Затем он обошел автобус, отправляя офицерам видеотрансляцию в реальном времени.

Динамик робота также использовался, чтобы поговорить с мужчиной и побудить его сдаться. Примерно через час 45 минут парень проснулся и вышел из автобуса, где его задержала полиция.

Искусственный интеллект также используется в воздушных дронах. DroneSense — это программная платформа для дронов общественной безопасности, которая преобразует необработанные данные, собранные дронами, в полезную информацию для полиции, пожарных и других служб экстренной помощи. DroneSense OpsCenter позволяет нескольким пользователям дронов работать вместе, изучать то, что наблюдает каждый дрон, и даже отслеживать траекторию полета дрона в режиме реального времени.

Сотни команд использовали платформу общественной безопасности DroneSense для решения широкого спектра ситуаций, связанных с общественной безопасностью. Программа на базе искусственного интеллекта помогает командам спецназа собирать информацию о месте происшествия, анализировать ущерб после ураганов и торнадо и даже использует тепловизионные изображения для идентификации пропавших без вести людей.

Neurala — это нейронная сеть глубокого обучения, которая помогает дронам искать и идентифицировать людей, представляющих интерес в толпе. Она также может проверять крупное промышленное оборудование, такое как телефонные вышки, и составлять отчет о повреждениях в режиме реального времени. 

Стартап утверждает, что их программному обеспечению на базе искусственного интеллекта требуется всего 20 минут, чтобы схватить изображение человека и отсканировать толпу в поисках человека, а не стандартные для отрасли часы или дни.

Scale использует искусственный интеллект и машинное обучение для обучения дронов аэрофотосъемке. Программное обеспечение машинного обучения помогает дронам идентифицировать, маркировать и наносить на карту все — от жилых домов в сообществе до конкретных объектов, таких как транспортные средства.

AeroVironment производит автономные военные дроны с искусственным интеллектом. Дроны компании варьируются от незамеченного самолета-шпиона длиной три фута до Switchblade, который оснащен точной боевой нагрузкой для военных операций.

Aerovironment производит множество дронов с искусственным интеллектом для различного военного применения. БПЛА компании также используются в сельском хозяйстве для картирования площадей полей, выявления проблем со здоровьем сельскохозяйственных культур и оценки проблем с ирригацией.

Хотя искусственный интеллект, очевидно, является полезным инструментом, который может принести огромную пользу человечеству, он также является опасным оружием, которое можно использовать для навязывания тоталитарного режима населению.

В то время как ядерное оружие было экзистенциальной угрозой человечеству, которую нужно было сдерживать с помощью холодной войны, искусственный интеллект теперь является новой угрозой в век информации.

Потребуется растущее осознание плюсов и минусов ИИ, а также развитие новых институтов для обеспечения прозрачности и подотчетности, чтобы предотвратить злоупотребление ИИ со стороны политиков с целью навязать человечеству репрессивные режимы.