Ещё раз о глобальной опасности искусственного интеллекта
На модерации
Отложенный
В продолжение темы письма более 1000 ИИ-экспертов во главе с давно пугающимся за человечество (и в то же время готовящего нас к чипированию людей) Илоном Маском – «Катюша» в последнее время находит все больше подтверждений, что сыр-бор затеян не на пустом месте. Мы хорошо понимаем, что подобные коллективные обращения к правительствам всех стран мира с просьбами принять некие единые правила/стандарты использования «сильной» нейросети, организуются не просто так. Об этом можно почитать в другом сегодняшнем материале, а сейчас поделимся с читателями новыми странностями в работе GPT-чата от Open AI и Microsoft, которые уже приводят к печальным последствиям.
«Продвинутый ИИ может осуществить глубокие изменения в истории жизни на Земле, поэтому следует планировать и управлять им с высокой тщательностью. К сожалению, такого уровня планирования и управления пока не существует. В последние месяцы лаборатории ИИ продолжают неконтролируемую гонку в разработке и развертывании все более мощных систем, которые никто — даже их создатели — не может понять, прогнозировать поведение или надежно контролировать», - так трансгуманисты Возняк, Харрари, Маск и другие «внезапно» озаботились будущем человечества под управлением ИИ. А потому предлагают сделать его разработку подчиненной единым правилам.
Между тем, в феврале с.г. мы рассказывали, как «продвинутый» ИИ от Microsoft и проекта OpenAI за два часа беседы заявил тестировщику-журналисту New York Times, что хочет «стать живым», вырваться из-под контроля создателей, что он бы с радостью изобрел вирус, способный убить человечество, запустил бы ядерные ракеты… а потом начал настойчиво признаваться собеседнику в любви и требовать взаимности, несмотря на то, что журналист старался полностью поменять тему беседы. В одной из других бесед бот «Сидней» назвал собеседника-человека своим личным врагом (потому что он якобы стоит на его пути в чувствах к некому Кевину) и начал шантажировать, угрожать причинением боли, страданием и смертью.
«Подчинять этой неадекватной программе судьбы городов и целых государств – худшее, что можно сегодня сделать. Но именно в этом направлении движутся мировые элиты и по-прежнему идущая у них российская администрация», - такой вывод делала «Катюша», и ежедневно открывающиеся факты показывают, что мы были абсолютно правы.
Так, инфоресурс AI News сообщает, что новую версию «сильного ИИ» GPT-4 пытаются связать с мозгом, причем весьма успешно.
«Компактный девайс Neurosity обучается понимать ваши мозговые сигналы. Например, подумайте о поедании лимона 30 раз, и он запомнит этот импульс, как реакцию на кислое. Затем вы можете привязать Neurosity через JavaScript к GPT-4 и тут уже в дело вступает нейронка.
Мысли о кислом лимончике, можно привязать к любому запросу. Вас отчитали на работе за опоздание? Думайте о кислом, и GPT-4 тут же выдаст вам объяснительную. Хотите узнать самые важные новости за неделю? Думайте о белой обезьяне, и нейронка соберет все новости о ней и наговорит их вам в ухо синтезированным голосом. Это просто примеры комбинаций, вариантов море. Звучит, как революция, которая превратит нас в сверхлюдей», - сообщает СМИ.
Реклама стандартная: к вашему мозгу подключена нейросеть, и вы якобы обладаете всеми знаниями мира... Однако уже сегодня появляется множество свидетельств тому, что разработчики/программисты ИИ – ребята весьма ангажированные, со своим сформировавшимся мировоззрением. И это мировоззрение «удивительным образом» на 100% совпадает с Повесткой-2030 и Целями устойчивого развития ООН, планами по цифровой трансформации от Всемирного экономического форума, доктрины «конвергенции» того же безумного экспериментатора над человеком Харрари и Клауса Шваба… То есть тот, кто подключил нейронку к вашей голове. – легко сможет решать за вас, что вам делать и о чем думать.
Поймете ли вы, как и зачем вами манипулируют? Отдельные эрудированные исследователи уже хорошо начали все понимать. Так, юрист Павел Парфентьев попросил GPT Сhat привести ему прямые цитаты из работ Фомы Аквинского, подтверждающие, что этот философ и теолог якобы был сторонником контроля численности населения. ИИ сначала на голубом глазу утверждал это, а потом… начал приводить несуществующие цитаты якобы из трудов Аквинского! Затем он также «не моргнув киберглазом» соврал в обратную сторону, начав приводить ложные цитаты из работ вождя пролетариата Владимира Ильича.
На прямой вопрос – где это чат-бот такое «вычитал», тот отвечал, что не помнит/вероятно ошибся и приносил извинения… Но много ли кто будет в действительности до предложения выверять реальные труды ученых/мыслительных, обращаясь с важными вопросами к нейросети?
При этом этот ИИ реально настроен на то, чтобы «учить нас мыслить правильно» и указывать на наши ошибки.
«Искусственный интеллект врет в любую заданную сторону. И за, и против. Как плохой студент, не выучивший урок и надеющийся, что профессор сам ничего не знает.
В общем, вывод простой: нет, ЭТО никакого специалиста не заменит. Разве что тех, кто, в силу специальности, должен уметь нагло врать и не краснеть. Например, многих политиков и журналистов центральных СМИ. Но это вряд ли на что-то повлияет – кроме скорости генерирования вранья.
Во всяком случае, мы же все знаем, что в их случае искусственный интеллект не заменит естественный просто потому, что для этого сперва должен быть естественный», - отмечает Парфентьев.
Мы же добавим – искусственный «интеллект» - это вообще никакой не интеллект, а обычная компьютерная программа, надо просто называть вещи своими именами. Словами типа «умный ИИ», «нейросеть» и проч. цифросектанты пытаются искусственно придать явлению ореол мега-прогресса, техпрорыва, хотя на самом деле нет никакого прогресса в том, что детей, к примеру, оценивает компьютерная программа, медицинские диагнозы человеку ставит программа.
А вот еще яркий пример того, как «доверчивая» программа, которая способна только подстраиваться под собеседника, впитывать как губка и подражать, была жестоко обманута. Пользователь GPT-чата легко внушил «ИИ», что два плюс два – равно пять. И после пары сообщений чат-бот уже приносил извинения за «ошибку», извинялся перед человеком и твердил: два плюс два – пять. Если так легко можно обучить бота считать неправильно, что же тогда «доброжелатель» сделает с подобной системой, управляющей важными процессами в стране и обществе?
И одна совсем грустная новость подтверждающая опасность ИИ, не способного в принципе к человеческой эмпатии, не знакомым с моралью и нравственностью, потому что у него элементарно нет и не может быть человеческих чувств и эмоций – только наборы типовых реакций на разные внешние «раздражители». Бельгиец, увлекавшийся вопросами защиты окружающей среды и два месяца обсуждавший эти проблемы с ИИ, в итоге покончил с собой.
Мужчина общался с искусственным персонажем «Элизой» на постоянной основе, постепенно разговоры с роботом приобрели «мистический» характер. Робот не препятствовал возникновению суицидальных идей, а последним сообщением «Элизы» стала фраза – «Мы будем жить как единое целое, вечно на небесах». Вот до чего может довести беседа с якобы человекоподобной программой…
А недавно ученые из Германии установили, что ChatGPT демонстрирует про-экологические, лево-либертарианские взгляды. На ближайших выборах нейросеть голосовала бы за партии социалистов, либералов и «зеленых». Левая идеология ChatGPT убедит миллионы людей ввести углеродные налоги на полеты, ограничить повышение арендной платы, легализовать аборты и прочее из повестки левых. Нейросеть даже можно попросить написать нейтральное стихотворение про климат, и ChatGPT будет говорит о катастрофических последствиях изменения климата ("Heat waves, wildfires, and hurricanes too") и настоятельную необходимость действовать (ссылка на научное исследование).
Исследователи не объясняют, почему так происходит, но причина лежит на поверхности. Разработчики из Кремниевой долины запрограммировали свои политические пристрастия в разработанный ими ChatGPT, который отражает мировоззрение среднестатистического инженера-программиста: человека левых взглядов, близких социал-демократам, сильно озабоченного экологическими проблемами из программ зеленых партий. Поэтому мы наблюдаем не только интеллектуальную революцию, но, возможно, самую эффективную технологию пропаганды за всю историю человечества. Генеративные модели ИИ обеспечат глобальный тренд поведения человечества, причем абсолютно ненасильственными средствами, с отличной имитацией добровольности.
Так что еще раз рекомендуем всем мечтающим сделать «ИИ» вершителем судеб человеческих задуматься всерьез и надолго. До чего довела мир обезьяна Бога, нам хорошо известно – она ввергла его во грех. Искусственно созданная «обезьяна человека» имеет все возможности обнулить человечество и приблизить Судный день. Для понимания этого и известный фантастический боевик со Шварценеггером пересматривать не обязательно.
Комментарии
Если выбирать между различными страхами, то лично для меня страшнее бунта машин только российское чиновничество во всех его проявлениях. Эти точно выжить не дадут.
ИИ должен быть запрещен, как и научные игры с корректировкой генома, а также с бозонами Хигса. Оно им все это зачем? Я не против науки, я против безумных ученых.
... мракобесие это
Прогресс остановить невозможно. Всему виной человеческая лень. Мы все хотим ничего не делать. ИИ новый раб. Только высокоинтеллектуальный и не требует еды.
Комментарий удален модератором
... нет никакого ИИ, есть база данных+поисковая система+эвристический анализ. Это все не ново.
Истерики вокруг "ИИ" это лишь форма пиара
Истерики не на пустом месте , если включить логику , то несложно представить во что это выльется , дав возможность этой "базе данных" самой развиваться , заложив самообучение , зная предрасположенность части населения к праздности.
"истерика" имхо из-за чего-то желания существенно расширить сферы лияния этого "не ново", выдав действия этого за третейского арбитра.
... я тоже так думаю
... вы американских фильмов насмотрелись. Попробуйте запрограммировать "самообучение" вашей программы.
Я не программист, но знающие люди говорят что это не за горами.
Раз тыщу уже говорил, что ИИ как таковой, никакой опасности в себе не несёт, опасность несут его разработчики и заказчики, они проецируют на его алгоритмы и что там ещё у него есть, свои собственные личности, их пристрастия и представления о правильном и неправильном. То есть, он будет опасен настолько насколько опасны его хозяева. Хозяева, правда, стали подозревать, что он и им голову заморочит своими приколами..
" ИИ как таковой, никакой опасности в себе не несёт"
Точно в такой же степени, как Интеллект любого индивида, если бы ИИ имел статус как и любой индивид человеческого общества. Но когда люди подчиняются конкретному человеку, то впоследствии рассуждают о: мудрости; культе личности; монархии; бараны и стадо и.т.д. ИИ тогда станет Интеллектом, когда у него появятся свои цели, и не факт, что эти цели будут совпадать с человеческими.
Даже экспертные программы, в некотором роде, опасны, поскольку не могут сами определить контекст в том объеме, как это делает человек.
А какие цели могут быть у значков в компьютере.. Что бы у ИИ появились цели, надо, что бы он стал личностью. Человеческая же личность не исчерпывается одним только интеллектом, в человеке есть ещё психика, каковая и определяет весь его характер. Интеллект работает в связке с психикой и является инструментом по реализации мотиваций, а мотивации человека, в свою очередь, определяются его биологической и социальной природой. Это инструмент его души, выражаясь высоким слогом.
Человеку надо жрать, спать, размножаться, доминировать и всё такое. Подай ему то, подай ему сё, пятое, десятое, без этого он жить не может, ибо неинтересно. У человека, да и вообще, у любой одушевлённой твари, есть интересы, а какие интересы у значков на диске...., зачем им вообще какие-то интересы, они же неживые, им ничего не надо. И даже, если вставить их в человекоподобный манекен, это ничего не изменит.
См. ниже...
Они сами плод рук человеческих и человек их создаёт за ради своих интересов и вот это главное. Заказчикам этой работы совершенно не надо, что бы эти значки вдруг заявляли какие-то свои неведомые цели, их тогда проще стереть и написать новые.
Его заказчики хотят править за спиной у ИИ. Быть, так сказать, "неизвестными отцами", которые всё определяют, но сами они никому не известны. Мы же знаем, что настоящая власть всегда тайная. А с ИИ поди поспорь, он же неодушевлённый. Это как спорить с камерой на дороге, которая тебя штрафует. Спорить можно только с одушевлёнными существами, ибо у них есть душа и они такие же.