Ужасы цифровизации
На модерации
Отложенный
Пока политики говорят о войне на Украине, а занятые повседневными делами люди волнуются из-за роста цен и других житейских проблем, в мозговых центрах мира создаются инструменты искусственного интеллекта (ИИ), способные не только до неузнаваемости изменить жизнь людей, но и покончить с человечеством как биологическим видом и саморазвивающимся общественным организмом. Пока большая часть тревожных сигналов идёт из социальной сферы, цифровизация которой открывает дорогу к трансгуманизму, устраняющему «нежелательные аспекты человеческого существования» или, попросту говоря, меняющему природу людей.
В России критика цифровизации вращается главным образом вокруг того, что можно списать на дефекты исполнителей. В первую очередь это касается постоянных эксцессов с утечками данных и бездумного внедрения новейших технологий в школах, что уродует российскую систему образования, разрушает связь «учитель – ученик», тормозит развитие детей и вредит их физическому здоровью и психологическому состоянию. Но гримасы искусственного интеллекта можно наблюдать и в других сферах.
В начале этого года «Октагон» рассказал о том, как научный сотрудник Института биологии внутренних вод РАН Александр Цветков оказался под арестом по обвинению в четырёх убийствах 20-летней давности. Основанием стало 55-процентное совпадение его биометрических данных со старым фотороботом сомнительного качества. Вера в новейшие технологии оказалась настолько сильна, что следствие в течение 10 месяцев не принимало во внимание алиби учёного, подкреплённое документами и свидетельскими показаниями.
4 декабря на встрече с членами Совета при президенте РФ по развитию гражданского общества и правам человека о деле Цветкова рассказали Владимиру Путину. И это помогло: Замоскворецкий суд Москвы отменил арест, и 12 декабря обвиняемый вышел на свободу.
Что мешало сделать это раньше?
Ведь решение об аресте, а также о его продлении принимал всё тот же суд. Здесь, конечно, можно поговорить об особенностях российских правоохранительной и судебной систем, но они и так всем известны.
Сухой остаток этой истории состоит в том, что оказаться в тюрьме может любой человек, попавший под прицел видеокамер. А обладающие таким оружием прогресса, как нейросеть, правоохранители сделают всё остальное. И только слово главы государства оказалось сильнее приговора искусственного интеллекта. Но Путин не может вникать во все уголовные дела. Кроме того, в мире есть вещи, которые неподвластны российскому президенту.
В странах Евросоюза решения об эффективности и неэффективности сотрудников уже начинают принимать цифровые роботы. Это стало прямым следствием введения в 2021 году законодательства, регулирующего работу сферы услуг. Новшество касается 28 миллионов человек – от водителей такси до курьеров, – которые используют в работе цифровые платформы.
Теперь каждый шаг этих работников оставляет цифровой след, и алгоритм (аналог ИИ) анализирует их и выносит вердикт о том, насколько хорошо они справляются со своими обязанностями. А поскольку плохая работа является основанием для увольнения, именно автоматизированные системы начинают принимать решения о продлении или прекращении сроков действия контрактов.
Дело дошло до того, что Европейский институт профсоюзов (ETUI) всерьёз озаботился практикой «роботизированного увольнения» и потребовал прекратить его использование.
Но набирающий обороты прогресс уже не остановить.
Цифровые платформы – это очень удобный механизм, а снабдить его системой логического вывода о качестве работы совсем несложно. Главное – сформулировать критерии. И не стоит надеяться, что это нововведение затронет только сферу услуг.
Во второй половине 2000-х в ряде российских компаний пытались внедрить систему почасовых отчётов для сотрудников, занятых умственным трудом. Их обязали заполнять специальные компьютерные формы, указывая, что именно они делали в течение последнего часа. Затея не прижилась – во-первых, потому, что действительно занятые делом люди забывали заполнять эти формы, а во-вторых, из-за того, что анализировать этот огромный поток данных было некому. Теперь, когда появились цифровые платформы и алгоритмы-анализаторы, одержимые административным восторгом руководители имеют все возможности превратить жизнь своих подчинённых в настоящий цифровой ад.
Сегодня уже никого не удивить дипфейками, в которых цифровые образы политиков делают сенсационные заявления. Системы Play HT, Speechmax и десятки других генераторов голоса позволяют переводить текст в речевой формат. Runway и ещё ряд нейросетей научились «оживлять» картинки и превращать их в видеоролики. Многочисленные чат-боты способны поддержать беседу на любую тему.
Все эти достижения готовились давно. Мультипликаторами, которые программировали естественные движения своих персонажей, разработчиками компьютерных игр, добивавшимися динамики действия, а также другими специалистами, решавшими свои прикладные задачи. Но ещё 25 лет назад, когда вышел фильм «Шоу Трумана», считалось, что для создания альтернативной реальности нужны декорации и статисты. Теперь всё изменилось и продолжает меняться с пугающим ускорением.
Во всём мире огромные средства вкачиваются в разработку искусственного интеллекта, в развитие нейросетей и наращивание их мощностей.
Эксперты предупреждают: лет через 5–10 можно будет говорить о создании параллельной реальности в теленовостях.
А это значит, что уже не нужно будет снимать репортажи с места событий. Достаточно загрузить в нейросеть исходную картинку, прообразы персонажей и задать параметры совершаемых ими действий.
После этого будет уже неважно, что происходит в мире на самом деле. Вместо бомбардировок Газы можно будет сгенерировать народные гуляния, вместо стихийного бедствия – уборку территории, вместо пресс-конференции с неудобными вопросами – публичный хеппенинг. Это обесценит переговоры, саммиты или иные политические мероприятия. Зачем напрягаться, если можно показать миру готовый результат?
Единственное, что способно помешать погружению мира в вымышленную реальность, – это наличие игроков с альтернативными интересами. Но чтобы не отставать, им тоже придётся создавать свою картину виртуального мира. Если сегодня своё восприятие реальности навязывается другим в ходе информационных войн, то через несколько лет можно будет предъявлять и врагам, и союзникам готовые видеонарративы.
Военные эксперты высказывают опасения, что уже в ближайшее время нейросети научатся обходить или взламывать защитные программы и помогать в организации кибератак.
Речь идёт о генерировании вредоносных кодов и обучении хакеров новым тактикам и методикам. Всё это позволит расширить круг киберпреступников, включив в него даже тех, кто ничего в этих делах не понимает.
Европейские аналитики утверждают, что подобная информация уже есть в интернете, и хорошая поисковая система вроде ChatGPT может найти её за секунды и оперативно передать заказчику. Разумеется, в действия нейросети можно ввести соответствующие ограничения, загрузить в неё список стоп-слов и даже научить собирать данные о тех, кто вводит подобные запросы, и передавать их в органы правопорядка. Но пока такие изменения в многочисленные чат-боты не внесены, вряд ли это случится в ближайшее время.
Неслучайно давосские мудрецы, и прежде всего Клаус Шваб, предсказывают масштабные кибератаки по всему миру.
Эти люди знают, о чём говорят. В 2018 году они пообещали пандемию, и она случилась. Теперь в повестке мировая киберкатастрофа. А чтобы публика не сомневалась в серьёзности происходящего, от имени Давосского форума в медиа вброшен видеоролик, моделирующий апокалиптическую картину, на фоне которой Шваб произносит свои пророчества.
СМИ сообщают, что Пентагон заканчивает работу над развёртыванием роя из тысячи дронов, управляемых искусственным интеллектом. По словам заместителя министра обороны США Кэтлин Хикс, эта технология позволит американским военным компенсировать численное преимущество Народно-освободительной армии Китая в отношении оружия и людей. Летальное автономное оружие, способное выбирать цели с помощью искусственного интеллекта, разрабатывается не только в Соединённых Штатах. Аналогичные работы ведутся в Китае и Израиле.
Следующим шагом, предупреждают эксперты, станет передача искусственному интеллекту функции принятия автономных решений о том, стоит ли уничтожать человеческие цели.
Подобный технологический прорыв качественно изменит характер войн, и мир пройдёт точку невозврата в использовании ИИ в боевых действиях.
Это станет «переломным моментом для человечества», считает главный австрийский переговорщик по вопросу ограничения использования дронов-убийц Александр Кментт.
Попытки ограничить применение дронов-убийц с искусственным интеллектом путём принятия Совбезом ООН обязательной для исполнения резолюции пока не дали результата. Причиной служит сопротивление группы стран, в которую входят США, Австралия, Израиль и Россия. Эти государства активно развивают цифровые технологии и настаивают на необязательном характере соответствующей резолюции.
Недавние кадровые решения в американской научно-исследовательской организации OpenAI, занимающейся разработками в области искусственного интеллекта, показали, что в развитии этой отрасли происходит знаковый разворот. Всё началось с того, что разработчики новой версии ИИ сообщили совету директоров, что их достижения могут «угрожать человечеству».
В центре скандала оказался некий Сэм Альтман, которого обвинили в слишком быстром развитии новых продуктов без учёта фактора безопасности. Нарушитель внутренних правил был уволен, но через несколько дней его вернули в компанию и уволили его оппонентов. Вся коллизия разворачивается вокруг проекта Q* (произносится как «Q-Star»), который радикально отличается от концепции чат-ботов GPT (наделавший столько шума ChatGPT был разработан той же OpenAI).
Специалисты уверяют, что система Q* является новым словом в области развития искусственного интеллекта.
В отличие от GPT, которые опираются на поиск и статистические закономерности и потому могут давать разные ответы на один и тот же вопрос, Q* базируется на математическом подходе и создаёт модель «общего искусственного интеллекта» (AGI). Это позволяет ей самостоятельно решать задачи и выдавать единственно верное (собственное) решение, а не выбирать, как GPT, готовые ответы.
На сегодняшний день новая модель умеет справляться с элементарными математическими задачами. Но лежащая в её основе концепция позволяет ей оценивать обстановку, учиться и делать выводы из собственных ошибок, то есть имитировать умственную деятельность человека, но функционировать гораздо быстрее.
В этом смысле GPT – это настоящее, а Q* – будущее, в котором решения будут приниматься по законам математической логики и без учёта таких факторов, как мораль и эмоции. Подобный подход должен хорошо работать при решении производственных и научных задач. Однако тенденции развития ИИ свидетельствуют о том, что его допустят и в социальную сферу.
Авторы консенсус-прогноза, выпущенного в конце ноября Экспертным институтом социальных исследований, предупреждают, что «развитие искусственного интеллекта опережает моральную и физическую готовность общества к новым вызовам», а ценности и интересы сверхразумных систем могут вступить в противоречия с ценностями и интересами людей. И «если технологические возможности неконтролируемого обучения и самосовершенствования ИИ превзойдут возможности человеческого мозга (а по ряду показателей это уже происходит), человечество может потерять контроль над своим будущим».
К аналогичному выводу пришли и авторы письма о перспективах развития искусственного интеллекта, среди подписантов которого числятся американский IT-предприниматель Илон Маск, соучредитель компании Apple Стив Возняк, израильский историк и футуролог Юваль Ной Харари и несколько десятков исследователей, работающих в сфере IT-технологий. Среди прочего в тексте сказано, что искусственный интеллект уже начинает вносить изменения в жизнь людей, и потому его развитием нужно управлять. Но поскольку никто этого не делает, необходим мораторий на дальнейшие разработки.
О том же, но в гораздо более резкой форме говорит и один из основателей американского Института исследования машинного интеллекта Элиезер Юдковский, считающийся одним из ведущих IT-экспертов.
Он полагает, что рано или поздно суперумные нейросети выйдут за пределы интернета и перехватят управление всеми процессами на планете.
А поскольку искусственному интеллекту будет наплевать на историю человечества, он будет смотреть на людей как на существ, которые, с его точки зрения, очень глупы и очень медлительны.
Нейросети станут руководствоваться не моралью и не эмоциями, которые им неведомы, а своими потребностями, которые могут побудить их использовать в своих целях человеческое тело. Например, превратить атомы, из которых оно состоит, во что-то более нужное и полезное. Подводя черту под этой апокалиптической картиной, Юдковский предлагает полностью прекратить любые исследования в области ИИ, кроме тех, которые могут помочь избежать гибели человечества.
Вера Зелендинова
Комментарии
Без всяких "кроме"
За Русь!, точно.
_Regina_, 💐
За Русь!, 😘
За Русь!, ...нейросеть проанализировала путина за последние 20 лет и сказала что совпадение с сегодняшним только 50 процентов....кто вы ху из ми...мистер путин???
Евгений Соколов, Вот как чувствовал что это Байден!
Reginушка, тебя слегка клинит? Рановато Новый год встречаешь..... но вот согласись, что англо-саксы своих дурковатых цепных псов, хохло-нацистов, наверняка оцифровали и зазомбировали. Иначе как объяснить, что они этим мировым жандармам и бандитам отдали русские земли и предали русский народ??? Бандеро-фашисты ничего своего не имели и не имеют, а теперь ещё эти голодранцы гибнут как мухи за интересы заокеанских дядей сэмов и всяких маразматических дедушек байденов.....
Одного его никто не послушает.
Искусственный интеллект - это прежде всего инструмент для решения задач обработки данных, не более. А любой инструмент можно можно использовать как на благо, так и во вред. Например, топором можно дома рубить, а можно старушек за рубль мочить а ля Раскольников.
А что касаемо до описанной ситуации с учёным, то "вера в новейшие технологии" здесь абсолютно ни при чём. Скорее всего прокурорские и следаки просто очень хотели жирную палку срубить на раскрытии резонансного дела. Так что не ИИ здесь виноват, а как обычно человеческий фактор...
slavaor2010, ...нейросеть проанализировала путина за последние 20 лет и сказала что совпадение с сегодняшним только 50 процентов....кто вы ху из ми...мистер путин???
Евгений Соколов, Кстати, надо эксперимент такой поставить...
slavaor2010, ...так уже...всё есть в открытом доступе....см. товарища А.Невзорова....ныне иноагент как и Санта - Клаус...РжунимАгу!!!!!!!!!!!!!!!!
Ведущий советник Клауса Шваба Юваль Ной Харари:
"Это конец человеческой истории. Не конец истории, а конец истории, в которой доминирует человечество. История будет продолжаться, но кто-то другой будет ее контролировать".
_Regina_,
А поскольку искусственному интеллекту будет наплевать на историю человечества, он будет смотреть на людей как на существ, которые, с его точки зрения, очень глупы и очень медлительны.
Глупости...а кто будет обеспечивать его электроэнергией??? Стержни на АЭС тоже будет ИИ загружать...или уголь Фтопку кидать на ТЭЦ??? Ветер порвал электрические провода и ИИ тихо умер....Япадсталом!!!!
Для того что бы загнать человечество за Можжай...ИИ необходим свой ...вечный источник энергии...чего в принципе не предвидится...
Евгений Соколов, например, энергия из эфира вечна. Но и ее надо как-то доставлять и содержать оборудование в рабочем состоянии, здесь вы правы.
_Regina_, ////ночной эфир струит зефир,
Поёт, плывёт Гвадалквивир....О.Бендер.
_Regina_, эфир не материальная субстанция....как...к примеру...душа человека...его сложно а порой и невозможно запихнуть в мотор авто...сопротивляется...гад!
ИМХО,ИИ может,как и Человек, оказаться и Другом и Врагом человечества.В Зависимости от СОЦИАЛЬНОЙ Системы. Как и Человек,все зависит от Воспитанных(программированных)КРИТЕРИЕВ(Хорошо-Плохо,Целеполагание) на которых Строится отношение любого Человека к современным ему Реалиям.Т.е.-ИДЕОЛОГИИ.А их(Идеологий) сегодня только ДВЕ.Соответственно-как ВОСПИТАТЬ ИИ зависит от Реалий места его создания. ВРАГ или ДРУГ-ПОМОЩНИК.
lev sivarb, Аналогии с колюще-режущими инструментами подтверждают ваш тезис. Все зависит от обладателей ИИ и их намерений. Правда, намерения свои они уже не скрывают.
"Инструменты искусственного интеллекта могут покончить с людьми как биологическим видом".
Кому уже страшно, можно бояться... ИИ - инструмент в руках людей. Любой инструмент можно использовать как оружие. Убивает не оружие - убивают люди.
А ведь хаммункулус тоже начнет болтать о свободах и демократиях. Тут обезьяновирусу и конец.
Меня настолько запугали, что прямо уже и не знаю. Вот у меня ИИ встроен в светильник, что в коридоре. Когда я крадусь ночью в туалет, эта умная бестия как-то распознает меня, и включает свет. Мало того, он еще и это… настолько изощрен, что днем не включает, а только ночью. Причем, что особо напрягает, этот умник иностранного производства. А если эта падла взбунтуется, или в нужный момент получит сигнал из-за рубежа, то что? Шандарахнет каким-нибудь лазерным лучом… со своих светодиодов, и охнуть не успеешь. Фильм-то «Терминатор. Восстание машин» все смотрели? Вот! Поэтому подумываю купить помповик, как у Арнольда Шварценнегера. В смысле, для самообороны. Или что-нибудь покруче, как считаете? Сосед рекомендует гранатомет «Арбалет», но каждый раз таскать эту дуру надорвешься.
Судя по статье , при разработке ИИ нарушаются все законы робототехники писанные ещё на заре кибернетики .
Писатель фантаст Айзек Азимов вывел обязательные правила поведения робота (читай - ИИ) , в своих произведениях , которые считались основными до последнего времени , пока не начали программировать ИИ на уничтожение человека.
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Другие писатели уже тогда предупреждали об опасности доверять обслуживание себя машинам , но похоже этим пренебрегают в наше время , что будет началом конца человека как вида разумной жизни .
зомбирование (его обыдление и чинопочитание) простого народа в интересах глубинного государства
...нейросеть проанализировала путина за последние 20 лет и сказала что совпадение с сегодняшним только 50 процентов....кто вы ху из ми...мистер путин???
А поскольку искусственному интеллекту будет наплевать на историю человечества, он будет смотреть на людей как на существ, которые, с его точки зрения, очень глупы и очень медлительны.
Глупости...а кто будет обеспечивать его электроэнергией??? Стержни на АЭС тоже будет ИИ загружать...или уголь Фтопку кидать на ТЭЦ??? Ветер порвал провода и ИИ тихо умер....Япадсталом!!!!
Для того что бы загнать человечество за Можжай...ИИ необходим свой ...вечный источник энергии...чего в принципе не предвидится...
Автор, сначала говорит о GPT - который нейросеть, потом о Q* - который не имеет никакого отношения к нейросетям и представляет конкурирующую ветвь (которая раньше называлась GPS). А потом всё вместе называет нейросетями. Так что, с автором всё понятно - журналист, который где-то что-то слышал.
А так, да, всё пропало :(