Эксперты рассказали о будущем Четвертой промышленной революции

На модерации Отложенный

Эксперты рассказали о будущем Четвертой промышленной революции

 Александр Лесных

 16.09.2020

Пандемия коронавируса доказала, что искусственный интеллект и другие элементы четвертой промышленной революции могут служить на благо человечества, но для широкомасштабного внедрения подобных технологий в мире должны появиться единые стандарты, пишет издание Project Syndicate. «Газета.Ru» пообщалась с экспертами и выяснила, с какими проблемами столкнутся люди, если разные страны не смогут договориться между собой.

 Из-за пандемии коронавируса преимущества от внедрения киберфизических систем в общественно-экономическую сферу стали очевидны, причем во многих областях одновременно. Например, некоторые ученые используют системы искусственного интеллекта (ИИ) для выявления новых вспышек коронавируса.

 Ряд экспертов в области внедрения киберфизических систем считает, что вся эта отрасль может сыграть на руку человечеству, предложив решение множества проблем, и эта историческая возможность выпала именно сейчас, из-за коронакризиса. В частности, такое мнение выразили профессор и содиректор школы глобального менеджмента Thunderbird Университета штата Аризона Ландри Сигне, декан той же школы Санджив Каграм и соучредитель Nexus FrontierTech Марк Эспозито в статье для Project Syndicate.

 В своей статье эксперты привели пример Южной Кореи, где уже сейчас на 10 тысяч рабочих приходятся 774 робота, и многие другие азиатские страны тоже могут похвастаться успешными кейсами внедрения инноваций (например, Япония, уверенно идущая к лидерству в области автономного транспорта).

 Но есть и другие случаи, угрожающие активному развитию соответствующих отраслей во всем мире. Самый яркий из них – кризис в отношениях США и Китая, который то и дело переносится на вопросы внедрения новых технологий. Сюда можно отнести запреты и угрозы в отношении сотрудничества с Huawei и ZTE, беспрецедентный случай с продажей TikTok американской Oracle из-за давления со стороны Дональда Трампа, обвинения в том, что Китай ворует американскую интеллектуальную собственность и так далее. В результате вопросы, касающиеся новых технологий, вышли далеко за пределы фундаментальной науки, инноваций и экономики, обретя геополитический окрас и теперь активно обсуждаются в разрезе национальной безопасности.

 Авторы статьи приходят к выводу, что избежать подобных проблем можно только через усиление координации между частным сектором и государством, а так же широкое участие в решении подобных вопросов многосторонними учреждениями, то есть, по сути, международными организациями. В противном случае, утверждают авторы статьи, серьезных ошибок и низкоэффективных решений при реализации соответствующих программ никак не получится избежать.

Никто не знает, о чем говорить

 В беседе с «Газетой.Ru» директор по экономической политике ВШЭ Юрий Симачев сказал, что создание единых мировых стандартов при разработке и внедрении новых киберфизических систем было бы очень выгодно для всех стран с экономической точки зрения. Но у этого пути есть масса проблем, и они начинаются с того, что еще до пандемии мир фактически разочаровался в глобализации, что привело к активизации процессов регионализации экономики: страны стали больше замыкаться на построении взаимовыгодных отношений с ближайшими в территориальном смысле партнерами, а созданные ранее всемирные организации начали заметно уступать во влиянии региональным экономическим блокам.

 В таких условиях выработать единые стандарты практически невозможно, уверен Юрий Симачев, поэтому в отношении того же искусственного интеллекта это максимум будут общие тезисы вроде «не навреди». Дело в том, что создание тех же международных правил, единых для всех – крайне трудоемкий процесс, в результате которого все-равно не получается учесть интересы всех его сторон.

 «Искусственный интеллект – это всегда некоторая развилка между интересами человека и интересами общества, и она решается везде по-разному. Вот, например, берем технологии киберслежения. Есть штаты в Америке, где запрещены эти технологии, а в других странах (вроде Гонконга) общество поддерживает их применение, потому что больше порядок, больше безопасность», – объясняет эксперт.

 Пока существуют подобные проблемы, создавать новые международные организации в качестве регулирующих инструментов, по сути, бесполезно, уверен Юрий Симачев. Эксперт обратил внимание на то, что с той же ВТО сейчас очень много проблем, и она стала невыгодна как догоняющим, так и самым развитым странам в мире. При этом организация не решает накопившиеся в мире противоречия, а ее апелляционный орган еще с конца прошлого года де-факто парализован из-за того, что в него не могут назначить новых арбитров.

 Вице-президент «Сколтеха» в области искусственного интеллекта и математического моделирования Максим Федоров в беседе с «Газетой.Ru» обратил внимание на еще одну базовую проблему: выработать единые стандарты сейчас попросту невозможно из-за того, что фактически инициаторы таких идей зачастую говорят друг с другом на разном языке.

 «У нас экспоненциально растет скорость передачи данных, соответственно, сейчас на слуху связанные с анализом больших данных и машинным обучением технологии, из-за чего в массовом сознании и в головах различных управленческих кругов по всему миру сформировался некий мем, но никто с точностью не может объяснить, что такое искусственный интеллект. В мире вообще используется более ста определений этого термина», – сказал эксперт, отметив, что в том виде, в котором ИИ существует сейчас, его можно описать скорее как некий связанный с информационно-коммуникационным сектором набор технологий.

 По словам эксперта, проблема разных подходов хотя бы к терминологии существует и в профессиональном обществе. В результате получается, что вопросы регулирования отрасли пытаются обсуждать люди, которые часто уходят в философские рассуждения о том, можно ли считать искусственный интеллект разумом, и при этом мало кто из них реально хоть раз создавал подобные системы на практике.

 «Как эти вопросы могла бы курировать условная кибер-ВТО, тоже не совсем понятно: на данный момент в мире существуют всего несколько технических сообществ, которые договорились внутри себя, но это – всего лишь небольшие островки понимания», – говорит эксперт.

 В качестве примеров таких «островков» Максим Федоров привел ООН, которая обсуждает связанные с внедрением киберфизических систем на уровне ЮНЕСКО, Международную организацию по стандартизации (ISO), недавно открывшую соответствующий комитет, и Институт инженеров электротехники и электроники (IEEE), который первым написал этические принципы конструирования автономных и интеллектуальных систем. В целом, по мнению эксперта, организация, регулирующая целую отрасль киберфизических инноваций, должна быть чем-то вроде кибер-МАГАТЭ (Международное агентство по атомной энергии).

Все запретить

 Вопрос безопасности людей становится все более актуальным в связи с ускорением внедрения искусственного интеллекта и робототехники. Ближайшая аналогия, которая напрашивается сама собой – повсеместные запреты клонирования человека. В 2005-м году ООН приняла соответствующую декларацию, рекомендовав странам-участницам организации запретить все формы такой деятельности. Причем некоторые страны по собственной инициативе опередили ООН. Среди них была и Россия: у нас временный запрет на клонирование человека был принят Госдумой в апреле 2002-го года, а в 2010-м ограничение продлили до вступления в силу соответственного федерального закона.

 В беседе с «Газетой.Ru» Максим Федоров призвал не идти по пути полного запрета любых не до конца понятных широким слоям населения технологий.

 «Понятно, что есть люди вроде тех же амишей, которые живут в простоте и не признают большинство современных технологий. Но в целом боязнь новых технологий, в том числе искусственного интеллекта, к сожалению идет от недостатка технического образования, причем зачастую это касается и людей в высоких кабинетах», – сетует эксперт.

 С ним в целом согласился и Юрий Симачев из ВШЭ. Он отметил, что любые прямые запреты приводят только к тому, что определенные страны, в которых нет аналогичных ограничений, начинают выигрывать от этого, и в них начинают переезжать заинтересованные в работе над такими технологиями ученые.

 И все же есть некоторые технологии, на которые уже сейчас нужно обратить пристальное внимание, считает Максим Федоров. В качестве примера он привел различных роботов, способных общаться с людьми. Дело в том, что людям свойственно «подсаживаться» на такие вещи, они проявляют к ним сильную эмпатию, в то время как на деле роботы могут только симулировать взаимность, если это прописано в их коде. Из-за этого у людей могут возникать психические расстройства, и в этом смысле показателен пример Японии, где некоторые люди даже регистрируют брак с человекоподобными машинами.

 В разных странах могут диаметрально отличаться подходы к регулированию этой сферы. Так, в Китае предпочитают сначала что-то разработать, а потом уже разбираться, как это регулировать. В Евросоюзе, наоборот, принято относиться к подобным вещам более консервативно.

 Большую опасность несет в себе и чрезмерное увлечение внедрением подобных технологий в производство товаров, от который может непосредственно зависеть человеческая жизнь.

 Максим Федоров отметил, что если система в какой-то момент «сойдет с ума», то последствия могут быть фатальными. Причем уже сейчас активно развиваются методы атак на цифровые системы через данные, то есть, тем же нейросетям «скармливают» массив информации, который вызывает у нее программные сбои.

 Таким же угрозам могут быть подвержены и программы, управляющие производственными линиями на фармацевтических заводах. При сбое программа может намешать лекарства, способные убить человека, и это может быть выявлено уже после того, как ими отравятся.

 Схожая проблема была и у программного обеспечения, установленного на пассажирские самолеты Boeing 737 MAX. Внедренная компьютерная программа MCAS, главная задача которой – опускать нос самолета при его чрезмерном задирали в воздухе за последние два года привела к череде смертельных авиакатастроф.

 Кто и как должен нести ответственность в подобных ситуациях – тоже серьезная тема для дискуссий. Максим Федоров отметил, что некоторые крупные технологические компании даже пытаются проталкивать идею наделения искусственного интеллекта и роботов правовой ответственностью. То есть, если машина кому-то навредила, именно она и должна понести наказание. И по сути это звучит так же странно, как и теоретически может выглядеть: если программа нанесла вред человеку, следуя этой логике, отвечающие за исполнение наказаний органы должны уничтожить жесткий диск или флешку, на котором она записана.