Есть ли Бог, инопланетяне и будущее человечества? Отвечает Стивен Хокинг

Никита ШевцевЛюся Ширшова23 октябряПопулярное

Есть ли Бог, инопланетяне и будущее человечества? Отвечает Стивен Хокинг

Стивен Хокинг — физик, изменивший наши представления о вселенной. Ученый не успел закончить свое главное произведение — «Краткие ответы на большие вопросы», однако сейчас сборник увидел свет благодаря коллегам и единомышленникам покойного гения. Хотите узнать, что ученый думал об инопланетянах, путешествиях на другой край Вселенной, и когда, по оптимистичной оценке, мы, наконец, сможем предвидеть будущее?

Поделиться10Пошерить37РепостнутьТвитнуть

Хокинг — главный популяризатор науки XX века. Его книги расходятся миллионными тиражами, а открытия гениального физика-космолога ставили в тупик лучшие умы современности. В последние годы своей жизни Хокинг принялся за создание «Кратких ответов на большие вопросы» — книги, которая должна была стать квинтэссенцией всего его научно-популярного творчества. Увы, ученый скончался в марте 2018 года, однако на помощь коллеге пришли мировые величины научной мысли: законченный с помощью единомышленников opus magnum Хокинга вышел в свет 16 октября и имеет все шансы стать бестселлером.

Только Стивен Хокинг мог настолько исчерпывающе ответить на основные вопросы жизни, Вселенной и всего такого. Ответ на главный вопрос издатели книги вынесли в самую первую главу. И правильно, ведь каждому интересно достоверно знать, существует ли Всевышний. В главе «Есть ли Бог?» Хокинг потихоньку, со свойственной ему педантичностью и научностью подводит нас под окончательный вывод: Бога нет, и нами никто не управляет.

Вот что он пишет в «Кратких ответах на большие вопросы»:

«Все мы вольны верить во всё, во что захотим. Я считаю, что самый правильный ответ в том, что Бога не существует. Никто не создавал Вселенную, и никто не управляет нашей судьбой. Что до веры в загробную жизнь, то это лишь мечты. Этому факту нет никаких надежных подтверждений. Кроме того, он противоречит всему, что известно современной науке. Да, когда мы умираем, то обращаемся в прах. Но в нашей жизни есть смысл: он в нашем влиянии и генах, которые мы передаем своим детям».

«Краткие ответы на большие вопросы» — это манифест Стивена Хокинга, его послание потомкам и предостережение от неправильных решений. Книга придется по душе не только знатокам физики и любителям науки, но и тем, кто только решил всерьез ею увлечься. Как и практически все книги Стивена Хокинга, «Краткие ответы на большие вопросы» не содержит ни единой формулы. Так что вы, кажется, теперь знаете, чем заняться на выходных. А для затравки сделали перевод фрагмента, который опубликовала Times.

***

Я прожил потрясающую жизнь на этой планете, а силы ума и законов физики помогали мне путешествовать по Вселенной. Я побывал в самых дальних уголках нашей галактики, смог пройти через черную дыру и даже оказаться у самого начала времен. На Земле я переживал подъемы и падения, ощущал тревогу и покой, прошел через бедность и богатство, здоровье и немощь. Меня превозносили и критиковали — но никто не был равнодушен ко мне. Мне невероятно повезло сделать вклад в наше общее понимание Вселенной. Разделите со мной радость от все новых больших вопросов и размышлений над все новыми загадками. Я надеюсь, когда-нибудь мы найдем ответы на них.

Превзойдет ли нас искусственный интеллект?

Как бы нам ни хотелось причислить идею высокоинтеллектуальных машин к разряду фантастики, нам нельзя совершать эту ошибку — она слишком дорого нам обойдется.

Когда искусственный интеллект (ИИ) сможет самосовершенствоваться без человеческой помощи, его интеллектуальные способности превзойдут наши примерно так же, как сейчас человеческий интеллект превосходит интеллект улитки — и даже больше.

Поэтому нам нужна уверенность в том, что цели компьютеров совпадают с нашими.

Перед нами откроются огромные возможности. Мы не можем предугадать, чего конкретно мы достигнем с многократно усиленными интеллектуальными способностями, которые нам обеспечит искусственный интеллект. Может быть, мы избавимся от болезней и бедности. Создание ИИ может стать самым грандиозным событием в истории человечества. Увы, оно может стать и самым последним — если мы как следует не обдумаем риски.

Разработанные на настоящий момент примитивные формы искусственного интеллекта демонстрируют свою пользу, но меня пугают возможные последствия его развития, превосходящего наши возможности. Человека ограничивает низкая скорость эволюции, поэтому мы не сможем соперничать с ИИ. А в будущем у искусственного интеллекта может появиться воля, и не факт, что она совпадет с нашей.

Есть мнение, что человек сможет достаточно долго контролировать скорость развития технологий, что позволит реализовать потенциал ИИ для решения многих мировых проблем. Меня многие знают как прирожденного оптимиста, но даже я не был бы в этом так уверен. К примеру, в ближайшем будущем военные силы многих стран планируют создание автономной армии с системами оружия, способными самостоятельно наводиться на цель и уничтожать ее. ООН обсуждает конвенцию, запрещающую разработку такого вооружения, а сторонники автономного оружия забывают об одном важном вопросе: чем может обернуться такая армия? Мы действительно хотим, чтобы черный рынок наводнил вооруженный искусственный интеллект, где им могли бы торговать террористы и преступники? Если мы не уверены в том, что сможем контролировать развитие продвинутых систем искусственного интеллекта, стоит ли нам обеспечивать их оружием и вверять им заботу о нашей обороне?

Компьютеризированные трейдинговые системы в 2010 году привели к Flash Crash, краху фондового рынка. Разве то же самое не может произойти с компьютеризированными системами вооружения? Поэтому лучше остановиться прямо сейчас.

В среднесрочной перспективе ИИ может автоматизировать многие рабочие места и привести нас ко всеобщему равенству и благополучию. Если заглянуть еще дальше, перед нами не стоит никаких принципиальных преград: возможен переход к принципиально иной жизни, но она может выглядеть совсем не так, как рисуют нам фильмы.

В 1965 году математик Ирвинг Гуд предположил, что машины со сверхчеловеческим интеллектом способны совершенствовать свою конструкцию бесконечно. Итогом этого процесса станет так называемая технологическая сингулярность (термин впервые был употреблен фантастом Вернором Винджем). Можно представить, как технологии опережают нас на финансовых рынках, совершают открытия раньше исследователей, отодвигают на задний план общественных лидеров и подавляют нас оружием, о котором мы ранее и представления не имели. То есть если в краткосрочной перспективе важно, кто контролирует искусственный интеллект, в долгосрочной гораздо важнее, сможем ли мы контролировать его в принципе.

Одним словом, появление искусственного интеллекта станет либо величайшим, либо печальнейшим событием в истории человечества. Нам стоит опасаться не злого умысла ИИ, а его компетентности. Сверхчеловеческий интеллект сможет достигать сверхцелей, и, если они будут отличаться от наших, нам придется непросто. Необязательно быть ненавистником муравьев, чтобы уничтожить муравейник: достаточно затопить муравейник потоком воды от ближайшего экологически чистого производства. Мы же не хотим, чтобы человечество сгинуло так же, как популяция этих несчастных насекомых?

Без прогнозирования нам не обойтись. Представьте, что мы получили смс от высшей инопланетной цивилизации: «Будем через несколько десятилетий». Неужели мы ответили бы: «А, ну ок, приезжайте, ключ под ковриком»? Но по какой-то причине искусственному интеллекту мы отвечаем именно так, вместо того чтобы лучше исследовать этот вопрос.