Нет, не пандемия. Сооснователь Skype назвал главные угрозы человечеству

Один из разработчиков Skype Яан Таллинн определил, что, по его мнению, является тремя самыми большими угрозами существованию человечества в этом столетии. По его словам, это искусственный интеллект, синтетическая биология и так называемые «неизвестные переменные», при этом «изменение климата не будет представлять собой серьезную опасность».

Синтетическая биология — это проектирование и создание новых биологических частей, устройств и систем, в то время как неизвестные переменные — это «вещи, о которых мы, возможно, в принципе не можем сейчас знать», согласно Таллинну.

Эстонский программист, который помогал создать платформу для обмена файлами Kazaa в 90-х и службу видеозвонков Skype в 00-х, в последние годы все больше беспокоится именно об искусственном интеллекте. «Изменение климата не станет риском для существования, если не будет неконтролируемого сценария», — сказал он через Skype.

Из трех угроз, которые больше всего беспокоят Таллинна, он сосредоточен на искусственном интеллекте, и он тратит миллионы долларов, чтобы попытаться обеспечить безопасное развитие технологии. Это включает в себя ранние инвестиции в лаборатории искусственного интеллекта, такие как DeepMind (отчасти для того, чтобы он мог следить за тем, что они делают) и финансирование исследований безопасности ИИ в таких университетах, как Оксфорд и Кембридж.

Ссылаясь на книгу оксфордского профессора Тоби Орда, Таллинн сказал, что вероятность того, что люди не выживут в этом столетии, составляет один из шести. Согласно книге, одной из самых больших потенциальных угроз в ближайшем будущем является именно ИИ, в то время как вероятность того, что изменение климата приведет к вымиранию человечества, составляет менее 1%.

Когда дело доходит до искусственного интеллекта, никто не знает, насколько умными станут машины, и попытки угадать, насколько продвинутым будет ИИ в следующие 10, 20 или 100 лет, практически невозможно.

Попытки предсказать будущее ИИ еще больше осложняются тем фактом, что системы ИИ начинают создавать другие системы ИИ без участия человека.

«Есть один очень важный параметр при попытке предсказать ИИ и будущее. Насколько сильно и как именно развитие ИИ будет влиять на разработку ИИ? Мы знаем, что ИИ в настоящее время используются для поиска архитектур ИИ», — сказал Таллинн.

Если выяснится, что ИИ не очень хорош в создании других ИИ, тогда нам не нужно слишком беспокоиться, так как будет время для «рассредоточения и развертывания» возможностей, сказал Таллинн. Однако, если ИИ умеет создавать другие ИИ, то «очень оправданно беспокоиться… о том, что произойдет дальше», — сказал он.

Таллинн объяснил, что есть два основных сценария, которые рассматривают исследователи безопасности искусственного интеллекта. Первый — это несчастный случай в лаборатории, когда исследовательская группа покидает систему ИИ, чтобы тренироваться на некоторых компьютерных серверах вечером, а «утром мира больше нет». Во втором случае исследовательская группа создает прототипную технологию, которая затем принимается и применяется в различных областях, «где они в конечном итоге приводят к нежелательным последствиям».

Таллинн сказал, что он больше сосредоточен на первом, поскольку меньше людей думают о таком сценарии. По словам Таллинна, некоторые компании относятся к безопасности искусственного интеллекта более серьезно, чем другие. DeepMind, например, поддерживает регулярные контакты с исследователями безопасности ИИ в таких местах, как Институт будущего человечества в Оксфорде. В нем также работают десятки людей, которые сосредоточены на безопасности ИИ.

На другом конце шкалы, по словам Таллинна, такие корпоративные центры, как Google Brain и Facebook AI Research, менее вовлечены в сообщество по безопасности искусственного интеллекта.

Источник: https://nv.ua/techno/innovations/ugrozy-chelovechestvu-50133215.html

6
546
9