Эксперт по ИИ Элиезер Юдковский призывает бомбить датацентры: радикальные меры для спасения человечества от сверх–ИИ

На модерации Отложенный

Рационалист и автор книги «Гарри Поттер и методы рационального мышления» почти 20 лет проводит исследования и стремится создать дружественного ИИ. Он не утверждает, что GPT–4 вызывает опасения — потенциально опасными могут стать нейронки через несколько лет.

Очень необычно его недавнее интервью для Time. Юдковский считает, что письмо, которое подписали Стив Возняк, Илон Маск и другие лидеры, уже не поможет — нужны более радикальные меры.

Отключить все крупные датацентры, установить предел вычислительной мощности и отрубить обучающие программы.

Если датацентры нарушают правила — нужно «уничтожить их авиаударом».

Иначе люди смогут создать враждебный сверх–ИИ, который в миллионы раз умнее их и не будет долго существовать внутри компьютеров.

Эксперт по ИИ Элиезер Юдковский призывает бомбить датацентры: радикальные меры для спасения человечества от сверх–ИИ