Руководитель Google признает, что глобалисты используют ИИ для разработки «более смертоносных пандемий»

На модерации Отложенный


Руководитель Google признает, что искусственный интеллект скоро создаст еще более смертоносную пандемию

Бывший руководитель Google предупредил, что глобалистская элита в настоящее время использует искусственный интеллект (ИИ) для разработки новой, более смертоносной пандемии, которая приведет к обезлюдению мира.

Мустафа Сулейман, ранее занимавший должность ведущего руководителя в подразделении искусственного интеллекта Google DeepMind, говорит, что он глубоко обеспокоен тем, что неконтролируемые достижения в области искусственного интеллекта могут привести к новым, более смертоносным биологическим угрозам.

В интервью подкасту «Дневник генерального директора»  Сулейман предупредил: «Самый мрачный сценарий заключается в том, что люди будут экспериментировать с синтетическими патогенами, которые могут случайно или намеренно оказаться более заразными».

Сулейман также сказал, что эти синтетически созданные патогены, возникшие в результате исследований, проводимых искусственным интеллектом, «могут распространяться быстрее или [быть] более смертоносными… Они причинят больший вред или потенциально убьют больше, как пандемия».

Thefederalistpapers.org сообщает: Он подчеркнул острую необходимость ужесточения регулирования в отношении программного обеспечения для искусственного интеллекта.

Выразив гипотетическую, но вполне правдоподобную обеспокоенность, Сулейман поделился своим «самым большим страхом» по поводу того, что «ребенок в России» может генетически сконструировать новый патоген, который может спровоцировать пандемию, которая «более смертоносна», чем все, с чем мир сталкивался до сих пор, в ближайшие пять лет.

Признавая актуальность этой потенциальной угрозы, он сказал: «Именно здесь нам необходимо сдерживание. Мы должны ограничить доступ к инструментам и ноу-хау для проведения таких рискованных экспериментов».

13 сентября представители технологической отрасли соберутся в Вашингтоне на саммит по искусственному интеллекту, возглавляемый лидером сенаторского большинства Чаком Шумером, в голосе Сулеймана звучит ощущение безотлагательности.

«Мы в отрасли, которые ближе всего к этой работе, можем увидеть ситуацию через пять или 10 лет, где ситуация может выйти из-под контроля, и нам придется справиться с этим сейчас», — сказал он.

«Мы действительно экспериментируем с опасными материалами. Сибирскую язву нельзя купить через Интернет», — продолжил он. «Мы должны ограничить доступ к этим вещам».

«Мы должны ограничить доступ к программному обеспечению, на котором работают модели, к облачным средам, а с точки зрения биологии это означает ограничение доступа к некоторым веществам», — добавил Сулейман.

Его заявления  отражают  более широкие настроения в технологическом сообществе. Ранее в марте множество технологических магнатов взялись за бумагу, подписав открытое письмо, в котором предлагалось ввести шестимесячный мораторий на обучение искусственному интеллекту.

Илон Маск, генеральный директор Tesla и SpaceX, также поделился схожими опасениями, проводя параллели с вымышленными историями и предостерегая, что неконтролируемый ИИ потенциально может стать враждебным, во многом подобно роботам в популярном сериале «Терминатор».

Сулейман закончил на задумчивой ноте, заявив: «Никогда прежде при изобретении технологии мы не заявляли, что нам нужно действовать медленно».

Сначала нам нужно убедиться, что это не причинит вреда».

«Это беспрецедентный момент», — добавил он. «Ни одна другая технология не делала этого».