Госдепартамент предупреждает об угрозе «вымирания» человечества из-за развития искусственного интеллекта

На модерации Отложенный




Государственный департамент забил тревогу по поводу угрозы «уровня исчезновения», которую ИИ представляет для будущего человечества.


В докладе Gladstone AI содержится призыв к созданию официального органа для срочного регулирования развития ИИ, подчеркивая риски для национальной безопасности и потенциальную возможность уничтожения человечества.


Yournews.com сообщает: В докладе под названием «План действий по повышению безопасности и защищенности передового искусственного интеллекта» , подготовленном консалтинговой фирмой Gladstone AI по заказу Госдепартамента, содержится призыв к усилению государственного надзора за искусственным интеллектом (ИИ), чтобы смягчить «срочные и растущие риски для национальной безопасности» и предотвратить «угрозу вымирания человеческому виду».


 В докладе предлагается создать новое федеральное агентство, которому будет поручено строгое регулирование развития ИИ, включая введение ограничений на вычислительную мощность, используемую системами ИИ, что ограничит технологический прогресс до уровня, близкого к текущим возможностям.


Рекомендации консалтинговой компании стали ответом на неоднозначные результаты, связанные с взаимодействием общественности с технологиями искусственного интеллекта, такими как ChatGPT, который подвергался критике за распространение дезинформации , политическую цензуру и демонстрацию аморального поведения , а также случаи злоупотреблений со стороны отдельных лиц .


Основное внимание в докладе уделяется развитию общего искусственного интеллекта (AGI), определяемого как ИИ, способный превосходить людей в экономически и стратегически значимых областях.

В докладе предупреждается о сценарии «потери контроля», при котором будущий ИИ может превзойти усилия по сдерживанию, сравнивая потенциальное воздействие с воздействием оружия массового уничтожения и предполагая возможность исчезновения человечества.


Повторяя опасения, высказанные генеральным директором OpenAI Сэмом Альтманом и другими в публичном заявлении о рисках ИИ , в отчете подчеркивается необходимость глобального приоритета в снижении рисков исчезновения ИИ, сравнимых с пандемиями и ядерной войной. 


Альтман подчеркнул проблему приостановки исследований в области ИИ из-за международной конкуренции, особо отметив, что прекращение исследований в США не приведет к остановке в Китае. Он выступал за разработку стандартов предосторожности, которые могли бы быть приняты во всем мире в соответствии с рекомендациями отчета.


Предлагаемое федеральное агентство будет обеспечивать соблюдение строгих правил исследований ИИ, включая ограничения на вычислительную мощность и криминализацию несанкционированного распространения кода ИИ. Авторы отчета утверждают, что без таких мер конкурентное стремление к развитию ОИИ может привести к безрассудному прогрессу со стороны «передовых» компаний, которые будут ставить скорость выше безопасности и защищенности. Этот нормативный подход направлен на замедление разработки программного обеспечения, чтобы предотвратить преждевременное появление AGI из существующих или будущих технологий.


Однако в отчете признается ограниченность таких правил, отмечая вероятность того, что исследователи ИИ переедут в менее ограничительные юрисдикции для продолжения своей работы, подчеркивая сложность управления развитием ИИ в глобальном контексте.