Госдепартамент предупреждает об угрозе «вымирания» человечества из-за развития искусственного интеллекта
На модерации
Отложенный
Государственный департамент забил тревогу по поводу угрозы «уровня исчезновения», которую ИИ представляет для будущего человечества.
В докладе Gladstone AI содержится призыв к созданию официального органа для срочного регулирования развития ИИ, подчеркивая риски для национальной безопасности и потенциальную возможность уничтожения человечества.
Yournews.com сообщает: В докладе под названием «План действий по повышению безопасности и защищенности передового искусственного интеллекта» , подготовленном консалтинговой фирмой Gladstone AI по заказу Госдепартамента, содержится призыв к усилению государственного надзора за искусственным интеллектом (ИИ), чтобы смягчить «срочные и растущие риски для национальной безопасности» и предотвратить «угрозу вымирания человеческому виду».
В докладе предлагается создать новое федеральное агентство, которому будет поручено строгое регулирование развития ИИ, включая введение ограничений на вычислительную мощность, используемую системами ИИ, что ограничит технологический прогресс до уровня, близкого к текущим возможностям.
Рекомендации консалтинговой компании стали ответом на неоднозначные результаты, связанные с взаимодействием общественности с технологиями искусственного интеллекта, такими как ChatGPT, который подвергался критике за распространение дезинформации , политическую цензуру и демонстрацию аморального поведения , а также случаи злоупотреблений со стороны отдельных лиц .
Основное внимание в докладе уделяется развитию общего искусственного интеллекта (AGI), определяемого как ИИ, способный превосходить людей в экономически и стратегически значимых областях.
В докладе предупреждается о сценарии «потери контроля», при котором будущий ИИ может превзойти усилия по сдерживанию, сравнивая потенциальное воздействие с воздействием оружия массового уничтожения и предполагая возможность исчезновения человечества.
Повторяя опасения, высказанные генеральным директором OpenAI Сэмом Альтманом и другими в публичном заявлении о рисках ИИ , в отчете подчеркивается необходимость глобального приоритета в снижении рисков исчезновения ИИ, сравнимых с пандемиями и ядерной войной.
Альтман подчеркнул проблему приостановки исследований в области ИИ из-за международной конкуренции, особо отметив, что прекращение исследований в США не приведет к остановке в Китае. Он выступал за разработку стандартов предосторожности, которые могли бы быть приняты во всем мире в соответствии с рекомендациями отчета.
Предлагаемое федеральное агентство будет обеспечивать соблюдение строгих правил исследований ИИ, включая ограничения на вычислительную мощность и криминализацию несанкционированного распространения кода ИИ. Авторы отчета утверждают, что без таких мер конкурентное стремление к развитию ОИИ может привести к безрассудному прогрессу со стороны «передовых» компаний, которые будут ставить скорость выше безопасности и защищенности. Этот нормативный подход направлен на замедление разработки программного обеспечения, чтобы предотвратить преждевременное появление AGI из существующих или будущих технологий.
Однако в отчете признается ограниченность таких правил, отмечая вероятность того, что исследователи ИИ переедут в менее ограничительные юрисдикции для продолжения своей работы, подчеркивая сложность управления развитием ИИ в глобальном контексте.
Комментарии
Рептилоиды испугались, что так дело пойдёт, ИИ их самих отменит...
Человек всю свою историю изобретает средство себя уничтожить. То порох, то атом, то вирус, то ИИ. Псих какой-то этот Sapiens.
Михаил Керсонов, что есть, то есть...
Отличный советский фантастический фильм "Отроки во вселенной", а еще один - "Через тернии к зведам", актуальны сейчас как никогда.
человек так засрал Землю, и даже Космос, что пора его уничтожить...пусть земля перевернется,,,она была дана для счастья людям, а не для мусора и отходов , взаимных войн на уничтожение,,, так что чему быть, тому не миновать ..сами гадим, сами и сдохнем...
Кто-то пересмотрел фантастики
ИИ и создаётся для оптимального регулирования и не допущения перенаселения планеты самыми радикальными способами - не правда ли ,господа демократы? Но эти способы могут совсем не понравиться золотому миллиарду ( по последним заявлениям всего 500 миллионов) ,так как они могут оказаться в большинстве своём в числе уничтоженных ИИ. Почему - потому что ИИ как практичный и прагматичный аналитик не потерпит откровенных паразитов на теле нашей планеты...