Один запрос ChatGPT потребляет в 10 раз больше энергии, чем поисковый запрос Google
На модерации
Отложенный
Команда исследователей Google DeepMind представила новый метод обучения ИИ — JEST, который приведет к существенным изменениям в отрасли. По сравнению с предыдущими методами, новая технология позволит ускорить обучение ИИ и снизить энергопотребление в 10 раз. Эксперт по применению машинного обучения и искусственного интеллекта в области телекоммуникационных технологий и высокотехнологичного оборудования Андрей Жук рассказал «Газете.Ru» о принципе работы этой технологии и о том, как именно она повлияет на отрасль.
«Говоря простым языком, принцип работы нового метода заключается в том, что он обучает ИИ на основе целых «пакетов» данных, а не на отдельных примерах, как было в используемых до этого технологиях CLIP и BLIP. В соответствии с процессом JEST создается меньшая модель ИИ, которая оценивает и сортирует данные из самых качественных источников. Затем формируются «пакеты» данных наиболее релевантные для заданной тематики, с помощью которых малая модель ИИ обучает большую модель. Это похоже на то, как школьный учитель подбирает самые лучшие источники для обучения детей и составляет комплексную учебную программу, которая охватит все важные аспекты какой-то одной тематики. То есть JEST смотрит на данные, которые в него загрузили — комплексно, а не по отдельности, когда нужно было проводить много итераций для того, чтобы усвоить какой-то один тезис. И именно за счет этого происходит ускорение обучения ИИ и снижение потребляемой энергии в 10 раз», — объяснил он.
По словам эксперта, это важная веха в развитии искусственного интеллекта, поскольку экологический вред от огромного количества оборудования в дата-центрах уже и так колоссальный.
«Например, один запрос ChatGPT потребляет в 10 раз больше энергии, чем поисковый запрос Google. Потому что, чтобы выдать один корректный ответ на запрос, он сначала генерирует 10, и только потом выбирает среди них наилучший. Также средний «разговор» с ChatGPT на 20-30 вопросов «стоит» миру пол литра воды, которую дата-центры используют для охлаждения оборудования. Согласно отчету Goldman Sachs, к 2030 году дата-центры будут потреблять 3-4% всего электричества на планете. А в некоторых странах, например, в США, этот показатель составит 8%», — рассказал специалист.
Жук отметил, что среди общего количества потребляемой энергии дата-центров, 20% приходится именно на работу ИИ. Причем если оставить в стороне экологический ущерб от производства чипов и цепочек поставок, аналитики различных компаний считают, что к 2028 году потребление ИИ-вычислений достигнет 13,5-20 гигаватт, а это больше, чем потребление энергии целой Исландией.
«А в 2023 году крупнейшие технологические компании Google и Microsoft потребили по 24 ТВт*ч электроэнергии каждая, что превышает энергопотребление более чем 100 стран», — подчеркнул эксперт.
Компании-гиганты озабочены такими показателями, поэтому бросают свои усилия на применение возобновляемой энергии в работе своих дата-центров. Google пошел еще дальше и поставил себе амбициозную цель — к 2030 году полностью перейти на «безуглеродную энергию» на всех своих предприятиях. Также сейчас набирают популярность «подводные дата-центры», когда оборудование погружается в прибрежные воды различных стран.
«Это позволяет существенно экономить энергию на охлаждении оборудования и сокращать издержки при его установке — как ни странно, но за земле это сделать сложнее и дороже. Эксперименты с «подводными дата-центрами» уже ставит Microsoft, а также появились предположения, что Amazon, Google и Facebook (владелец компания Meta признана в России экстремистской и запрещена) проводят собственные исследования по переносу своих дата-центров под воду», — подчеркнул он.
В связи со стремлением крупнейших технологических компаний минимизировать вред окружающей среде новый метод обучения ИИ JEST — это еще один большой шаг к снижению потребления энергии, связанной со стремительным развитием искусственного интеллекта во всем мире.
«Вполне вероятно, что на горизонте полугода JEST будет активно применяться в Кремниевой долине, а также китайскими технологическими компаниями для ускорения разработки своих крупных ИИ-моделей. Однако несмотря на то, что технология значительно экономит энергию на этапе обучения ИИ, отрасли еще предстоит решить самую главную «экологическую» проблему — выдавать ИИ-ответы без создания десятков потенциальных ответов методом подбора и последующего выбора лучшего ответа под каждый запрос. Потому что именно на этот этап приходится 85% энергопотребления ИИ в центрах обработки данных», — резюмировал он.
Комментарии