Объем потребления электроэнергии дата-центрами Искусственного Интеллекта за последние 7 лет вырос в 5000 раз. Энергоэффективность ИИ также растет, но она не успевает за производительностью моделей и скоростью их внедрения.
Как отмечают авторы отчета AI Index Report 2025, подготовленного Стэнфордским институтом искусственного интеллекта, первая нейросеть-трансформер от Google Brain, запущенная в 2017 году, потребляла примерно 4,5 тыс. ватт электроэнергии. Запущенная весной 2022 года флагманская модель PaLM от GoogleAL потребляла уже 2,6 млн вт. Представленная летом 2024 года модель Llama от запрещенной в России организации Meta потребляла уже 25,3 млн Вт. Это более чем в 5000 раз больше потребления первой модели-трансформера.
Согласно исследованию, вычислительные мощности моделей ИИ увеличиваются в 2 раза каждые 5 месяцев, а объёмы используемых данных для обучения больших языковых моделей — каждые 8 месяцев.
При этом стоимость запросов к моделям ИИ за два года подешевела в 285 раз. Если в ноябре 2022 года стоимость запроса в ChatGPT-3,5 оставляла $20 за миллион токенов, то в октябре 2024 года стоимость запроса в Gemini-1.5 упала до $0,07 доллара за миллион токенов. А стоимость запросов в Llama снизилась в зависимости от задачи от 9 до 900 раз в год.
Таким образом, использование ИИ становится все более широким и массовым, что в итоге будет окупать затраты на энергопотребление
С другой стороны, главным залогом энергоэффективности ИИ становится тот факт, что модели меньшего размера обеспечивают все более и более высокую производительность. Если в 2022 году самой маленькой скоростной моделью была PaLM с 540 миллиардами параметров, то в 2024 году тех же показателей эффективности добилась модель Microsoft Phi-3-mini с 3,8 миллиардами параметров. Это сокращение в 142 раза за два года.
В результате роста потребления электричества, дата-центры постепенно догоняют нефтегазовую промышленность по объемам выбросов СО2. Лидером по уровню выбросов углекислого газа стала модель Llama с выбросами 8,93 тыс. тонн в год. Это сопоставимо с эффектом от использования 1940 автомобилей в год. На втором месте GPT-4, допустивший 5,18 тыс. тонн выбросов CO2, что примерно равно годовым выбросам небольшого НПЗ. А вот китайский проект ИИ DeepSeek V3 2024 года генерирует только 593 т СО2 в год.
При этом в системе оценки углеродного налога, энергетические компании вынуждены оплачивать выбросы, произведенные дата-центрами.