Будущее искусственного интеллекта зависит от энергетического прорыва
К 2030 году энергопотребление центров обработки данных в США достигнет 35 ГВт, что почти вдвое превышает уровень 2022-го — 17 ГВт. Согласно новому отчету консалтинговой компании Newmark, стимулировать этот рост будет повышающийся спрос на внедрение искусственного интеллекта: для машинного обучения требуются значительные вычислительные мощности. К тому же ИИ-системы становятся все более сложными.
Хотя гиперскейлерам (крупным компаниям-операторам дата-центров) обычно требуется 10–14 кВт на стойку в центрах обработки данных, для стоек с поддержкой искусственного интеллекта, оснащенных ресурсоемкими графическими процессорами, эта мощность, по прогнозам, увеличится до 40–60 кВт.
Аналитики отмечают, что многие существующие дата-центры уже не может удовлетворить этот спрос, уровень их доступности порой очень низкий: например, в районе залива Сан-Франциско составляет 0,5% мощности, в штате Аризона — 3,8%.
Между тем на днях в кулуарах Всемирного экономического форума в Давосе генеральный директор OpenAI Сэм Альтман заявил, что будущее искусственного интеллекта зависит от энергетического прорыва, так как для машинного обучения потребуется гораздо больше энергии, чем мы ожидали. Альтман делает ставку на энергию термоядерного синтеза.
Текст: Майя Цветкова
Источники: Data Center Dynamics; Yahoo! Finance
Изображение: Freepik
Подписывайтесь на каналы Let AI be в Telegram и «ВКонтакте» — оставайтесь в курсе главных новостей в сфере искусственного интеллекта!