Исследователи из Университета городов-побратимов Миннесоты создали устройство, которое, по их словам, может снизить энергопотребление ИИ как минимум в 1000 раз.
Обычно процессы машинного обучения или искусственного интеллекта передают данные между логикой, где информация обрабатывается внутри системы, и памятью, где данные хранятся.
Исследователи заявили, что такая транспортировка потребляет большое количество энергии и требует значительных ресурсов.
Но новое устройство постоянно хранит данные в так называемой вычислительной оперативной памяти (CRAM). Арифметическая память с произвольным доступом выполняет вычисления непосредственно внутри ячеек памяти, более эффективно используя структуру массива и устраняя необходимость в медленной и энергоемкой передаче данных.
«Настраиваемая оперативная память (CRAM) является высокоэнергетической основой для цифровых вычислений и очень гибка, поскольку вычисления могут выполняться в любом месте массива памяти», — сказала Оля Карбожко, соавтор исследования и доцент кафедры электротехники и электротехники. Компьютерная инженерия: «Мы можем переконфигурировать настраиваемую оперативную память (CRAM), чтобы лучше соответствовать требованиям производительности различных алгоритмов искусственного интеллекта».
«Он более энергоэффективен, чем традиционные строительные блоки сегодняшних систем искусственного интеллекта».
Исследователи отметили, что тесты ускорителя вывода машинного обучения на основе CRAM показали улучшение примерно в 1000 раз, а в других примерах была достигнута экономия энергии в 2500 и 1700 раз по сравнению с традиционными методами.
Эта работа расширяет предыдущие исследования команды в области магнитных туннельных переходов (MTJ), наноструктурированных устройств, используемых для улучшения жестких дисков, датчиков и других систем микроэлектроники, включая магнитную оперативную память (MRAM).
Наиболее эффективные устройства кратковременной оперативной памяти (ОЗУ) используют четыре или пять транзисторов для кодирования единицы или нуля, но один MTJ, гироэлектронное устройство, может выполнять ту же функцию, используя часть мощности, при более высокой мощности. Скорость и устойчивость к суровым условиям, говорят разработчики.
«Наша первоначальная концепция использования ячеек памяти непосредственно в вычислениях 20 лет назад считалась сумасшедшей», — сказал Цзяньпин Ван, ведущий автор исследования и выдающийся профессор Университета Макнайта.
Исследователи работают над рядом патентов и планируют сотрудничать с лидерами полупроводниковой отрасли для проведения крупномасштабных демонстраций.
Ранее в этом году Международное энергетическое агентство опубликовало прогноз глобального энергопотребления, в котором указано, что потребление энергии для искусственного интеллекта, вероятно, удвоится с 460 тераватт-часов в 2022 году до 1000 тераватт-часов в 2026 году, что примерно эквивалентно потреблению электроэнергии полностью в Японии.
На прошлой неделе Всемирный экономический форум предупредил, что генеративные системы искусственного интеллекта могут фактически использовать примерно в 33 раза больше энергии для выполнения задачи, чем программное обеспечение, ориентированное на конкретные задачи.
Другие инженеры также стремятся снизить энергопотребление ИИ: Nvidia утверждает, что ее новый «суперчип ИИ» может повысить производительность в 30 раз при запуске генеративных служб ИИ, потребляя при этом в 25 раз меньше энергии.
More Stories
Сложный подъем для велосипедистов
AirPods Pro в списке «лучших изобретений» показывает, что Apple по-прежнему впечатляет
Apple включает неожиданные улучшения функций в свой MacBook Pro начального уровня