Развертывание спайковых нейросетей на аналоговых CIM-ускорителях снизило энергию инференса в 72 раза. При этом задержка сократилась в 10 раз по сравнению с платой NVIDIA Jetson TX2.
Традиционное железо уперлось в «стену памяти»: разделение вычислений и хранения данных в архитектуре фон Неймана создает критические задержки. Это стало барьером для современных моделей, размер которых вырос в 5000 раз за последние 4 года.

Решением стала технология Compute-in-Memory (CIM), выполняющая матричные умножения непосредственно внутри массивов памяти. Аналоговые схемы используют закон Кирхгофа для суммирования токов на разрядных линиях, исключая энергозатратное перемещение данных. Такой подход позволяет интегрировать вычисления прямо в ячейки RRAM или MRAM.
Гибридная архитектура Fusion-FlowNet уже показала снижение ошибок на 40% и сокращение энергии в 1.87 раза по сравнению с методами на базе ANN. Это доказывает эффективность ко-дизайна алгоритмов и железа для создания «конвергентной платформы», объединяющей спайковые и искусственные нейросети.
Источник новости и обложки: www.frontiersin.org

