Команда ученых из французских исследовательских центров разработала инновационную гибридную память, объединяющую ферроэлектрические конденсаторы (FeCAP) и мемристоры в одном кристалле. Технология позволяет выполнять как обучение, так и инференс нейронных сетей непосредственно на периферийных устройствах, что критически важно для автономных систем и персонализированных ИИ-приложений.
Основой решения стал единый стек памяти на базе кремний-допированного оксида гафния толщиной 10 нм, интегрированный в 130-нм КМОП техпроцесс. Все устройства изначально изготавливаются как FeCAP и могут быть преобразованы в мемристоры посредством одной электрической операции формовки. Исследовательская группа создала тестовый чип, содержащий 16 384 устройства FeCAP, подключенных к 2048 мемристорам, с соответствующими периферийными КМОП-цепями.
В разработанной архитектуре каждый вес нейросети связан с аналоговым значением, хранящимся как уровни проводимости в мемристорах, и высокоточным скрытым значением, сохраненным как знаковое 10-битное целое число в FeCAP. Операции умножения и накопления выполняются непосредственно в аналоговой области с использованием мемристоров, в то время как высокоточная память FeCAP обновляется при получении каждого нового входного сигнала. Аналоговые веса мемристоров обновляются периодически во время операций передачи весов.
Экспериментальные результаты показали конкурентоспособную точность по сравнению с программными моделями с плавающей точкой при соблюдении аппаратных ограничений по износостойкости. На задаче классификации MNIST метод достиг точности 96,7% при общем энергопотреблении около 38 нДж — это в 38 раз меньше без потери точности. Количество операций программирования остается в 17 раз ниже предела износостойкости мемристоров и в 75 раз ниже предела FeCAP.
Технология была успешно протестирована на задачах трансферного обучения с использованием нейросети MobileNet-V2 в качестве базового экстрактора признаков. Результаты на различных специализированных наборах данных (Oxford-IIIT Pet, Oxford Flowers 102, Caltech Birds и Stanford Cars) продемонстрировали умеренное снижение точности на 1,8–7,3 процентных пункта по сравнению с программными базовыми моделями, что открывает путь для адаптивного обучения на периферийных устройствах.
Источник новости и обложки: www.nature.com