Специалисты из IBM смогли запустить алгоритм машинного обучения прямо в запоминающем устройстве, а не процессоре. Для этого они использовали память на основе фазового перехода, которая может находиться не только в состоянии нуля и единицы, но и в промежуточных состояниях. Статья опубликована в журнале Nature Communications.
Классическая архитектура компьютеров, предложенная фон Нейманом в 1944 году и используемая в современной вычислительной технике, имеет заметный недостаток. Она подразумевает, что за обработку и хранение данных отвечают разные устройства, из-за чего процессор постоянно перемещает данные из памяти и обратно. Это снижает скорость и эффективность вычислений. Отчасти эту проблему решает кеширование, благодаря которому процессор может практически мгновенно получать часто используемые им данные.
Исследователи из IBM решили использовать другой подход — переместить хотя бы часть вычислений из процессора в саму память. Для этого они создали память с изменением фазового состояния на основе легированного GeSbTe. Каждая ячейка памяти представляет собой небольшой объем этого материала, который помещен между двух электродов. В обычном состоянии материал имеет кристаллическое строение. Для изменения значения ячейки через материал пропускают пульсирующий ток, который плавит часть его объема. Если этот ток резко прекращается, материал быстро охлаждается и затвердевает, но не в кристаллическую фазу, а в аморфную. Поскольку его аморфная форма плохо проводит ток, регулируя ее объем относительно кристаллической можно записывать в ячейку не только бинарные значения (единица или ноль), но и промежуточные.
Исследователи создали чип на основе такой памяти, состоящий из трех миллионов ячеек. Они решили проверить, можно ли с его помощью проводить обработку данных, такую как определение корреляции. К примеру, они взяли набор данных о погоде с 270 метеорологических станций в США, в котором каждый час помечался как дождливый или нет. За счет того, что данные изменяли проводимость ячеек, ученые смогли установить корреляцию между данными с разных метеостанций. Затем они проверили эти результаты с помощью метода k-средних. Выяснилось, что в 245 из 270 случаев метод дал такую же оценку. Исследователи отмечают, что такие чипы потенциально можно применять и в классических компьютерах с фон-неймановской архитектурой.
В 2014 году IBM показал другую значимую разработку, архитектура которой отличается от фон-неймановской — нейроморфный процессор TrueNorth, имитирующий работу настоящих нейронов. А в 2016 году исследователи компании смогли адаптировать для работы на таких чипах сверточные нейросети, которые известны своими практическими применениями, например, в области распознавания образов.
Григорий Копиев
Она расшифровала тона и слоги независимо друг от друга
Исследователи из Китая предложили модульную многопоточную нейронную сеть, которая на основе нейронных записей синтезировала речь на тоновом языке. С ее помощью удалось декодировать восемь тоновых слогов китайского языка. Авторы показали, что их метод точнее, чем классические базовые методы глубоких нейронных сетей. Исследование опубликовано в Science Advances.