Приветствуем вас, дорогие читатели!
В последних статьях мы говорили о SpiNNaker – уникальном решении для имитации работы спайковых нейронных сетей. Сегодня мы переходим к другому инновационному подходу – архитектуре Tianjic, которая объединяет инженерные решения в области искусственных (ANN) и спайковых нейросетей (SNN). Почему стоит говорить о Tianjic? В отличие от узкоспециализированных решений, таких как TrueNorth, Tianjic предлагает универсальный гибридный подход, способный работать с разнообразными нейронными моделями на одном кристалле, что открывает новые горизонты в разработке искусственного общего интеллекта (AGI).
Современный искусственный интеллект (ИИ) достиг впечатляющих успехов в решении специализированных задач — от распознавания образов и голосов до игры в шахматы и управления автономными автомобилями. Однако большинство существующих ИИ-систем остаются "узкими" — они хорошо справляются только с заранее определёнными сценариями и требуют огромных вычислительных ресурсов. Искусственный общий интеллект (Artificial General Intelligence, AGI), способный к универсальному обучению, адаптации и многозадачности, остаётся лишь амбициозной целью.
Одна из главных причин этого разрыва — фундаментальные различия между двумя основными подходами к созданию ИИ:
-
Методы компьютерных наук, основанные на искусственных нейронных сетях (ANN) — например, глубокие сверточные или рекуррентные сети. Они демонстрируют высокую точность в обработке изображений, речи и текста, но требуют значительных вычислительных мощностей и плохо справляются с обработкой в реальном времени или неполных данных.
-
Нейроморфные подходы, вдохновлённые биологией мозга, используют спайковые нейронные сети (SNN). Эти сети имитируют работу биологических нейронов, обрабатывая данные через событийные импульсы (спайки) и достигая высокой энергоэффективности. Однако их обучение и практическое применение до сих пор остаются сложной задачей.
На протяжении многих лет эти два направления развивались обособленно, требуя различных алгоритмов, моделей и, самое важное, несовместимых аппаратных платформ. ANN работают на GPU и TPU, оптимизированных для операций с плавающей точкой, тогда как SNN нуждаются в специализированных нейроморфных чипах вроде IBM TrueNorth или Spinnaker. Tianjic ломает эту парадигму. Это первый в своём роде чип, который объединяет оба подхода в одной аппаратной платформе. Tianjic не просто ускоряет выполнение ИИ-алгоритмов — он предлагает новую архитектурную философию: гибридную интеграцию ANN и SNN. Благодаря этому Tianjic становится шагом к аппаратным решениям для AGI, где различные типы нейронных сетей могут бесшовно взаимодействовать, дополняя сильные стороны друг друга.
История создания Tianjic: от идеи до первых прототипов
В начале 2010‑х годов в научном сообществе наблюдалась острая потребность в объединении двух парадигм искусственного интеллекта: нейроморфных вычислений, основанных на спайковых нейронных сетях (SNN), и глубокого обучения (ANN). Несмотря на успех каждой из этих областей, их реализация на разрозненных аппаратных платформах ограничивала возможности междисциплинарных исследований и гибкость применения. Этот вызов стал отправной точкой для разработки архитектуры, способной объединить оба подхода в едином устройстве.
Идеи и цели
Мысль о создании гибридной платформы, способной одинаково эффективно работать со спайковыми (SNN) и непрерывными (ANN) сетями, возникла в Университете Цинхуа (Пекин), где под руководством профессора Лупин Ши (Luping Shi) объединилась команда учёных из Центра вычислительных исследований, вдохновлённых работой мозга (Center for Brain Inspired Computing Research, CBICR). Они заметили, что раздельные аппаратные решения для спайковых и классических нейронных моделей существенно тормозят прогресс в области гибридных систем. Их амбициозная цель состояла в том, чтобы приблизиться к аппаратным основам общего искусственного интеллекта (AGI), объединив в одном чипе биологическую правдоподобность нейроморфных сетей и вычислительную мощь традиционного глубокого обучения.
Формирование концепции и первые прототипы
Активная работа над архитектурой, получившей название Tianjic, велась с 2015 по 2017 год и привела к созданию первых поколений чипа. Авторы сформировали круг технических требований, предусматривающих "универсальное вычислительное ядро" — Unified Functional Core (UFC). В нём набор аппаратных блоков мог переключаться между спайковым и непрерывным режимами, обеспечивая как пороговую генерацию сигналов, так и стандартные операции вроде векторно-матричного умножения (например, для ReLU-активации). Чтобы обеспечить масштабируемость, каждое UFC снабдили локальной памятью (LSM), а маршрутизацию данных организовали через Network Connector (NC), поддерживающий передачу как спайковых событий, так и числовых весов.
Аппаратное воплощение
К 2018 году был завершён топологический дизайн и изготовлен опытный образец Tianjic. Для его производства использовался 28-нм техпроцесс, который позволил разместить на одном кристалле более сотни UFC-ядер. По данным авторов, в ранней версии чипа Tianjic насчитывалось 156 таких "универсальных блоков".
Научный резонанс
В 2019 году в журнале Nature вышла статья «Towards artificial general intelligence with hybrid Tianjic chip architecture». Она оказалась на обложке и получила широкий резонанс в научном сообществе и СМИ. Авторы наглядно показали, что один и тот же чип способен выполнять как классические операции сверточных нейронных сетей (Convolutional Neural Networks, CNN) и рекуррентных сетей с механизмом долгой кратковременной памяти (Long Short-Term Memory, LSTM), так и обрабатывать спайковые сигналы, характерные для биологически правдоподобных моделей. Энергопотребление при этом оставалось на уровне или ниже, чем у ряда специализированных GPU и ASIC-решений.
Развитие
Со времени публикации разработчики продолжают совершенствовать Tianjic, выпуская новые версии чипа в более тонких техпроцессах и добавляя режимы для биоподобных динамических сетей (BDyNN). Параллельно развивается ПО — компиляторы и фреймворки, автоматизирующие “отображение” (mapping) различных видов нейронных сетей на UFC-ядра и позволяющие пропускать незначимые элементы (row/column skipping). В мире ИИ Tianjic рассматривают уже не как экзотику, а как важный шаг к “общему” нейро-вычислительному подходу, где классический deep learning может сосуществовать со спайковыми алгоритмами на одном и том же кристалле, формируя фундамент для будущих аппаратных платформ AGI.
Архитектура Tianjic
Ключевым элементом архитектуры является набор из специализированных вычислительных ядер, именуемых FCore. Каждое ядро реализует модуль, имитирующий базовую единицу нейронной обработки, и обладает следующими структурными компонентами:
-
Axon (входной интерфейс):принимает входящие сигналы, которые могут быть как аналоговыми значениями (для ANN), так и дискретными импульсами (для SNN).
-
Dendrite (с локальной памятью): каждый FCore содержит встроенную SRAM, организованную в матрицу (например, 256×256), где хранятся веса для синаптических связей. Эта локальная память позволяет значительно сократить задержки доступа по сравнению с традиционной архитектурой «схема-оперативная память», поскольку большинство операций выполняется без обращения к внешней памяти.
-
Soma (блок нелинейной обработки): в зависимости от режима работы блок soma выполняет либо произвольную нелинейную функцию (реализуемую с помощью программируемой таблицы, LUT) для ANN-режима, либо моделирует динамику спайкового нейрона (например, модель утечки интегрирующего нейрона LIF) для SNN-режима.
-
Router (маршрутизатор): отвечает за передачу данных между ядрами, используя унифицированный протокол для обоих типов вычислений. Он обеспечивает высокоскоростное и асинхронное взаимодействие между FCore, что критично для поддержания параллелизма и распределенной обработки данных.
Каждое ядро Tianjic спроектировано таким образом, чтобы его можно было динамически конфигурировать для работы в режиме ANN или SNN. Такая универсальность позволяет одному и тому же аппаратному блоку выполнять разнородные вычислительные задачи, что особенно важно для гибридных нейросетей.
Гибридная модель вычислений
Одной из уникальных особенностей Tianjic является возможность одновременного выполнения непрерывных вычислений и обработки спайковых сигналов. Это достигается за счёт:
-
Перехода между режимами: конфигурация каждого FCore задаётся компилятором, который определяет, в каком режиме будет работать конкретное ядро. Таким образом, в рамках одной нейросети могут существовать слои, реализующие как традиционные операции (свёртки, полносвязные слои), так и биологически правдоподобное моделирование спайков.
-
Унифицированного формата пакетов: для обмена информацией между ядрами применяется единый протокол, который кодирует как непрерывные значения, так и адресные события (Address-Event Representation, AER). Это упрощает интеграцию разнородных вычислительных моделей в единую систему и позволяет эффективно управлять асинхронными событиями.
Коммуникационная сеть
Взаимодействие между FCore реализовано через двухмерную (2D) сеть типа mesh, которая обеспечивает следующие преимущества:
-
Высокая пропускная способность: локальные соединения позволяют передавать данные между ядрами с минимальными задержками, достигая внутренних скоростей передачи данных порядка сотен гигабайт в секунду.
-
Асинхронность обмена: использование AER позволяет ядрам передавать информацию только при наличии события, что экономит энергию и уменьшает избыточную передачу данных.
-
Масштабируемость: архитектура сети позволяет объединять несколько чипов в одну систему, что даёт возможность расширения числа нейронов и синапсов при необходимости обработки более сложных моделей.
Оптимизация энергоэффективности
Проектирование Tianjic ориентировано на минимальное энергопотребление. Локальное хранение данных, асинхронный обмен информацией и специализированные вычислительные блоки позволяют существенно снизить затраты энергии при выполнении нейросетевых операций. При этом использование 8-битной арифметики для представления весов и активаций незначительно влияет на точность вычислений, что делает архитектуру оптимальной для приложений, где важны скорость и энергоэффективность.
Роль специализированных аппаратных оптимизаций
Технические решения, реализованные в Tianjic, отражают целенаправленную оптимизацию под гибридные вычислительные задачи:
-
Локализация вычислений: прямое хранение весов и промежуточных данных в каждом FCore минимизирует необходимость в медленных внешних обращениях к памяти.
-
Программируемая гибкость: возможность переключения режимов работы FCore позволяет динамически адаптировать аппаратное обеспечение под конкретные вычислительные модели, что особенно важно при реализации гибридных нейросетей.
-
Синхронизация и маршрутизация: разработанная сеть маршрутизации, основанная на асинхронном обмене пакетами, гарантирует, что даже при высоком уровне параллелизма данные передаются с минимальными задержками, что критично для обработки в реальном времени.
Архитектура Tianjic представляет собой комплексное и инновационное решение, совмещающее преимущества как традиционных нейросетевых моделей (ANN), так и биологически вдохновленных спайковых нейросетей (SNN). Такой гибридный подход позволяет не только существенно повысить скорость инференса и снизить энергопотребление, но и предоставляет платформу для дальнейших исследований в области искусственного общего интеллекта. Многоуровневая структура (от специализированных вычислительных ядер до высокоскоростной коммуникационной сети) демонстрирует, как глубокая интеграция аппаратных и программных решений может решить задачи, ранее считавшиеся несовместимыми на одном устройстве.
На этом мы завершаем первую часть статьи, где познакомились с ключевыми идеями и архитектурными особенностями Tianjic, а также проследили историю его создания и развития. Во второй части мы продолжим наш рассказ о Tianjic: поговорим о программировании данной системы и её практических демонстрациях, сравним Tianjic с другими нейроморфными решениями — SpiNNaker и TrueNorth, а также рассмотрим ограничения и вызовы, с которыми сталкиваются разработчики на пути к созданию аппаратных платформ для AGI. Следите за обновлениями и до скорой встречи!
Спасибо, что вы с нами!
С уважением, команда MemriLab!
Источники: