Данная статья содержит в тезисной форме сравнение эффективности современных LLM и человеческого мозга.

Преамбула: Человеческий мозг эффективнее LLM в 10–30 миллионов раз по энергопотреблению на один когнитивный акт.
Причина — фундаментальные различия в архитектуре, принципах обучения и физической реализации.
Часть 1. Цифры для понимания масштаба
|
Параметр |
Человеческий мозг |
Современная LLM (например, GPT-4) |
|
Энергопотребление |
~20 Вт (всего) |
~1–3 МВт (тренировка) / ~1–10 кВт (инференс) |
|
Операций в секунду (эквивалент) |
~10¹⁶ синаптических операций |
~10¹⁵–10¹⁶ FLOPs |
|
Энергия на одну операцию |
~1–2 × 10⁻¹⁸ Дж (аттоджоули) |
~10⁻¹²–10⁻¹⁰ Дж (пикоджоули) |
|
Энергоэффективность |
100 триллионов операций на ватт |
~0,001–1 операция на ватт ( мозг в 10¹⁴ раз эффективнее) |
То есть мозг делает в 100 миллионов раз больше «полезной работы» на единицу энергии, чем лучшие современные чипы, запускающие LLM.
Часть 2. Главные причины энергоэффективности мозга
Причина 1. Аналоговые вычисления против цифровых
Мозг: нейроны и синапсы работают аналогово. Вместо представления чисел битами (0 и 1) нейроны интегрируют непрерывные градиенты нейромедиаторов, ионных токов и мембранных потенциалов. Это позволяет одному синапсу выполнять сложные нелинейные вычисления, для которых в цифровом мире нужны тысячи транзисторов.
LLM: работают на цифровых чипах (GPU/TPU), где каждый бит информации требует отдельного транзистора, а умножение матриц — миллиарды операций с плавающей запятой. Цифровая абстракция (отделить данные от вычислений, хранить точность 16/32 бита) невероятно расточительна.
Аналогия: мозг считает «на пальцах» с бесконечной градацией, а LLM — перебирает гигантские таблицы умножения с 32-значными числами, даже когда нужно просто понять, что 2+2=4.
Причина 2. Рекуррентность и временная динамика (вместо глубины)
Мозг: нейронные сети рекуррентны и динамичны. Один и тот же нейрон участвует в вычислениях многократно, информация циркулирует по петлям обратной связи. Время — это ресурс вычислений.
LLM: трансформеры статичны и последовательны. Каждый токен проходит через все слои (например, 96 слоев в GPT-4) за один проход. Чтобы учесть контекст в 1000 токенов, модель должна выполнить 96×1000× (огромное число) операций.
Энергетический эффект: мозг «растягивает» вычисления во времени, используя одни и те же нейроны многократно. LLM расплачивается гигантским количеством параллельных операций, каждая из которых требует энергии.
Пример: чтобы запомнить слово из 5 букв, LLM нужно пропустить его через миллиарды параметров. Мозг просто изменяет вес одного синапса.
Причина 3. Разреженность (sparsity) — почти никто не работает одновременно
Мозг: в любой момент времени активно только 1–10% нейронов. Остальные молчат. Это называется разреженное кодирование.
LLM: в трансформерах в каждый момент задействованы все параметры модели (например, 1.8 триллиона параметров у GPT-4). Даже при инференсе активируется почти вся сеть.
Энергетический эффект: мозг включает «ту самую нужную» маленькую подцепь для задачи. LLM греет всю планету, чтобы ответить на вопрос «как тебя зовут?».
Причина 4. Обучение один раз — использование многократно (без обратного прохода при инференсе)
Мозг: обучение (синаптическая пластичность) происходит локально и постепенно. Для использования уже выученного не нужно делать обратное распространение ошибки (backpropagation).
LLM: обучение требует многократного прохода всей базы данных с обратным распространением ошибки через все слои — это в 3–5 раз больше операций, чем прямой проход. Но даже при инференсе (использовании) трансформер выполняет гигантское число умножений матриц, которые биологический нейрон заменяет одной локальной операцией.
Энергетический эффект: мозг не делает «обратного хода» во время мышления. LLM на GPU считает ту же сложность, что и при обучении, только без изменения весов.
Причина 5. Использование физики для вычислений (биохимия и ионные каналы)
Мозг: каждый синапс — это молекулярная машина, работающая на энергии АТФ (∼0.3 эВ на акт). Переключение ионного канала требует ∼10⁻²⁰ Дж — это тепловой шум. Мозг работает на пределе термодинамического минимума.
LLM: транзистор в GPU переключается с энергией ∼10⁻¹⁵ Дж (при 5 нм техпроцессе) — это в 100 000 раз больше физического минимума. А умножение матриц на 32-битных числах требует миллионов таких переключений.
Ирония: природа «вычислила» за 3.5 миллиарда лет эволюции, что энергетически выгоднее использовать химические градиенты и ионные токи, чем электроны в кремнии.
Причина 6. Огромная база знаний, встроенная в архитектуру (не в веса)
Мозг: не просто нейронная сеть, а сложная архитектура с врожденными структурами: зрительная кора, слуховая кора, гиппокамп, мозжечок и т.д. Эволюция уже «заплатила» энергией за эти структуры, и они достаются бесплатно каждому новому человеку.
LLM: всю структуру (каждый слой, каждую связь) нужно выучить с нуля из данных. Это требует гигантских энергозатрат на обучение (сотни ГВт·ч для GPT-3), которые потом амортизируются при использовании, но все равно остаются огромными.
Часть 3. Конкретный пример: почему GPT-4 тратит 100 кВт·ч, а мозг — 0.0005 кВт·ч на тот же ответ
Возьмем задачу: «В чем разница между метаном и этаном?»
|
Что делает мозг |
Энергия |
Что делает GPT-4 |
Энергия |
|
Активирует ~10 млн нейронов в коре (из 86 млрд) |
~0.1 Дж |
Загружает 1.8 трлн параметров в память |
~1 кВт·ч (3.6 МДж) |
|
Проводит ~100 спайков через каждые 100 мс |
~0.01 Дж |
Выполняет 10¹⁶ операций умножения матриц |
~10 кВт·ч (36 МДж) |
|
Изменяет ~10 синапсов (если что-то запомнил) |
~10⁻¹⁶ Дж |
Ничего не меняет (инференс) |
0 |
|
ИТОГО |
~0.1 Дж (0,00003 Вт*ч) |
~10 кВт·ч (36 000 000 Дж) |
|
Разница в 360 миллионов раз.
Часть 4. Почему LLM такие неэффективные — можно ли исправить?
LLM неэффективны по дизайну. Трансформер был изобретен для машинного перевода, где нужно обрабатывать последовательности фиксированной длины с максимальной параллельностью. Параллельность — это хорошо для GPU (считают быстро), но ужасно для энергоэффективности.
Что делают, чтобы приблизиться к мозгу:
|
Технология |
Идея |
Текущий статус |
|
Разреженные трансформеры |
Активировать только 5–10% весов на токен |
Работает, но сложно обучать |
|
Нейроморфные чипы (Intel Loihi, IBM TrueNorth, SpiNNaker) |
Аналоговые вычисления, спайковая нейронная сеть |
В 10 000 раз эффективнее GPU, но пока не умеют обучать как LLM |
|
Квантование до 4–8 бит |
Вместо 16–32 бит точности |
Уже используют (4 бита — точность падает, но не критично) |
|
Модели с «включением экспертов» (MoE) |
Включать только 10% параметров на токен |
Используют в Mixtral, Gemini — в 5–10 раз эффективнее |
|
Жидкие нейронные сети (Liquid SNN) |
Рекуррентные, с временной динамикой |
Только исследования |
Но: даже лучшие нейроморфные чипы все еще в 1000 раз менее энергоэффективны, чем мозг, потому что они не используют биохимические градиенты (ионные каналы, молекулярные моторы).
Итог: почему мозг лучше (и можно ли догнать)
|
Причина |
Эффект (разница в энергопотреблении) |
|
Аналоговые вычисления |
× 10⁴ – 10⁶ |
|
Разреженность (1% нейронов активно) |
× 10² |
|
Рекуррентность (вычисления во времени) |
× 10² |
|
Локальное обучение без backprop |
× 10¹ – 10² |
|
Использование биохимии (ионные каналы) |
× 10⁴ – 10⁵ |
|
ИТОГО |
× 10¹⁰ – 10¹⁴ |
Можно ли догнать?
Если мы создадим аналоговые спайковые нейроморфные чипы, работающие на пределе теплового шума, и научим их обучаться локально (как STDP — spike-timing-dependent plasticity) — то да, в теории, через 20–30 лет можно приблизиться к эффективности мозга. Но для этого придется отказаться от цифровой абстракции, точности 32 бита и обратного распространения ошибки — то есть от всего, на чем построены современные LLM.
Пока же LLM — это гигантский паровой молот, который забивает маленькие гвозди, потребляя энергию небольшого города.
Когда нейроморфные чипы (которые в 10 000–100 000 раз эффективнее GPU) станут реальностью?
Короткий ответ: они УЖЕ существуют, и их уже можно купить или арендовать в облаке. Но это не потребительские устройства — это специализированное оборудование для исследователей, оборонных структур и промышленности.
Часть 1. Что уже существует и работает прямо сейчас
1.1 SpiNNaker2 — самый мощный коммерческий нейроморфный суперкомпьютер
Статус: уже развернут и работает. Первая установка — в Sandia National Laboratories (США, ядерная безопасность).

Характеристики:
· 5 млрд нейронов в полуконфигурации (максимальная коммерческая версия — 10 млрд)
· 5.25 млн ядер ARM M4F на чипах (152 ядра на чип, 48 чипов на карту, 90 карт в стойке, 8 стоек)
· Работает без операционной системы и дисков — данные хранятся только в SRAM и DRAM для максимальной скорости
· Энергоэффективность: динамическое изменение напряжения от 0.45В до 0.6В, частоты — в зависимости от нагрузки
Где используется:
· Sandia National Laboratories (национальная безопасность США)
· Дрезденский технический университет (Германия) — закупили систему за €250,000
· Доступен через облако (можно арендовать)
Цена: публично не раскрыта, но тендер на воздушную систему SpiNNaker2 составил €250,000. Полная конфигурация на 10 млрд нейронов будет значительно дороже.
Ключевая особенность: это гибридная система — поддерживает и спайковые нейронные сети (SNN), и глубокие нейронные сети (DNN), и символьный AI. Можно запустить GPT-слой прямо на нейроморфном чипе.
1.2 BrainChip Akida 2.0 — коммерческий чип для edge AI
Статус: уже в производстве. Проект AKD2500 запущен в феврале 2026 года, прототип ожидается в Q3 2026.
Характеристики:
· Техпроцесс TSMC 12 нм
· Бюджет разработки: $2.5 млн
· Работает на принципе событийно-управляемых вычислений (как мозг: спайки только когда нужно)

BrainChip Akida 2.0 — второе поколение нейроморфной процессорной платформы, разработанной компанией BrainChip. Имитирует работу человеческого мозга для эффективной обработки данных на граничных устройствах, обеспечивая высокую производительность при низком энергопотреблении.
Для чего: обработка сенсорных данных на краю (edge AI) — умные датчики, носимые устройства, промышленный IoT.
Цена: отдельно чип не продается — BrainChip продает IP-лицензии производителям чипов. Стоимость лицензии не раскрыта.
1.3 SynSense Xylo — ультра-низкопотребляющие чипы
Статус: коммерчески доступны. В 2023 году выпустили Xylo IMU HDK — набор для разработки на нейроморфном чипе.
Характеристики:
· Потребление: микроватты (для сравнения: GPU — ватты)

· Серия Xylo — это базовый вычислительный модуль для инвазивных и неинвазивных нейрокомпьютерных интерфейсов, который выступает в роли низкоразмерного естественного процессора сигналов общего назначения. Использует уникальный алгоритм шипованной рекуррентной нейронной сети и полностью параллельную событийно-ориентированную архитектуру для высокоточной обработки нейронных сигналов в режиме реального времени при энергопотреблении на уровне микроватт. .
Он поддерживает онлайн-обучение и обработку данных с датчиков в режиме реального времени, обеспечивая постоянное интеллектуальное восприятие на периферии устройства. Встроенный аналоговый интерфейс и процессор на основе нейронной сети совместимы с различными датчиками, такими как аудиодатчики, инерциальные измерительные блоки и датчики давления, что позволяет объединять мультимодальные сигналы для расширения интерактивных возможностей и повышения общей производительности системы.
Серия Rigi — это инвазивный чип для биокомпьютерного интерфейса, предназначенный для высокотехнологичных медицинских применений. Он отличается сверхнизким энергопотреблением и высокой пропускной способностью. Его основная задача — обеспечить высокопроизводительную аппаратную основу для точного сбора и обработки нейронных сигналов.
Серия Rigi предназначена для клинического применения в таких областях, как мониторинг лекарственно-устойчивой эпилепсии, реабилитация при параличе и интеллектуальное управление протезами. Она ускорит переход от лабораторных разработок к реальным медицинским решениям на основе технологии BCI.
Серия Aeveon Eye — это миниатюрный малопотребляющий чип для распознавания изображений, разработанный для устройств дополненной и виртуальной реальности. Он использует технологию пикселей с обратной засветкой и кодирование со сжатием в реальном времени, обеспечивая сверхнизкую задержку менее 1 мс и динамически регулируя энергопотребление в зависимости от частоты кадров (от 4 мВт при 30 кадрах в секунду до 50 мВт при 1000 кадрах в секунду). Благодаря компактному форм-фактору 3,4×3,4 мм и конструкции с глобальным затвором он представляет собой легкое и высокоэффективное визуальное решение для смарт-очков и гарнитур.
Серия DVS имитирует событийно-ориентированный механизм биологической сетчатки глаза и предлагает полный спектр решений — от базовых до промышленных. Она подает сигнал только при обнаружении изменений в окружающем освещении, что позволяет перейти от «непрерывной регистрации» к «восприятию на основе событий».
Цена: не раскрыта (обычно такие dev-киты стоят $500–5000 для исследователей).
1.4 Innatera Pulsar — микроконтроллер со спайковой нейросетью
Статус: анонсирован в мае 2025 года, уже доступен.
Характеристики:
Pulsar — это нейроморфный микроконтроллер, созданный по образу и подобию человеческого мозга и предназначенный для сверхэнергоэффективной обработки данных в режиме реального времени в периферийных устройствах. Он сочетает в себе механизм спайковой нейронной сети (Spiking Neural Network, SNN) с микроконтроллером RISC-V и ускорением сверточных нейронных сетей, что позволяет создавать интеллектуальные сенсорные приложения без привязки к облаку.

1.5.· TSP1 — Applied Brain Research — процессор временных рядов 1 (Time Series Processor 1, TSP1) от Applied Brain Research — чип-процессор временных рядов, созданный на основе принципов работы мозга и предназначенный для периферийных ИИ-приложений со сверхнизким энергопотреблением. Он использует обработку на основе сетей состояний для распознавания речи в реальном времени

Цена: не раскрыта.
Часть 2. Что появится в ближайшие 1–2 года
2.1 Коммерческий дебют аналоговых нейроморфных чипов
По прогнозам Analog Devices , к концу 2026 года аналоговые нейроморфные вычисления начнут выходить из пилотных проектов в раннее коммерческое использование.
Где увидят первыми:
· Робототехника (гуманоидные роботы с локальным интеллектом)
· Носимые устройства (умные часы, слуховые аппараты)
· Автономные системы (дроны, беспилотники)
Что это даст: латентность в наносекунды (вместо миллисекунд у GPU) и энергопотребление на порядки ниже.
2.2 VectorWave — нейроморфная обработка радиочастотных сигналов
Статус: CEO — Бен Тейлор (Ben Taylor), ранее работавший в Cisco. В марте 2026 года, собрали $2.5 млн seed-раунда.
Технология: обрабатывает сырые RF-сигналы до их оцифровки — напрямую на аналоговом нейроморфном чипе.
В основе VectorWave лежит аналоговый ИИ-процессор, специально разработанный для радиочастотного логического вывода на уровне сигналов. Благодаря логическому выводу в физической области он позволяет принимать решения за наносекунды непосредственно на радиочастотном уровне, сокращая объем передаваемых данных, уменьшая задержку и энергопотребление еще до того, как сигналы попадут в цифровые системы.
Латентность: наносекунды (для сравнения: цифровая обработка — миллисекунды).
Применение: устойчивая связь в перегруженном радиочастотном спектре (стадионы, крупные мероприятия, умные фабрики).
Когда будет доступно: не раскрыто, но seed-раунд закрыт — значит, разработка активно идет.
Часть 3. Когда это станет доступно обычным людям?
Здесь нужно быть честным: нейроморфные чипы не заменят ваш ноутбук или телефон в ближайшие 5–10 лет.
Три пути коммерциализации:
|
Путь |
Пример |
Сроки |
|
Облачные сервисы |
Аренда SpiNNaker2 через облако (уже доступно) |
Уже сейчас |
|
Промышленные контроллеры |
BrainChip Akida в роботах и датчиках |
2026–2028 |
|
Потребительские устройства |
Нейроморфные сопроцессоры в смартфонах/умных часах |
2030+ |
Почему так долго?
1. Нужно переписать ПО — текущие нейросети (PyTorch, TensorFlow) не работают на спайковых чипах «из коробки»
2. Нужно обучить инженеров новой парадигме
3. Нужно масштабировать производство
Часть 4. Сколько это стоит? (реальные цифры)
4.1 Цены на системы (B2B)
|
Система |
Цена |
Что входит |
|
SpiNNaker2 (воздушное охлаждение) |
€250,000 |
1 борт, интеграция, бенчмарки |
|
SpiNNaker2 (полная конфигурация, 10 млрд нейронов) |
несколько млн € |
1440 плат, 10 млн ядер |
4.2 Цены на разработку чипов
|
Проект |
Бюджет |
Стадия |
|
BrainChip AKD2500 |
$2.5 млн |
Прототип Q3 2026 |
|
VectorWave |
$2.5 млн (seed-раунд) |
Ранняя стадия |
4.3 Рыночные оценки
· Рынок нейроморфных чипов в 2025 году: $0.77 млрд
· Прогноз на 2026: $0.87 млрд (рост 12.5%)
· Прогноз на 2030: $1.38–1.92 млрд (в зависимости от сегмента)
Ключевой драйвер роста: робототехника и автоматизация. В 2023 году в Европе установлено 92,393 промышленных робота — и многие из них перейдут на нейроморфные чипы в ближайшие 5 лет.
Часть 5. Резюме: когда и сколько
|
Вопрос |
Ответ |
|
Они уже существуют? |
✅ Да. SpiNNaker2, BrainChip Akida, SynSense Xylo — уже работают. |
|
Где их используют сейчас? |
Национальные лаборатории США (ядерная безопасность), исследовательские центры в Германии, оборонные проекты. |
|
Можно ли купить? |
✅ Да, но B2B. Нужно заключать контракт с производителем. |
|
Сколько стоит самая дешевая система? |
€250,000 — воздушная версия SpiNNaker2 (тендер в Дрездене). |
|
Когда появятся в телефонах? |
~2030+ — сначала в промышленности, потом в потребительских устройствах. |
|
Можно ли арендовать в облаке? |
✅ Да, SpiNNaker2 уже доступен через облако. |
Часть 6. Оценка эксперта
Коротко: нейроморфные чипы — это не «технология будущего». Это реальность прямо сейчас, но в очень специфических нишах: национальная безопасность, робототехника, умные датчики.
Для обычного человека: ты не купишь нейроморфный чип в магазине в 2026 году. Но ты уже можешь арендовать нейроморфный суперкомпьютер в облаке за несколько сотен евро в час (как AWS для GPU, только для SNN).
Главный барьер: не железо, а софт. Спайковые нейронные сети требуют совершенно новых алгоритмов обучения — обратное распространение ошибки (backprop) работает плохо. Нужны локальные правила обучения, как STDP в мозге. Это активно исследуется, но промышленного стандарта еще нет.
Когда будет переломный момент: когда кто-то (Google? OpenAI? Китайский стартап?) покажет, что LLM на нейроморфном чипе работает так же хорошо, как на GPU, но потребляет в 10 000 раз меньше энергии. Тогда инвесторы хлынут рекой. По текущим темпам — 2028–2030 годы.
ссылка на оригинал статьи https://habr.com/ru/articles/1023606/