12 ГБ видеопамяти в 2026 году: хватает или уже нет?

от автора

Спойлер для тех, кто читает подписи к картинкам: про запас лучше брать что-нибудь пообъемистее

Спойлер для тех, кто читает подписи к картинкам: про запас лучше брать что-нибудь пообъемистее

Когда NVIDIA выпустила RTX 5070 с 12 ГБ видеопамяти, фанаты, мягко говоря, напряглись. Потому что плюс-минус за те же деньги, например, можно было взять либо Radeon RX 9070, либо RX 9060 XT, но получить уже на треть VRAM больше. Странно? Еще как. Но NVIDIA это не сильно смущало. Она, кажется, точно знала, что делает, поскольку в модельном ряду ее видеокарт сохранялись не только 12-, но и 8-гигабайтные версии. Это создавало ощущение полного самоконтроля. Но прошло 2 года, и многим стало ясно, что 12 ГБ видеопамяти скоро хватать перестанет.

Почему видеопамять в 2026 году расходуется быстрее, чем раньше

Прежде чем лезть в цифры, стоит понять, что вообще произошло. Потому что ещё три года назад 12 ГБ считались натуральным избытком для любого разрешения ниже 4K. RTX 3060 с 12 гигабайтами была одной из самых популярных карт на планете, и на нехватку видеопамяти никто не жаловался. Но что-то все-таки случилось. Вопрос только в том, что именно?

Ну, во-первых, движки. Первый, кто во всем виноват, – это Unreal Engine 5. Но это не баг и не кривая оптимизация. Сказывается использование технологий Nanite и Lumen. Из-за них движок потребляет на 2–4 гигабайта больше, чем предшественники, при тех же визуальных настройках.

Во-вторых, текстуры. Современные ААА-игры идут с HD-текстурными паками по 30–50 гигабайт на диске. Причём эти паки нередко включаются при установке автоматически, если игра видит, что у вас карта с 12 или более гигабайтами. Логика простая: если видеопамяти много — значит, пользователь хочет максимальное качество. 

В-третьих, трассировка лучей. RT, а тем более Path Tracing, накидывает сверху ещё от 2 до 5 гигабайт. Они идут на обработку BVH-деревьев, буферы отражений, буферы освещения и прочие денойзеры, и, пока сцена рендерится, всё это живёт в видеопамяти. 

Ну,  и ещё один фактор, о котором редко вспоминают — консольный эффект. PS5 и Xbox Series X несут по 16 гигабайт общей памяти, и современные ААА-игры проектируются с оглядкой именно на этот объём. Когда такая игра потом портируется на PC, её базовое потребление памяти уже заложено с запасом. Раньше, когда консоли несли на себе 8 ГБ, 8-гигабайтные видеокарты на ПК были в порядке вещей. Но теперь, как видите, планка сдвинулась.

Всё вместе это и привело к ситуации, когда 12 гигабайт, которых в 2023-м хватало с запасом, в 2026-м оказались уже впритык.

Хватает ли 12 ГБ VRAM для 1080p

Индиана Джонс – настоящая кровавая баня для карточек с небольшим объемом VRAM

Индиана Джонс – настоящая кровавая баня для карточек с небольшим объемом VRAM

Если говорить совсем коротко, то да, хватает. Даже с запасом. Но всегда есть «но». С этого, пожалуй, и начнем обсуждение. Потому что иначе мы сейчас начнём обсуждать, какая игра сколько видеопамяти жрёт, и утонем в цифрах, которые, если разобраться, далеко не всегда означают то, что есть на самом деле. 

В чём подвох, спросите? А вот, что циферка, которую показывает MSI Afterburner или RivaTuner, — это совсем не обязательно объём, который игре реально нужен. 

Большинство современных игр работают по простому принципу: видят свободную видеопамять — занимают её впрок. Не потому что без этого никак, а потому что запас карман не тянет. Называется это аллокацией, и она почти всегда больше реально используемой памяти. То есть если игра показывает 11 гигабайт занятой VRAM, это ещё не значит, что она в них реально нуждается. Вполне возможно, что по факту используется лишь 7–8, а остальное просто висит на всякий случай.

Поэтому реальный индикатор нехватки — это не циферка в Afterburner, а поведение игры:

  • Просадки 1% lows

  • Подгрузки текстур на лету

  • Микрофризы при переходах между локациями

Средний FPS при этом может выглядеть вполне пристойно, что как раз и сбивает с толку тех, кто ориентируется только на него. Короче, цифры цифрами, но смотреть нужно не на средний фреймрейт, а на фреймтайм.

Ну, а теперь к цифрам. В 1080p на ультра-пресетах без трассировки большинство современных игр реально использует 5–8 гигабайт видеопамяти. Сетевые шутеры вроде Counter-Strike 2, Valorant или Apex Legends вообще укладываются в 4–6, потому что их изначально затачивают под максимальный FPS, а не под визуальную сложность, и с памятью тут проблем не бывает в принципе. Таким образом, в этих играх даже 8-гигабайтная карта чувствует себя более чем комфортно, не говоря уже о карточках на 12 ГБ.

Однако тяжёлые ААА-тайтлы едят ощутимо больше. Вот, сравните сами:

  • Counter-Strike 2, Valorant, Apex Legends — 4–6 ГБ

  • Cyberpunk 2077, ультра — 8 ГБ

  • Star Wars Outlaws, высокие — 7–8 ГБ

  • Fortnite на Epic, A Plague Tale: Requiem — 7–8 ГБ

  • Alan Wake 2, ультра — 11–12 ГБ

  • Avatar: Frontiers of Pandora, ультра — 10,7 ГБ

  • Hogwarts Legacy, ультра — 11 ГБ

Как видите, самые прожорливые тайтлы 2023–2024 годов уже подбираются к 12 гигабайтам даже в Full HD. Но 12 — это пока всё ещё потолок с запасом. Критических ситуаций ни в одной игре не возникает.

Единственный настоящий нюанс — трассировка. Включите RT в Cyberpunk 2077 даже в 1080p, и потребление прыгнет до 11 гигабайт. А в Alan Wake 2 с RT High 1080p – и того больше. Но это скорее вопрос к тем, кто включает рей-трейсинг в Full HD. Все-таки это больше экзотика, чем норма.

12 ГБ в 1440p: вот тут начинается самое интересное

А вот с 1440p всё уже не так однозначно. И это, собственно, основной сценарий для RTX 5070.

Tom’s Hardware прогнали RTX 5070 через стандартный набор игр в 1440p на ультра-настройках графики без трассировки, и вот что из этого вышло:

  • Cyberpunk 2077, ультра — 8-9 ГБ

  • Star Wars Outlaws, высокие — 10–11 ГБ 

  • Starfield, ультра — 10–11 ГБ 

  • Hogwarts Legacy, ультра — 11 ГБ 

  • Alan Wake 2, ультра — 11–12 ГБ 

  • Indiana Jones and the Great Circle, ультра — 11–12 ГБ

  • Black Myth Wukong, ультра — 10–12 ГБ

  • Avatar: Frontiers of Pandora, ультра — 12+ ГБ

Заметили кое-что? Avatar — первый мейнстримовый тайтл, который на 12-гигабайтной карте в 1440p реально упирается в потолок. Год назад такого не было ни в одной игре вообще. А сейчас есть. И это только начало, потому что новые проекты на UE5 подтягиваются один за другим, и все они предсказуемо прожорливее.

Через год-полтора ситуация, по всем прикидкам, будет только жёстче. И что тогда? Вопрос, как говорится, риторический.

12 ГБ в 4K: тут, собственно, всё понятно

Рей-трейсинг – это, конечно, красиво. Но не любая карточка его потянет

Рей-трейсинг – это, конечно, красиво. Но не любая карточка его потянет

Но если применительно к 1440p-разрешению ещё можно спорить и искать нюансы, то в 4K никаких нюансов нет. 12 ГБ на ультра-пресетах в 4K в 2026-м однозначно не хватит.

Вот как выглядит потребление VRAM в 4K на ультра-настройках:

  • Cyberpunk 2077, ультра без RT — 9,6 ГБ 

  • Cyberpunk 2077, Path Tracing — 16+ ГБ 

  • Hogwarts Legacy, ультра без RT — 12 ГБ 

  • Hogwarts Legacy, ультра с RT — 16 ГБ

  • Alan Wake 2, ультра — 12 ГБ

  • Alan Wake 2, RT High — 16+ ГБ 

  • Avatar: Frontiers of Pandora, ультра — 13+ ГБ

  • Indiana Jones and the Great Circle, ультра — 12+ ГБ

  • Black Myth Wukong, Full RT — 16+ ГБ

Как видите, в 4K большинство современных ААА-тайтлов уже вылезает за 12 гигабайт даже без трассировки. 

Впрочем, тут нужно сделать оговорку. RTX 5070 — это не карта для нативного 4K. Все-таки ожидать поддержки такого разрешения от GPU за 70 тысяч рублей по меньшей мере наивно. Хотя с DLSS карта 4К вполне потянет. Просто в таком режиме использования потребление VRAM будет ближе к 1440p, чем к Ultra HD, то есть всего 10–12 гигабайт. А значит, формально этого должно хватить.

Что реально происходит на 8, 12 и 16 ГБ в одной и той же игре

Ладно, с цифрами потребления мы разобрались. А как оно вообще выглядит на практике? Если взять одну и ту же игру и запустить её на трёх разных картах — с 8, 12 и 16 гигабайтами — что вы увидите на экране? Разберём на примерах, потому что это, пожалуй, самое интересное.

Для наглядности — сводная картина по трём самым показательным тайтлам в 1440p:

Игра

8 ГБ (RTX 5060)

12 ГБ (RTX 5070)

16 ГБ (RX 9070)

Hogwarts Legacy, ультра

70–75 FPS, но фризы при поворотах и pop-in текстур

90–95 FPS, плавно

95–100 FPS, идеально

Alan Wake 2, ультра-текстуры

40–50 FPS, постоянные фризы, нужно снижать до «средних»

60 FPS в среднем, но в лесу 1% lows проседают до 25–30

60–65 FPS, без фризов

Cyberpunk 2077, Path Tracing

10–15 FPS, слайд-шоу

35–40 FPS, но фреймтайм гуляет от 28 до 70 мс

35 FPS стабильные, без провалов

А теперь то же самое, но со всеми нюансами, которые в таблицу не влезли.

Возьмём Hogwarts Legacy в 1440p на ультрах. На 16 ГБ всё красиво и без лишних вопросов. На 12 ГБ — те же плавные 90+ FPS, и в обычной игре вы, положа руку на сердце, разница почти незаметна. А вот на 8 ГБ начинается интересное. Средний FPS вроде 70–75, что как бы неплохо.

Но при резких поворотах камеры картинка замирает, а текстуры на стенах Хогвартса плывут. Это и есть тот самый текстурный стриминг, который работает через системную память. Иными словами, играть можно, но ощущения скорее всего будут не те.

В Alan Wake 2 разница проявляется ещё ярче. На 16 ГБ все более чем плавно, ни одного фриза за всю игру. На 12 ГБ на ультра-текстурах — почти не хуже, но в отдельных сценах (особенно в открытых лесных локациях) можно поймать проседание 1% lows с 60 до 25–30 кадров. Редко, но метко, как говорится. А вот на 8 ГБ игра отказывается стабильно работать в принципе: приходится снижать текстуры на средние, и только тогда поведение становится приемлемым. 

Ну и самый показательный случай — Cyberpunk 2077 с Path Tracing. На 16 ГБ RX 9070 — пусть и 35 FPS без DLSS, зато стабильные, без провалов. На 12 ГБ RTX 5070 с DLSS Quality — те же 35–40 в среднем, но в тяжёлых сценах (центр Найт-Сити ночью, неон, толпа) фреймтайм начинает прыгать от 28 до 70 мс. Визуально это выглядит как лёгкое подёргивание картинки, как будто где-то на фоне работает дефрагментатор, но неприятно. А на 8 ГБ при тех же настройках вас просто ждет слайд-шоу с текстурами-мылом, и всё.

RTX 5070 vs RX 9070: что лучше

Что же выбрать?

Что же выбрать?

Ну и теперь — к главному вопросу, ради которого, собственно, и писалась эта статья. RTX 5070 с 12 гигабайтами или RX 9070 с 16? 

По чистой производительности в растеризации RX 9070 показывает себя быстрее. В 1440p она обходит RTX 5070 на 8–12%. А в играх типа Death Stranding 2, Star Wars Outlaws разрыв может достигать 18–25%. И это всё за те же деньги, что и 5070. 

Но у RTX 5070 есть то, чего у RX 9070 нет: DLSS 4 с Multi Frame Generation. И вот тут ситуация разворачивается на 180 градусов. В играх, которые поддерживают DLSS 4 — а их, на минуточку, уже сотни — RTX 5070 с апскейлингом и генерацией кадров выдаёт результат, до которого RX 9070 на FSR 4 пока не дотягивает. 

Что касается трассировки, тут NVIDIA тоже впереди, и разница ощутимая. В Cyberpunk с Path Tracing, в Alan Wake 2 с RT-эффектами, в новых тайтлах вроде Black Myth Wukong на максимальных настройках RTX 5070 обгоняет RX 9070 на 15–25%. AMD с RDNA 4 заметно подтянулась по сравнению с предыдущими поколениями, спору нет. Но до паритета с NVIDIA по RT им ещё идти и идти.

А вот по VRAM у RX 9070 преимущество почти безоговорочное. 16 ГБ — это запас куда более приличный. А это – и ультра-текстуры без компромиссов в 1440p, и трассировка без фризов в большинстве тайтлов, и перспектива на три-четыре года вперёд без необходимости снижать настройки. У RTX 5070 с 12 ГБ этого запаса, увы, нет.

В общем, для игр RX 9070 с 16 гигабайтами объективно разумнее. Больше памяти, быстрее в растеризации, дешевле на 15–20 тысяч. RTX 5070 имеет смысл только если DLSS 4 и трассировка для вас критически важны. Но, если нет, выбирать карточку на 12 гигабайт при наличии 16-гигабайтной альтернативы немного странно.

Что делать, если у вас уже 12 ГБ

Ладно, допустим, карта с 12 гигабайтами у вас уже есть — либо вы всё-таки решили покупать RTX 5070, потому что DLSS и трассировка для вас важнее четырёх лишних гигабайт. Что тогда? Как жить? Да нормально жить. Надо только знать пару приёмов, которые новичкам в голову приходят не сразу:

  • Для начала – снизить качество текстур с ультра на высокие. Звучит как компромисс, но на практике таким образом вы сэкономите 2–3 гигабайта, а визуальная разница в большинстве игр будет практически не видна. 

  • Затем – повнимательнее следите за HD-текстурными паками. Многие игры при установке предлагают скачать отдельный пак высококачественных текстур на 20–40 гигабайт. И вот тут важно не согласиться на все на автомате. Если у вас 12 ГБ — не ставьте их. Без HD-пака игра использует стандартные текстуры, которые тоже неплохо выглядят, но потребляют на 2–4 гигабайта меньше. 

  • Ограничьте предзагрузку текстур в настройках игры, если такая опция есть. В некоторых тайтлах (Starfield, Indiana Jones и ещё ряд) встречается параметр Texture Streaming Budget или VRAM Usage Target. По сути он позволяет напрямую сказать карте: используй не больше стольких-то гигабайт. 

  • Не включайте тяжёлую трассировку. Cyberpunk с Path Tracing на RTX 5070 — это, конечно, невероятно красиво, спору нет. Но 11,2 гигабайта из 12, фризы в тяжёлых сценах и провалы 0.1% lows — это не та цена, которую хочется платить. Лучше играть без Path Tracing, но с плавными 90+ FPS, чем с Path Tracing, но с микрофризами каждые пять секунд. 

ссылка на оригинал статьи https://habr.com/ru/articles/1029042/