Нужно работать не больше, а эффективнее: не железом единым

от автора

Компании выжимают все соки из имеющейся инфраструктуры и добавляют передовое оборудование для ускорения процессов. Некоторые из них вскоре полностью выйдут за рамки двоичных вычислений.

Чем технологичнее компании, тем сложнее их рабочие нагрузки. Для обучения моделей ИИ, комплексного моделирования и создания цифровых двойников физических сред, требуются серьезные вычислительные ресурсы, и возможностей существующей инфраструктуры компаний уже недостаточно. Функциональности стандартных облачных сервисов по-прежнему хватает для большинства привычных операций. Но как только речь заходит про высокотехнологичные кейсы, создающие конкурентное преимущество, возникает новая потребность в оптимизированных и специализированных вычислительных средах.

Читайте новую главу отчета Tech Trends 2024 от Deloitte в переводе Хабр-редакции КРОК под катом!

Ускорение бизнес-приложений, вероятно, начнется с оптимизации кодовых баз для задействованного оборудования. Это долгое время упускалось из виду, а ведь такая оптимизация может дать серьезный прирост производительности. Кроме того, компании переходят на новое оборудование, специально предназначенное для обучения ИИ и выполнения других передовых процессов. Графические процессоры (GPU) и ИИ-чипы задают тон в новой эре вычислений, и однажды квантовые и нейроморфные компьютеры тоже скажут свое слово.

Эволюция вычислений в основном всегда состояла в том, чтобы быстрее передавать по цепям больше нулей и единиц. Здесь все еще есть куда стремиться, но вряд ли статус кво сохранится надолго. Поэтому исследователи и технологические компании ищут новые возможности, позволяющие не преодолевать ограничения на производительность вычислений, а обходить их. Попутно они могут заложить основу для новой парадигмы корпоративных вычислений, когда центральные процессоры (CPU) работают вместе со специализированным оборудованием, часть которого будет кремниевым, а часть, возможно, и нет.

Вчера: прошлые достижения не гарантируют побед в будущем

Последние полвека компьютерного (и экономического) прогресса прошли под знаменем закона Мура – идеи, согласно которой количество транзисторов в компьютерных чипах (и, следовательно, производительность) удваивается примерно каждые два года.

Однако производители чипов все чаще упираются в физические ограничения. В какой-то момент на кремниевой пластине не останется места для новых транзисторов. Некоторые эксперты полагают, что закон Мура больше не работает. Пусть утверждение и спорное, но в любом случае конец пути близок. Чипы требуют все больше питания и охлаждения, что снижает производительность, поэтому даже если на микросхему добавить транзисторы, не факт, что производительность вырастет.

Все это очень не вовремя, ведь вычислительные нагрузки в корпоративном сегменте только растут. Набирает обороты промышленная автоматизация, и многие компании разрабатывают цифровых двойников физических процессов. Все активнее используются подключенные устройства и интернет вещей, что порождает огромные объемы данных и повышает требования к их обработке. Для машинного обучения, и особенно генеративного ИИ, требуются сложные алгоритмы, перерабатывающие терабайты обучающих данных. Любое из этих начинаний может стать для компании основным конкурентным преимуществом, но реализовать их в стандартной локальной инфраструктуре невозможно. Облачные сервисы тем временем могут дать столь необходимые мощности, но стоят заоблачных денег.

Замедление темпов роста производительности CPU повлияет не только на чистую прибыль компаний. Выступая на конференции GTC, генеральный директор NVIDIA Дженсен Хуанг заявил, что сегодня каждая компания и каждое правительство пытаются добиться нулевых выбросов углекислого газа, но сделать это будет сложно, пока растет спрос на традиционные вычисления: «Если закон Мура перестанет выполняться, то с ростом вычислительных потребностей энергопотребление ЦОД взлетит до небес».

В какой-то момент повышать производительность через расширение ЦОД или увеличение трат на облако станет экономически бессмысленно. Традиционные облачные сервисы по-прежнему лучше всего поддерживают и унифицируют работу бэк-офиса: планирование ресурсов (ERP), управление активами, кадрами и отношениями с клиентами. Пусть ИИ и «умные объекты» — это драйверы роста, их развертывание в традиционных облачных средах может в конечном итоге съесть весь ИТ-бюджет компании. Нужны новые подходы, в том числе подходы к специализированным высокопроизводительным вычислениям.

Сегодня: ПО и железо должны работать не больше, а эффективнее

Даже если рост производительности традиционных вычислений замедлится, руководители не должны тормозить реализацию своих планов. Новые подходы, ускоряющие обработку данных, могут сыграть важную роль в развитии бизнеса.

Простота

Во времена, когда производительность CPU стабильно и предсказуемо росла каждые год или два, в неэффективном и немного раздутом коде не было ничего страшного. Однако сейчас, когда производительность растет уже не так быстро, стало важнее писать хороший код. Компактный код может существенно повысить производительность, даже если выполнять его на старом оборудовании.

Миграция в облако — отличное время для подобных упражнений. Но прямой перенос старого кода (например, написанного на COBOL для мэйнфрейма) может сделать код раздутым и неэффективным. Благодаря рефакторингу приложений в более современный код, такой как Java, компании могут воспользоваться современными функциями облака и избавиться от этой проблемы.

Так, Департамент медицинских и реабилитационных услуг штата Юта недавно полностью перенес в облако свою основную картотеку и систему бухгалтерского учета. Преобразовав код из COBOL в Java с помощью инструмента автоматического рефакторинга, организация смогла нарастить производительность.

«У нас все стало работать намного быстрее, – говорит Барт Мейсон, технический директор департамента. – Мы смогли сохранить функциональность, которая была доступна на мэйнфрейме, преобразовать код в Java, и сегодня он работает намного быстрее, чем это было на мэйнфрейме».

Правильное размещение

Используя подходящие ресурсы для решения вычислительных задач, бельгийский ритейлер Colruyt Group смог начать амбициозный проект инновационного развития, куда входит автоматизация товарных складов, отслеживание и управление уровнями запасов с помощью компьютерного зрения, а также разработка автономных транспортных средств, которые однажды будут доставлять товар покупателям.

Один из способов справиться с вычислительной нагрузкой – это задействовать все ресурсы, которые только есть в наличии. Брехтель Деро, руководитель подразделения Colruyt Group, говорит, что благодаря распространению умных устройств у компании появилось много вычислительных ресурсов. Однако многие из них использовались в составе операционных технологий (OT) и не были привязаны к более традиционной цифровой инфраструктуре компании. С самого начала было понятно, что разработать связующую прослойку непросто, однако все получилось во многом благодаря поддержке генерального директора Colruyt. Если говорить о технике, то компания использует гибкую среду ERP, позволяющую объединять данные из различных источников и ставшую основой для интеграции информационных и операционных технологий.

«Речь идет о сокращении разрыва между информационными (ИТ) и операционными (ОТ) технологиями, поскольку машины становятся намного умнее, – говорит Брехтель Деро. – Если обеспечить гармоничную интеграцию между ИТ-средой, ERP-средой и машинами, сосредоточив нагрузки и вычисления в нужном месте и правильно организовав взаимодействие, то можно сделать еще один шаг к повышению эффективности».

Специализированное оборудование

Программируя с умом и эффективнее используя имеющиеся вычислительные ресурсы, компании смогут ускорить многие из своих процессов, но все же решение определенного класса проблем все чаще требует специализированного оборудования. Графические процессоры (GPU) стали использовать для обучения моделей ИИ, которые призваны радикально повысить операционную эффективность и привнести инновации в работу компании.

Как следует из названия, GPU изначально создавались для улучшения отображения графики. Но по ходу дела разработчики поняли, что благодаря параллельной обработке данных GPU могут упростить обучение моделей ИИ, в ходе которого через алгоритмы проходят терабайты данных – а ведь это одна из самых ресурсоемких нагрузок, с которыми сегодня сталкиваются компании. GPU разбивают задачи на мелкие части и обрабатывают их одновременно, в то время как CPU обрабатывают данные последовательно. Когда вы обучаете алгоритм ИИ на миллионах точек данных, параллельная обработка очень важна. Поскольку генеративный ИИ стал мейнстримом, возможность быстро обучать и запускать модели стала критически важной для бизнеса.

Крупные технологические компании, операторы социальных сетей, а также ведущие исследовательские, телекоммуникационные и маркетинговые компании развертывают собственные GPU в локальной инфраструктуре. А вот компании помельче, по всей видимости, будут использовать GPU в облаке. Согласно исследованиям, облачные GPU сокращают затраты на обучение моделей ИИ в шесть раз и время обучения в пять раз по сравнению с обучением моделей на традиционных облачных CPU (Рис. 1). Сегодня большинство ведущих производителей чипов (включая AMD, Intel и NVIDIA) предлагают GPU как продукты и как услугу.

Источник: Анализ Deloitte.

Источник: Анализ Deloitte.

Однако GPU – это не единственные специализированные инструменты для обучения моделей ИИ. Amazon предлагает чип под названием Inferentia, который, по их словам, предназначен для обучения генеративного ИИ (включая большие языковые модели). Эти микросхемы созданы для работы с большими объемами данных и при этом потребляют меньше энергии, чем традиционные процессоры.

Не отстает и Google. Компания предлагает продукт под названием «тензорный процессор» (TPU), который доступен через сервис Google Cloud. Эти процессоры относятся к категории специализированных интегральных схем, оптимизированных под матричные операции, которые лежат в основе большинства моделей машинного обучения.

Специализированные ИИ-чипы, вероятно, будут все шире использоваться в корпоративном сегменте в ближайшие месяцы по мере того, как ценность генеративного ИИ будет становиться все более очевидной для бизнеса. Широкое распространение ИИ может серьезно нагрузить существующую инфраструктуру ЦОД большинства организаций, и вот здесь-то более высокая производительность специализированных чипов по сравнению с ресурсами общего назначения может стать основным конкурентным преимуществом.

Но это не значит, что компании получат все преимущества в одночасье. Сначала специализированное оборудование появляется на рынке, а потом через какое-то время создаются стандарты и экосистемы, необходимые для того, чтобы использовать его по максимуму. Могут пройти годы, прежде чем инновации начнут внедряться. Компании могут создавать партнерства в рамках соответствующей экосистемы и нарабатывать необходимые компетенции, ожидая, пока инновация как плод «дозреет» и ее можно будет использовать в бизнесе.

Завтра: за пределами двоичных вычислений

Прелесть CPU всегда заключалась в их гибкости. На них работает абсолютно все: от электронных таблиц до ПО графического проектирования. Вот уже многие десятилетия предприятия могут запускать практически любое приложение на обычном оборудовании, особо не задумываясь.

Но исследовательские и технологические компании разрабатывают новые подходы к обработке данных, открывая совершенно новые возможности. Одним из наиболее перспективных направлений могут стать квантовые вычисления – технология, которая уже много лет обсуждается и влияние которой становится все более заметным.

Вероятно, квантовый отжиг станет одним из первых случаев применения квантовых вычислений в корпоративном сегменте и поможет по-новому решить задачи оптимизации, например задачу коммивояжера. Задачи такого типа традиционно решаются с помощью машинного обучения. Однако из-за сложности задач оптимизации лежащая в их основе математика и, как следствие, вычисления становятся невероятно запутанными, но все равно дают далеко не идеальные ответы.

Квантовый же отжиг использует физические атрибуты квантовых битов для поиска оптимального решения, что позволяет квантовым компьютерам решать традиционно сложные задачи со многими переменными, такие как планирование космических запусков, финансовое моделирование и оптимизация маршрутов. Квантовый отжиг позволяет находить решения быстрее, требуя меньше данных и потребляя меньше энергии, чем традиционные подходы.

Квантовый отжиг может стать первым случаем широкого применения квантовых компьютеров, но вряд ли последним. Технология стремительно развивается и вскоре может быть применена для решения ряда задач, с которыми сегодня не справляются классические компьютеры. Квантовые компьютеры обрабатывают информацию принципиально иначе, чем классические, что позволяет им смотреть на задачи под другим углом. Им могут оказаться под силу задачи, включающие в себя обработку больших объемов данных, накопленных за долгое время. Например, IBM вместе с Boeing недавно изучали, как квантовые вычисления могут помочь создать более прочные и легкие материалы и найти новые способы предотвращения коррозии.

«Пришло время взглянуть на квантовые компьютеры как на инструменты для совершения научных открытий, – говорит Кэти Пиццолато, директор по теоретическим вопросам и квантовым вычислениям в IBM Quantum. – Как показывает история развития классических компьютеров, чем больше они становились, тем удивительнее оказывались их возможности. То же самое сейчас происходит и с квантовыми компьютерам. По размерам квантовые системы приближаются к классическим, так что теперь пора найти им практическое применение».

Квантовые компьютеры и другие инновационные решения работают совершенно не так, как нынешние двоичные системы. Еще одно перспективное направление – нейроморфные вычисления. В основу подхода лег принцип нейронных связей в человеческом мозге. Вместо линейки транзисторов, обрабатывающих данные последовательно, здесь транзисторы объединены в массив, подобно нейронам мозга, и вычислительная мощность растет с увеличением количества соединений, а не только количества транзисторов. Основной плюс такого подхода – повышение производительности не сопровождается ростом энергопотребления.

Для более эффективного применения ИИ, весьма вероятно, понадобятся нейроморфные вычисления. И хотя нейроморфные вычисления только появились на горизонте, уже сейчас видно, что компьютер, построенный по принципу человеческого мозга, может дать толчок развитию когнитивных направлений. Понимание естественных языков, очувствление, робототехника и интерфейсы «мозг-компьютер» – вот где нейроморфные вычисления могут развернуться вовсю. Эта область все еще относительно нова, но в ней работают такие компьютерные тяжеловесы, как IBM (которая разрабатывает нейроморфный чип под названием TrueNorth) и Intel (которая только что представила второе поколение своего лабораторного чипа Loihi).

Еще одно перспективное направление – оптические компьютеры. Здесь для перемещения и хранения данных процессоры используют световые волны, а не электроны, движущиеся по печатным платам. Преимущество в том, что данные в буквальном смысле слова движутся со скоростью света. Эта область менее развита, чем квантовые и нейроморфные вычисления, но исследования ведутся в крупных технологических компаниях, таких как IBM и Microsoft.

Общее достоинство всех перечисленных парадигм – меньшее энергопотребление, чем у CPU или GPU, при такой же или (потенциально) лучшей производительности. Это соображение, вероятно, станет еще более важным в ближайшие годы, ведь компании и страны в целом стремятся снизить выбросы углекислого газа до нуля. Спрос на более быстрые и всепроникающие вычисления будет только расти, но, пытаясь просто «разогнать» традиционные облачные экземпляры, компании вряд ли добьются своих целей.

Это не значит, что новые технологии избавят нас от техногенных климатических проблем. По-прежнему не все гладко с охлаждением и использованием воды для квантовых вычислений, и, как с другими видами вычислений, громоздкий код может повысить энергопотребление у новых технологий (таких как нейроморфные вычисления). Потребность в упрощенном коде сохранится, даже когда появятся новые вычислительные возможности.

И весьма сомнительно, что эти инновации когда-либо заменят обычные CPU. Традиционные вычислительные ресурсы остаются и, скорее всего, останутся наиболее полезными и надежными инструментами для подавляющего большинства корпоративных рабочих нагрузок. Другое дело, что в будущем компании могут добавить некоторые из этих технологий в инфраструктуру для своих инновационных программ. И точно так же, как сегодня мы видим облачные сервисы, сочетающие CPU и GPU в одном продукте, операторы гипермасштабируемых ЦОД («гиперскейлеры») могут в будущем добавить в свои продукты возможности квантовых, нейроморфных или оптических вычислений, так что инженерам, возможно, не придется даже думать о том, на каком оборудовании выполняются их рабочие нагрузки.

Наш информационный мир сегодня определяется нулями и единицами, и, без сомнения, именно эта модель привела нас туда, где мы есть сейчас. Но будущее, похоже, не склонно довольствоваться лишь цифровыми вычислениями, и это может ознаменовать начало новой эры инноваций и практически безграничных возможностей, очертания которой мы только начинаем различать.

Продолжение следует

Отчет Tech Trends 2024 от Deloitte в переводе Хабра-редакции КРОК: 

Часть 1: Исследование «Технологические тренды 2024». Противостояние интеллектов 

Часть 2: Цифровой и физический мир без границ: пространственные вычисления и промышленная метавселенная

Часть 3: Выпустили джинна из бутылки: генеративный ИИ – катализатор роста


ссылка на оригинал статьи https://habr.com/ru/articles/847868/