
Генеративный ИИ в финтехе уже перестал быть экспериментом и постепенно становится частью повседневных процессов. Его используют в аналитике, автоматизации, клиентских коммуникациях — везде, где можно выиграть в скорости и эффективности. Но, судя по свежему Annual Regulatory Oversight Report 2026 от FINRA, вместе с этим индустрия накапливает и довольно серьёзные проблемы.
Главный вывод отчёта звучит просто: технологии внедряются быстрее, чем выстраивается контроль над ними.
Причём речь не о каких-то редких случаях. Регулятор прямо указывает, что компании всё активнее используют генеративный ИИ, но при этом не успевают адаптировать под него базовые вещи — надзор, управление рисками и нормальное ведение записей. А для регулируемой отрасли это не «желательно», а обязательно.
Отсюда вытекает следующий важный момент, который в отчёте фактически проговаривается напрямую. Отсутствие отдельных правил для генеративного ИИ не означает, что его можно использовать в более свободном режиме. Наоборот, все существующие требования продолжают действовать в полном объёме. Не имеет значения, кто сформировал рекомендацию или текст — человек или модель. Ответственность в любом случае остаётся за компанией.
При этом FINRA не отрицает очевидного: генеративный ИИ действительно даёт ощутимые преимущества. Он ускоряет обработку информации, помогает извлекать данные, автоматизирует рутинные процессы. Именно поэтому его внедрение и происходит такими темпами.
Проблема в том, что вместе с этим появляются и новые риски, к которым многие оказались не готовы. Модели начинают использоваться шире, чем планировалось изначально, иногда практически без участия человека. В ряде случаев становится сложно понять, как именно система пришла к тому или иному результату. Добавляются классические для GenAI проблемы — «галлюцинации», потенциальная предвзятость и риски, связанные с обработкой чувствительных данных.
И это уже не теоретические сценарии. В отчёте подчёркивается, что такие ситуации происходят на практике, особенно там, где внедрение ИИ идёт быстрее, чем развитие процессов контроля.
На этом фоне становится очевидно, что привычный подход, при котором комплаенс добавляется «поверх» уже работающей системы, больше не работает. FINRA фактически требует, чтобы контроль был встроен в саму архитектуру решений. Использование ИИ должно соответствовать тем же требованиям, что и любые другие процессы: прозрачность, возможность надзора, корректное хранение данных.
Отдельно поднимается вопрос аудируемости. Компания должна не просто использовать модель, а понимать и уметь объяснить, как она работает в конкретных сценариях. Нужно быть готовым показать, каким образом принимаются решения, как они проверяются и как фиксируются все связанные действия. Подход «оно как-то само сгенерировалось» здесь уже не проходит.
Интересно, что в отчёте довольно жёстко обозначена и проблема универсальных моделей. Использовать их «из коробки» в регулируемой среде становится всё сложнее. Без адаптации под конкретную задачу, без ограничений и без механизмов объяснения результатов такие решения начинают противоречить требованиям комплаенса.
Отсюда логично вытекает ещё один акцент — роль человека в этих процессах никуда не исчезает. В критически важных сценариях, особенно там, где есть влияние на клиента или регуляторные последствия, участие человека остаётся обязательным. ИИ может помогать, ускорять и упрощать работу, но не должен полностью заменять принятие решений.
Отдельного внимания заслуживают AI-агенты — системы, которые могут действовать более автономно. С точки зрения технологий это следующий шаг вперёд, но с точки зрения контроля всё становится заметно сложнее. Чем выше уровень автономности, тем труднее отследить, что именно делает система и насколько это соответствует установленным правилам.
В итоге общий посыл отчёта выглядит довольно прагматично. Генеративный ИИ — это не что-то отдельное от существующей инфраструктуры, а её часть. И требования к нему такие же, как и ко всем остальным системам.
Для компаний это означает довольно простую, но не самую приятную вещь: внедрение AI больше нельзя рассматривать как быстрый эксперимент. Теперь это полноценный элемент бизнеса, за который придётся отвечать — с точки зрения контроля, прозрачности и соответствия требованиям.
И чем раньше это станет частью архитектуры и процессов, тем меньше проблем возникнет в будущем.
Источник: FinTech Global
Чтобы не пропустить анонс новых материалов подпишитесь на «Голос Технократии» — мы регулярно рассказываем о новостях про финтех, стейблкоины и AI, а также делимся полезными мастридами и актуальными событиями.
ссылка на оригинал статьи https://habr.com/ru/articles/1024636/