Белый дом видит перспективы применения искусственного интеллекта (ИИ) в сфере контроля и надзора — внедрение этой технологии должно вывести эффективность риск-ориентированного подхода госорганов к выбору объектов проверок в компаниях на новый уровень, рассчитывают в правительстве. Как выяснил “Ъ”, Россельхознадзор под руководством аппарата правительства уже разрабатывает в тестовом режиме показатели риска нарушений бизнесом обязательных требований, основанные на сигналах о подозрительных трансакциях, выявленных ИИ. Использование нейросетей в этой сфере, впрочем, будет ограничено качеством данных и необходимостью участия человека в рассмотрении рекомендованных ИИ решений, говорят эксперты: выступать субъектом правовых отношений технология не может.
Белый дом ожидает от госорганов активного внедрения решений на основе ИИ — они учитываются при оценке эффективности цифровой трансформации исполнительной власти. В том числе в правительстве видят перспективы применения технологии в сфере контроля и надзора — она может обеспечить качественно новый уровень реализации риск-ориентированного подхода к проверкам бизнеса. Как рассказали “Ъ” в секретариате ответственного за цифровизацию вице-премьера Дмитрия Григоренко, в Белом доме видят возможность существенно нарастить эффективность работы контролеров за счет технологического обеспечения — и подходы к задаче уже изучаются: Россельхознадзор под контролем аппарата правительства в тестовом режиме разрабатывает несколько индикаторов риска нарушения обязательных требований на основе сигналов о подозрительных трансакциях компаний, анализом которых занимается ИИ. При этом фокус в изучении использования технологии сделан на результативность — внедрять ее «ради галочки» в правительстве не намерены.
Индикаторы риска, напомним, представляют собой систему расчетных и верифицируемых показателей, призванных выявлять объекты и компании, где вероятность нарушений обязательных требований высока.
Для реализации доказательного подхода к госполитике контролерам запрещено проводить внеплановые проверки бизнеса без опоры на индикаторы — их разработкой контролирующие органы занимались с 2023 года. Россельхознадзор уже использует технологии искусственного интеллекта в работе системы «Меркурий» — это один из компонентов ФГИС «ВетИС», предназначенной в том числе для обеспечения прослеживаемости подконтрольных товаров и выдачи ветеринарных сопроводительных документов. 32 сценарные модели с использованием ИИ применяются ведомством для анализа отклонений при оформлении ветеринарных сертификатов. «Каждая модель ежедневно анализирует все новые данные, поступающие в "Меркурий", выявляет подозрительные трансакции и отмечает их как потенциальные нарушения, сопровождая каждую запись коротким комментарием, помогающим трактовать выводы»,— рассказывает собеседник “Ъ” в аппарате правительства. Таким образом, ИИ используется для первичной проверки данных и информационной поддержки, но решение принимает инспектор, поясняет он. Все подтвержденные нарушения сохраняются в базе данных и используются при разметке для дообучения ИИ, а также служат основой для разработки новых методов выявления нарушений, добавляет собеседник “Ъ”.
«Алгоритмы способны анализировать огромные массивы данных, выявляя сложные паттерны и формируя точные индикаторы риска. Это позволяет надзорным ведомствам перейти от реактивных к превентивным мерам: фокусировать проверки на наиболее проблемных объектах, минимизируя давление на добросовестный бизнес»,— говорит замгендиректора Центра стратегических разработок Константин Никитин. Применение ИИ прежде всего дает новые возможности: благодаря этой технологии госконтроль получает более «длинные руки», становится «более зрячим» — может пробраться в области, которые ранее были недоступны, а следовательно, характеризовались высоким уровнем латентной противоправной активности, отмечает замдиректора Института государственного и муниципального управления НИУ ВШЭ Константин Головщинский.
Использование ИИ в госконтроле, однако, будет ограниченным, полагает замдиректора Института законодательства и сравнительного правоведения при правительстве Илья Кучеров.
«ИИ не правосубъектен и никогда не будет таковым. Сослаться в ходе проверки на то, что это ИИ (указал на возможное нарушение.— “Ъ”) можно, но вряд ли такая ссылка будет иметь правовое значение. ИИ может лишь подсказывать должностным лицам, что проверять. Все равно и решение о проведении проверки, и выводы по ее результатам будут делать люди»,— поясняет эксперт. По его словам, ИИ выступает «генератором идей», дающим контролерам информацию к размышлению. Эксперт сомневается, что риски, выявленные ИИ, смогут когда-нибудь служить официальным основанием для проверки. Правомерность использования ИИ должна быть обеспечена через роль вспомогательного инструмента — решения должны остаться за инспектором, считает и Константин Никитин. «Алгоритмы должны опираться на утвержденные критерии оценки рисков, их прозрачность и соответствие федеральному закону о защите данных»,— говорит он. По его словам, дальнейшее развитие ИИ в надзоре потребует актуализации нормативной базы, но пока говорить об этом рано.
Для того чтобы ИИ «заработал» на практике, необходимо обучение нейросети на основе больших массивов качественных данных (документации о завершенных проверках) в «цифровом» виде, считает Константин Головщинский. «С этим — большие сложности, так как документооборот контрольных органов еще далек до полного перевода на электронные рельсы»,— отмечает он. Потенциальные риски — например, ошибки из-за некачественных данных, нивелируются человеческим контролем и регулярной валидацией моделей, полагает, в свою очередь, Константин Никитин.