За последний месяц минимум два кейса обнажили кризис в использовании ИИ властью.
Новгородский скандал (январь, 2026): PR-команды губернатора Александра Дронова и депутатов, не адаптировав ИИ-поздравления ко Дню студента, выдали гражданам безликий цифровой продукт. Детектор GigaCheck от Сбера и идентичные тексты у разных лиц это подтвердили. История прежде всего о репутационном провале.
Скандал в Госдуме (январь, 2026): в пояснительной записке к законопроекту о поддержке молодежных НКО была обнаружена техническая метка (utm_source=chatgpt.com), указывающая на использование зарубежного ИИ-сервиса ChatGPT для поиска информации. В комитете Госдумы это объяснили тем, что сотрудник использовал нейросеть только для поиска источника, а сам текст закона писали люди, однако инцидент породил публичные подозрения в использовании ИИ для законотворчества.
Причины, по которым чиновники и политики идут по пути наименьшего сопротивления с ИИ, понятны.
Прежде всего, это экономия ресурсов. Как метко отмечает политолог Глеб Кузнецов в интервью «Клубу Регионов», для чиновника главный плюс ролика, где он предстает в виде орла, – «он в этом ролике никак не снимался, не тратил на него свое драгоценное время». ИИ все чаще применяется для быстрого выполнения формальных задач.
Вторая причина – формализм многих коммуникационных жанров. Поздравления, отчеты, ответы на обращения зачастую представляют собой шаблонные тексты. Чиновнику проще сгенерировать текст, чем искать живые слова и подбирать интонацию. Однако, как показывает новгородская история, бездумное копирование ИИ-болванки демонстрирует дефицит креативности и ведет к прямому репутационному провалу.
Наконец, ошибочная ставка на технологию вместо смысла. Многие команды верят, что «современный формат» (тот же мультяшный ролик с нейросетевой графикой) сам по себе произведет впечатление. Но, как иронизирует Кузнецов, часто такой ход делается, чтобы «порадовать начальство», а не для диалога с избирателем.
По мнению социологов, отношение общества к использованию ИИ осторожно и противоречиво. По данным ВЦИОМ, в 2025 году о технологии слышали 92% россиян, но лишь половина (51%) может объяснить ее суть – лучше всех с этим справляется молодежь 18–24 лет.
С доверием ситуация неоднозначна. Если в 2024 году ИИ доверяли 52% граждан, то к концу 2025-го мнения разделились: 45% доверяют, 43% – нет. При этом к применению ИИ в государственном управлении скептически относятся 53% опрошенных.
Главные страхи также сместились. По данным Vox Populi, хотя риск манипуляций остается, теперь люди чаще называют более прагматичные угрозы: ошибки в работе ИИ (30%), деградация населения (26%) и принципиальное недоверие к машинам (23%). Публичные скандалы лишь усиливают эти опасения, подрывая доверие к власти в цифровой сфере.
Кузнецов прямо связывает репутационные риски с низким качеством исполнения. Попытки заменить нейросеткой команду профессионалов, по его мнению, приведут к провалу и насмешкам. «Но если делать это аккуратно и по-умному, то никто этого не заметит», – отмечает эксперт, указывая на необходимость глубокой доработки ИИ-контента.
Очевидно, ИИ из политической коммуникации никуда не денется. Вопрос в качестве применения. Власть будет искать баланс: суды могут запрещать отдельные приемы, а Госдума – вводить для них правила. Это создаст четкие рамки, но и дистанцию между регионами. Те, кто используют ИИ как костыль, будут попадать в скандалы. Команды, которые вкладываются в качественную обработку и сохраняют человеческое лицо, получат преимущество. Обществу все важнее искренность, и безликий текст от алгоритма станет раздражать больше, чем простая открытка от человека.
В конечном счете, технология, подменяющая смысл, уничтожает доверие.
