Налоговая служба Великобритании использует ИИ для слежки за соцсетями
- Свидетель.kz
- 2 дня назад
- 2 мин. чтения

По данным The Telegraph, Налоговое управление Великобритании (HMRC) впервые официально признало, что использует искусственный интеллект для мониторинга постов налогоплательщиков в социальных сетях.
Контекст ситуации
До недавнего времени HMRC не раскрывало подробности использования ИИ-технологий. Информация стала известна только после судебного разбирательства, когда налоговых консультантов заставили через трибунал добиваться раскрытия данных о применении ИИ.
Что делает ИИ
Анализирует финансовые записи и налоговые декларации.
Отслеживает траты и привычки налогоплательщиков.
Мониторит посты в социальных сетях на предмет признаков уклонения.
Ищет доказательства мошенничества и сокрытия доходов.
Сопоставляет декларируемые доходы с образом жизни в соцсетях.
Выявляет несоответствия между заявленными доходами и демонстрируемым уровнем жизни.
Технологические системы
Помимо мониторинга соцсетей, HMRC использует систему Connect – ИТ-платформу, анализирующую миллиарды точек данных для выявления налогового мошенничества.
История системы Connect
Разработана более 10 лет назад.
Становится всё более важной, поскольку HMRC пытается экономить деньги, меньше полагаясь на людей в расследованиях.
Обрабатывает миллиарды точек данных для выявления признаков уклонения от налогов.
В контексте налоговой системы HMRC точками данных могут быть:
Сумма зарплаты за месяц.
Покупка в магазине на определённую сумму.
Банковская транзакция.
Пост в социальной сети с фотографией дорогой покупки.
Поездка за границу.
Масштабы проблемы
Министр финансов Рэйчел Ривз планирует вернуть £7 млрд из общей «налоговой дыры» в £47 млрд, выявляя тех, кто недоплачивает налоги.
Новые планы правительства
В 63-страничном документе HMRC объявила о планах использовать ИИ для:
Выявления подозреваемых в уклонении от налогов.
Отправки «автоматических напоминаний» о доплате.
Повседневных налоговых процессов.
Использования чат-ботов для обобщения звонков клиентов.
Выполнения базовых административных задач.
Противники
Однако ряд политиков не согласен с таким способом применения нейросети и опасается, что в будущем это может привести к несправедливым обвинениям:
– Должна быть система сдержек и противовесов. Риск заключается в том, что ИИ может ошибиться и кого-то осудят. Это кажется немного странным, если они начнут делать это с помощью ИИ. Без контроля со стороны человека вы увидите, что проблема возникнет,
– заявил член парламента Боб Блэкман.
Опасения:
Приватность: мониторинг социальных сетей создаёт ощущение постоянной слежки. Люди могут начать самоцензурироваться.
Ошибки ИИ: алгоритмы могут неправильно интерпретировать контекст. Фото дорогого ужина может быть подарком, корпоративным мероприятием или просто единичной тратой.
Презумпция невиновности: когда машина помечает вас как подозрительного, вам приходится доказывать свою невиновность.
Социальное неравенство: богатые могут нанять лучших юристов для борьбы с алгоритмами, а обычные люди – нет.
В Казахстане пока далеки от подобной практики. Но на прошедшем 11 августа 2025 года совещании по вопросам развития искусственного интеллекта президент Казахстана заявил:
– Поручаю правительству в течении трёх месяцев разработать конкретные меры по внедрению искусственного интеллекта в сферу государственных услуг. В частности, его необходимо широко применять при рассмотрении обращений и принятии решений. Нужны конкретные механизмы, которые можно будет использовать во всей системе госуправления.
Подписывайтесь на @Свидетель.KZ