Что Закон об искусственном интеллекте меняет на практике
- Свидетель.kz

- 18 нояб. 2025 г.
- 3 мин. чтения

17 ноября Казахстан официально стал одной из первых стран региона, принявшей отдельный Закон «Об искусственном интеллекте».
Важно: закон не просто фиксирует определения и принципы. Он создаёт новые правила игры для бизнеса, госсектора и разработчиков ИИ.
Европейский курс с азиатским уклоном
Закон во многом схож с европейским AI Act: он вводит классификацию ИИ-систем по уровню риска, прописывает принцип прозрачности, вводит ответственность разработчиков и операторов.
Но есть важное отличие: Казахстан выбрал модель, где государство не только регулирует, но и намерено полностью контролировать сферу. Именно поэтому в законе появилась отдельная норма о национальной платформе искусственного интеллекта и её операторе. Это гибрид европейской модели регулирования и китайской логики контроля и централизации инфраструктуры.
На практике это означает, что государство будет играть решающую роль в создании и хранении библиотек данных, интеграции моделей ИИ и предоставлении сервисов.
Новая норма для медиа и рекламы
Одна из самых практичных норм: всё, что создано ИИ (изображения, видео, голос, текст), должно быть маркировано как синтетический результат.
Это касается:
новостных редакций;
рекламных агентств;
блогеров;
студий, работающих с deepfake-голосом;
компаний, использующих генеративные инструменты.
Для всех, кто работает с контентом, это означает новое правило: либо маркируй, либо готовься доказывать, что ИИ не причём. В перспективе могут появиться штрафы, отдельные стандарты и автоматические инструменты проверки.
Под особым контролем
Закон вводит три уровня риска: минимальный, средний и высокий.
К «высоким рискам» потенциально могут отнести:
системы, принимающие решения в госуправлении,
алгоритмы кредитного скоринга,
системы распознавания лиц и биометрии,
ИИ в медицине, промышленности, транспорте,
любые модели, которые влияют на права, безопасность и здоровье людей.
Для таких систем потребуется:
документация и подтверждение безопасности,
управление рисками,
внутренние процедуры оценки воздействия,
обеспечение объяснимости и прозрачности,
защита от дискриминации.
Это новый уровень бюрократии, но и необходимый шаг, если Казахстан хочет интегрироваться в глобальные цепочки поставок ИИ-технологий.
Ограничения на манипуляции, эмоции и биометрию
Закон запрещает:
технологии, которые могут манипулировать поведением человека,
скрытую психологическую стимуляцию,
распознавание эмоций без оснований и согласия,
дискриминационные алгоритмы,
использование биометрии вне правовых условий.
Особенно важна норма о манипулятивных технологиях. Она приближает Казахстан к европейским стандартам и прямо исключает опасные сценарии применения ИИ (например, «скрытый политический таргетинг» или эмоциональный мониторинг сотрудников).
Госсектор: большие перемены и большие риски
Закон определяет уполномоченный орган, который будет отвечать за ИИ-политику, и создаётся национальная платформа.
Государству предстоит:
запускать ИИ-решения через единую инфраструктуру,
обеспечивать хранение и доступ к данным,
проверять соответствие моделей требованиям,
выстраивать аудит и процедуры контроля.
Риски:
если всё будет сделано формально, то бизнес получит новый бюрократический барьер;
если качественно, то национальная платформа может стать точкой роста для локальной ИИ-индустрии.
Что это значит для бизнеса
Нужно готовиться к новым обязанностям:
вести документацию моделей,
маркировать синтетический контент,
оценивать риски и описывать меры безопасности,
проверять отсутствие дискриминационных эффектов,
информировать пользователей о возможностях и ограничениях ИИ.
Для кого особенно важно
финтех,
телеком-операторы,
digital-платформы,
HR-сервисы,
банки,
медицинский сектор,
любые компании, использующие прогнозирование и анализ биометрии.
Закон создаёт ответственность владельцев ИИ-систем:
если алгоритм навредит человеку, ответственность – на владельце или операторе системы. Это должно стимулировать компании к страхованию ответственности и пересмотру процессов разработки.
Что это значит для пользователей
Появится больше прозрачности и защиты:
человеку должны объяснять, где и как применяется ИИ;
синтетический контент будет обозначен;
рискованные системы будут проверяться;
собираемые данные и биометрия под строжайшим контролем.
Это шаг к тому, чтобы пользователи не попадали под скрытую манипуляцию, не становились объектом «чёрных ящиков» и могли оспорить решения ИИ.
Что дальше?
Закон вступает в силу поэтапно, и сейчас время подзаконных актов: стандарты, методики, классификаторы, требования к национальной платформе.
Под ударом могут оказаться стартапы, поскольку слишком строгие правила и завышенные требования могут замедлить развитие локального ИИ-бизнеса.
Фото: shutterstock.com/Vladimir Tretyakov
Подписывайтесь на @Свидетель.KZ




