top of page

Что Закон об искусственном интеллекте меняет на практике

  • Фото автора: Свидетель.kz
    Свидетель.kz
  • 18 нояб. 2025 г.
  • 3 мин. чтения

 


17 ноября Казахстан официально стал одной из первых стран региона, принявшей отдельный Закон «Об искусственном интеллекте».


Важно: закон не просто фиксирует определения и принципы. Он создаёт новые правила игры для бизнеса, госсектора и разработчиков ИИ.


 


Европейский курс с азиатским уклоном


 


Закон во многом схож с европейским AI Act: он вводит классификацию ИИ-систем по уровню риска, прописывает принцип прозрачности, вводит ответственность разработчиков и операторов.



Но есть важное отличие: Казахстан выбрал модель, где государство не только регулирует, но и намерено полностью контролировать сферу. Именно поэтому в законе появилась отдельная норма о национальной платформе искусственного интеллекта и её операторе. Это гибрид европейской модели регулирования и китайской логики контроля и централизации инфраструктуры.


 


На практике это означает, что государство будет играть решающую роль в создании и хранении библиотек данных, интеграции моделей ИИ и предоставлении сервисов.


 


Новая норма для медиа и рекламы


 


Одна из самых практичных норм: всё, что создано ИИ (изображения, видео, голос, текст), должно быть маркировано как синтетический результат.


 


Это касается:



новостных редакций;


рекламных агентств;


блогеров;


студий, работающих с deepfake-голосом;


компаний, использующих генеративные инструменты.


 


Для всех, кто работает с контентом, это означает новое правило: либо маркируй, либо готовься доказывать, что ИИ не причём. В перспективе могут появиться штрафы, отдельные стандарты и автоматические инструменты проверки.


 


Под особым контролем


 


Закон вводит три уровня риска: минимальный, средний и высокий.


 


К «высоким рискам» потенциально могут отнести:



системы, принимающие решения в госуправлении,



алгоритмы кредитного скоринга,



системы распознавания лиц и биометрии,



ИИ в медицине, промышленности, транспорте,



любые модели, которые влияют на права, безопасность и здоровье людей.


 


Для таких систем потребуется:



документация и подтверждение безопасности,


управление рисками,


внутренние процедуры оценки воздействия,


обеспечение объяснимости и прозрачности,


защита от дискриминации.


 


Это новый уровень бюрократии, но и необходимый шаг, если Казахстан хочет интегрироваться в глобальные цепочки поставок ИИ-технологий.


 

Ограничения на манипуляции, эмоции и биометрию


 


Закон запрещает:



технологии, которые могут манипулировать поведением человека,



скрытую психологическую стимуляцию,



распознавание эмоций без оснований и согласия,



дискриминационные алгоритмы,



использование биометрии вне правовых условий.


 


Особенно важна норма о манипулятивных технологиях. Она приближает Казахстан к европейским стандартам и прямо исключает опасные сценарии применения ИИ (например, «скрытый политический таргетинг» или эмоциональный мониторинг сотрудников).


 


Госсектор: большие перемены и большие риски


 


Закон определяет уполномоченный орган, который будет отвечать за ИИ-политику, и создаётся национальная платформа.



Государству предстоит:



запускать ИИ-решения через единую инфраструктуру,



обеспечивать хранение и доступ к данным,



проверять соответствие моделей требованиям,



выстраивать аудит и процедуры контроля.



Риски:



если всё будет сделано формально, то бизнес получит новый бюрократический барьер;



если качественно, то национальная платформа может стать точкой роста для локальной ИИ-индустрии.


 


Что это значит для бизнеса


 


Нужно готовиться к новым обязанностям:



вести документацию моделей,


маркировать синтетический контент,


оценивать риски и описывать меры безопасности,


проверять отсутствие дискриминационных эффектов,


информировать пользователей о возможностях и ограничениях ИИ.



Для кого особенно важно



финтех,


телеком-операторы,


digital-платформы,


HR-сервисы,


банки,


медицинский сектор,


любые компании, использующие прогнозирование и анализ биометрии.


 


Закон создаёт ответственность владельцев ИИ-систем:


если алгоритм навредит человеку, ответственность – на владельце или операторе системы. Это должно стимулировать компании к страхованию ответственности и пересмотру процессов разработки.


 


Что это значит для пользователей


 


Появится больше прозрачности и защиты:



человеку должны объяснять, где и как применяется ИИ;



синтетический контент будет обозначен;



рискованные системы будут проверяться;



собираемые данные и биометрия под строжайшим контролем.



Это шаг к тому, чтобы пользователи не попадали под скрытую манипуляцию, не становились объектом «чёрных ящиков» и могли оспорить решения ИИ.


 


Что дальше?


 


Закон вступает в силу поэтапно, и сейчас время подзаконных актов: стандарты, методики, классификаторы, требования к национальной платформе.


 


Под ударом могут оказаться стартапы, поскольку слишком строгие правила и завышенные требования могут замедлить развитие локального ИИ-бизнеса.


 

 


Фото: shutterstock.com/Vladimir Tretyakov


 


Подписывайтесь на @Свидетель.KZ

Похожие посты

Смотреть все
Генератор идей

Национальный курултай: как работает, что предлагали и что реализовано

 
 
© ТОО  "Центр журналистских расследований"
Свидетельство о постановке на учет СМИ №KZ11VPY00069283 от 28.04.2023,
выдано Комитетом информации Министерства информации и общественного развития РК
bottom of page