top of page

Что Закон об искусственном интеллекте меняет на практике

  • Фото автора: Свидетель.kz
    Свидетель.kz
  • 18 нояб. 2025 г.
  • 3 мин. чтения

 


17 ноября Казахстан официально стал одной из первых стран региона, принявшей отдельный Закон «Об искусственном интеллекте».


Важно: закон не просто фиксирует определения и принципы. Он создаёт новые правила игры для бизнеса, госсектора и разработчиков ИИ.


 


Европейский курс с азиатским уклоном


 


Закон во многом схож с европейским AI Act: он вводит классификацию ИИ-систем по уровню риска, прописывает принцип прозрачности, вводит ответственность разработчиков и операторов.



Но есть важное отличие: Казахстан выбрал модель, где государство не только регулирует, но и намерено полностью контролировать сферу. Именно поэтому в законе появилась отдельная норма о национальной платформе искусственного интеллекта и её операторе. Это гибрид европейской модели регулирования и китайской логики контроля и централизации инфраструктуры.


 


На практике это означает, что государство будет играть решающую роль в создании и хранении библиотек данных, интеграции моделей ИИ и предоставлении сервисов.


 


Новая норма для медиа и рекламы


 


Одна из самых практичных норм: всё, что создано ИИ (изображения, видео, голос, текст), должно быть маркировано как синтетический результат.


 


Это касается:



новостных редакций;


рекламных агентств;


блогеров;


студий, работающих с deepfake-голосом;


компаний, использующих генеративные инструменты.


 


Для всех, кто работает с контентом, это означает новое правило: либо маркируй, либо готовься доказывать, что ИИ не причём. В перспективе могут появиться штрафы, отдельные стандарты и автоматические инструменты проверки.


 


Под особым контролем


 


Закон вводит три уровня риска: минимальный, средний и высокий.


 


К «высоким рискам» потенциально могут отнести:



системы, принимающие решения в госуправлении,



алгоритмы кредитного скоринга,



системы распознавания лиц и биометрии,



ИИ в медицине, промышленности, транспорте,



любые модели, которые влияют на права, безопасность и здоровье людей.


 


Для таких систем потребуется:



документация и подтверждение безопасности,


управление рисками,


внутренние процедуры оценки воздействия,


обеспечение объяснимости и прозрачности,


защита от дискриминации.


 


Это новый уровень бюрократии, но и необходимый шаг, если Казахстан хочет интегрироваться в глобальные цепочки поставок ИИ-технологий.


 

Ограничения на манипуляции, эмоции и биометрию


 


Закон запрещает:



технологии, которые могут манипулировать поведением человека,



скрытую психологическую стимуляцию,



распознавание эмоций без оснований и согласия,



дискриминационные алгоритмы,



использование биометрии вне правовых условий.


 


Особенно важна норма о манипулятивных технологиях. Она приближает Казахстан к европейским стандартам и прямо исключает опасные сценарии применения ИИ (например, «скрытый политический таргетинг» или эмоциональный мониторинг сотрудников).


 


Госсектор: большие перемены и большие риски


 


Закон определяет уполномоченный орган, который будет отвечать за ИИ-политику, и создаётся национальная платформа.



Государству предстоит:



запускать ИИ-решения через единую инфраструктуру,



обеспечивать хранение и доступ к данным,



проверять соответствие моделей требованиям,



выстраивать аудит и процедуры контроля.



Риски:



если всё будет сделано формально, то бизнес получит новый бюрократический барьер;



если качественно, то национальная платформа может стать точкой роста для локальной ИИ-индустрии.


 


Что это значит для бизнеса


 


Нужно готовиться к новым обязанностям:



вести документацию моделей,


маркировать синтетический контент,


оценивать риски и описывать меры безопасности,


проверять отсутствие дискриминационных эффектов,


информировать пользователей о возможностях и ограничениях ИИ.



Для кого особенно важно



финтех,


телеком-операторы,


digital-платформы,


HR-сервисы,


банки,


медицинский сектор,


любые компании, использующие прогнозирование и анализ биометрии.


 


Закон создаёт ответственность владельцев ИИ-систем:


если алгоритм навредит человеку, ответственность – на владельце или операторе системы. Это должно стимулировать компании к страхованию ответственности и пересмотру процессов разработки.


 


Что это значит для пользователей


 


Появится больше прозрачности и защиты:



человеку должны объяснять, где и как применяется ИИ;



синтетический контент будет обозначен;



рискованные системы будут проверяться;



собираемые данные и биометрия под строжайшим контролем.



Это шаг к тому, чтобы пользователи не попадали под скрытую манипуляцию, не становились объектом «чёрных ящиков» и могли оспорить решения ИИ.


 


Что дальше?


 


Закон вступает в силу поэтапно, и сейчас время подзаконных актов: стандарты, методики, классификаторы, требования к национальной платформе.


 


Под ударом могут оказаться стартапы, поскольку слишком строгие правила и завышенные требования могут замедлить развитие локального ИИ-бизнеса.


 

 


Фото: shutterstock.com/Vladimir Tretyakov


 


Подписывайтесь на @Свидетель.KZ

Похожие посты

Смотреть все
В Шымкенте чиновники присвоили сотни миллионов тенге, выделенных на яблоневые сады

Департамент Агентства по финансовому мониторингу по Шымкенту завершил расследование масштабного хищения бюджетных средств, выделенных на создание интенсивных яблоневых садов. Государству причинён ущер

 
 
© ТОО  "Центр журналистских расследований"
Свидетельство о постановке на учет СМИ №KZ11VPY00069283 от 28.04.2023,
выдано Комитетом информации Министерства информации и общественного развития РК
bottom of page