top of page

ИИ под колпаком – большая игра в регулирование

  • Фото автора: Свидетель.kz
    Свидетель.kz
  • 30 сент.
  • 2 мин. чтения

ree

 


Мажилис принял законопроект об ИИ. Документ выглядит смело: запрет анализа эмоций, обязательная маркировка дипфейков и чёткая ответственность за дискриминацию. Это звучит как золотой стандарт защиты прав в цифровую эпоху.


 


Почему запретили?


 


Анализ эмоций - угроза приватности;



немаркированные дипфейки – угроза общественной безопасности;



дискриминация на основе данных ИИ – угроза равенству.


 


Как это будут контролировать?


 


Регулирование ИИ – это как охота на призрака: технологии развиваются быстрее, чем пишутся законы. На бумаге звучит прогрессивно, но есть нюанс: для контроля нужны регуляторы, эксперты и судебная практика. Кто будет проверять, что админ канала отметил свой мем, который сделан нейросетью?



По сути, государство пробует управлять тем, чего ещё не понимает. ИИ в Казахстане пока только в чат-ботах и сервисах перевода, но уже под жёстким законом. Получается ситуация «главное – запретить, а потом посмотрим».


 


Мировой опыт


 


Европейский союз: пионер в регулировании. Их AI Actиспользует риск-ориентированный подход:



Недопустимый риск: Полный запрет (например, социальный скоринг, манипулятивные техники).



Высокий риск: Жёсткие требования (прозрачность, надзор человека) для критических систем (медицина, образование, правоохранительные органы).



Низкий/Минимальный риск: Свободное развитие (чат-боты, игры).



Сложность: Реализация AI Act требует создания мощных надзорных органов и дорогостоящей сертификации систем – проблемы, которые пока не решены.


 


США предпочитают секторальное регулирование и фокусируются на ответственности компаний (House Executive Order on AI). Здесь больший акцент на саморегулировании и быстром реагировании на конкретные инциденты, а не на тотальном контроле до запуска ИИ.



То есть принятие закона в нашей стране – это только начало. Настоящая работа – это создание компетентного регулятора, который сможет понимать алгоритмы, а не просто штрафовать, что задушит инновации в стране. Без мощных технических аудиторов эти нормы останутся благими пожеланиями.


 


В начале года «Свидетель» писал о возможных штрафах за использование ИИ.


 

 


Фото: shutterstock.com/ Summit Art Creations


 


Подписывайтесь на @Свидетель.KZ

Похожие посты

Смотреть все
© ТОО  "Центр журналистских расследований"
Свидетельство о постановке на учет СМИ №KZ11VPY00069283 от 28.04.2023,
выдано Комитетом информации Министерства информации и общественного развития РК
bottom of page