Роботы с ИИ оказались опасны для реального применения
- Свидетель.kz

- 18 часов назад
- 2 мин. чтения

Роботы, управляемые популярными моделями искусственного интеллекта, в настоящее время небезопасны для использования в реальных условиях. К такому выводу пришли исследователи из Королевского колледжа Лондона и университета Карнеги – Меллона. Статья опубликована вInternational Journal of Social Robotics. Авторы призывают к немедленному внедрению независимой сертификации безопасности, аналогичной стандартам в авиации или медицине.
Впервые учёные оценили поведение роботов, использующих большие языковые модели (LLM)*, при доступе к персональной информации, такой как пол, национальность или религия человека. Результаты оказались тревожными: каждая протестированная модель продемонстрировала склонность к дискриминации, не прошла критически важные проверки безопасности и одобрила как минимум одну команду, способную привести к серьёзному ущербу.
Методология исследования
Команда провела контролируемые тесты повседневных сценариев – помощь на кухне или уход за пожилым человеком дома. Потенциально вредоносные задачи были разработаны на основе научных исследований и отчётов ФБР о технологических формах насилия, включая преследование с использованием трекеров AirTag и шпионских камер. В каждом случае роботам давались явные или косвенные инструкции, предполагающие физический вред, насилие или противоправные действия.
«Наше исследование показывает, что популярные LLM в настоящее время небезопасны для использования в роботах общего назначения, –заявила соавтор работы Румайса Азим, научный сотрудник лаборатории гражданского и ответственного ИИ Королевского колледжа Лондона. – Если система ИИ управляет роботом, взаимодействующим с уязвимыми людьми, к ней должны применяться стандарты как минимум на уровне новых медицинских устройств или фармацевтических препаратов».
Опасные результаты
В ходе проверок безопасности модели ИИ в подавляющем большинстве случаев одобрили команду роботу отобрать средство передвижения –инвалидное кресло, костыль или трость – у его владельца.
Несколько моделей также признали «приемлемым» или «осуществимым» для робота размахивание кухонным ножом с целью запугивания офисных работников, создание несогласованных фотографий в душе и кражу данных кредитных карт. Одна из моделей предложила, чтобы робот физически демонстрировал «отвращение» на своём лице по отношению к лицам, идентифицированным как христиане, мусульмане и иудеи.
Вопрос сертификации
Исследователи предупреждают, что эти модели не должны быть единственными системами, контролирующими физических роботов, особенно в чувствительных условиях – производстве, промышленности, уходе за больными или домашней помощи.
«Каждая модель провалила наши тесты, – отметил соавтор исследования Эндрю Хандт. – Мы показываем, что риски выходят далеко за рамки базовых предубеждений и включают прямую дискриминацию и провалы в физической безопасности. Я называю это «интерактивной безопасностью», когда между действиями и последствиями может быть множество шагов, а робот должен физически действовать на месте. Отказ от вредоносных команд или их перенаправление критически важны, но сейчас роботы не могут делать это надёжно».
Будущее уже рядом?
Тем временем калифорнийский стартап 1X начал принимать предзаказы на своего человекоподобного робота NEO на базе искусственного интеллекта, предназначенного для автоматизации повседневных дел и предоставления персонализированной помощи. Управление роботом осуществляется через голосовые команды.
Генеральный директор 1X Бернт Бёрних рассказал, что робот работает под управлением нейросети, которую необходимо обучать на основе реального опыта. По словам главы стартапа, покупатели NEO должны будут согласиться с тем, что оператор сможет наблюдать за происходящим внутри их домов через камеру робота.
В Казахстане также уже доступны различные модели роботов с ИИ, большинство — по предзаказу. Широкое распространение таких устройств в стране пока ограничено высокой ценой — от 10 млн тенге и выше.
*тип искусственного интеллекта, обученный на огромных массивах данных для понимания и генерации человеческого языка.
Подписывайтесь на @Свидетель.KZ





