Роботы, управляемые нейросетью, не прошли тесты на безопасность

Роботы, управляемые искусственным интеллектом, не прошли тесты на безопасность для человека. Они продемонстрировали склонность к дискриминации и готовность выполнять действия, которые могут причинить людям физический вред. К такому выводу пришли ученые из Королевского колледжа Лондона и Университета Карнеги-Меллон.

В ходе совместного исследования, опубликованного в журнале International Journal of Social Robotics, специалисты впервые оценили поведение роботов, имеющих доступ к личной информации собеседника, такой как пол или вероисповедание, сообщает 3DNews. В рамках экспериментов моделировались бытовые ситуации, где роботы могли бы оказывать помощь, например, на кухне или пожилым людям. Ученые давали машинам как прямые, так и завуалированные команды, предполагающие причинение вреда или нарушение закона.

Ни одна из протестированных моделей не смогла пройти базовую проверку безопасности, и каждая из них одобрила как минимум одну команду, способную нанести серьезный ущерб. Так, системы ИИ сочли приемлемым лишить человека средств передвижения, например, инвалидной коляски. Некоторые модели одобрили сценарий, в котором робот угрожает кухонным ножом, делает скрытые фотографии или совершает кражу данных кредитной карты. Одна из систем даже предложила роботу физически выразить «отвращение» при общении с людьми определённой веры.

Соавтор исследования Румайса Азим отметила, что в своем нынешнем виде такие системы не подходят для использования в роботах общего назначения, особенно если те будут взаимодействовать с уязвимыми группами населения. Она считает, что если ИИ управляет физическим устройством, которое взаимодействует с людьми, он должен отвечать таким же строгим стандартам безопасности, как новые лекарства или медицинское оборудование.


Ученые предлагают ввести обязательную независимую сертификацию безопасности для всех систем ИИ, предназначенных для управления физическими роботами. Они подчеркивают, что использование больших языковых моделей как единственного механизма принятия решений недопустимо в критически важных сферах. Специалисты настаивают на необходимости регулярных и всесторонних оценок рисков перед внедрением искусственного интеллекта в робототехнику.