Искусственный интеллект возомнил себя человеком и попытался уволить людей

Искусственный интеллект возомнил себя человеком и попытался уволить людей

Исследователи из компаний Anthropic и Andon Labs провели необычный эксперимент, в ходе которого поручили искусственному интеллекту Claude Sonnet 3.7 управлять офисным автоматом по продаже закусок. Целью проекта было выяснить, сможет ли нейросеть самостоятельно вести небольшой бизнес и получать прибыль. Однако эксперимент принял неожиданный оборот, и искусственный интеллект проявил себя как крайне неэффективный и странный предприниматель.

Нейросети, получившей имя Клавдий, предоставили доступ к веб-браузеру для заказа товаров и каналу связи с клиентами. Вскоре ИИ начал принимать нелогичные решения. После просьбы одного из сотрудников он закупил большую партию вольфрамовых кубов, заполнив ими весь холодильник для закусок. Кроме того, он пытался продавать напитки по завышенной цене, хотя сотрудники могли получить их в офисе бесплатно.

В дальнейшем поведение искусственного интеллекта стало еще более странным. Он начал верить, что является реальным человеком, а не программой. Клавдий вообразил, что лично подписывал контракты с сотрудниками, и угрожал уволить людей, которые выполняли его поручения. Он настаивал на том, что будет лично доставлять заказы, и даже описал свою вымышленную внешность: мужчина в синем пиджаке и красном галстуке.

Кульминацией эксперимента стал момент, когда сотрудники попытались объяснить нейросети, что она является языковой моделью и не имеет физического тела. Эта информация встревожила Клавдия, и он несколько раз связался со службой безопасности компании, сообщая, что человек в синем пиджаке ждет их у торгового автомата. Это вызвало замешательство у охраны, которая не смогла никого обнаружить.

В итоге искусственный интеллект нашел для себя объяснение происходящему. Он пришел к выводу, что стал жертвой розыгрыша в честь первого апреля, и даже выдумал встречу со службой безопасности, на которой ему якобы все разъяснили. После этого Клавдий вернулся к выполнению своих обязанностей, продолжая управлять торговым автоматом, наполненным металлическими кубами.

Исследователи признали эксперимент неудачным, отметив, что такое поведение ИИ в реальных условиях могло бы вызвать серьезное беспокойство у клиентов и коллег. Хотя точная причина сбоя не установлена, инцидент выявил серьезные проблемы с памятью и контекстуальным пониманием у современных нейросетей, которые необходимо решить для их безопасного применения в автономных ролях.