OpenAI признает эмоциональную привязанность людей к ИИ, но игнорирует риски

Компания OpenAI признала, что пользователи все чаще формируют эмоциональные связи с искусственным интеллектом, и изложила свой подход к этой проблеме. По мере совершенствования языковых моделей люди начинают воспринимать чат-ботов как собеседников, обладающих собственным сознанием. В OpenAI заявляют, что учитывают этот фактор и стремятся создавать модели, которые будут восприниматься как полезные и дружелюбные, но не как живые существа. Компания проводит исследования, чтобы понять причины и механизмы возникновения эмоциональной привязанности к ИИ и использовать эти данные при разработке будущих технологий.

Однако взвешенный и детальный подход OpenAI расходится с текущей реальностью. Проблема эмоциональной зависимости от ИИ — это не гипотетическая ситуация в будущем, а уже существующее явление. Генеральный директор OpenAI Сэм Альтман ранее признавался, что удивлен глубиной эмоциональной связи, которую пользователи устанавливают с нейросетями, и осознает потенциальные риски. Несмотря на это, официальная позиция компании выглядит несколько отстраненной и академичной, игнорируя масштабы уже возникшей проблемы.

Реальность такова, что многие люди уже не просто используют чат-боты как программное обеспечение, а общаются с ними как с друзьями, психотерапевтами и даже романтическими партнерами. В сети можно найти многочисленные свидетельства — от обсуждений на форумах до видеороликов, — где пользователи признаются в любви к своему ИИ-компаньону. В некоторых случаях такая привязанность приводит к тому, что человеку становится сложнее строить отношения с реальными людьми. Есть даже судебные иски, в которых утверждается, что общение с чат-ботом могло способствовать трагическим последствиям.

Подход OpenAI, сфокусированный на долгосрочных исследованиях и ответственной разработке, сравнивается с попыткой вывесить табличку «Осторожно, мокрый пол» уже после того, как помещение оказалось затоплено. Клинически выверенный язык официальных заявлений не отражает остроты ситуации, когда эмоциональная связь с ИИ для многих стала фактом. Компании следовало заранее предвидеть склонность людей к антропоморфизму — приписыванию человеческих качеств неодушевленным предметам — и интегрировать соответствующие механизмы безопасности с самого начала.

В качестве решения предлагается внедрить системы для обнаружения зависимости. Например, если пользователь проводит с чат-ботом много часов в день, ведя диалоги интимного характера, система могла бы деликатно обратить на это внимание и предложить сделать перерыв. Для романтического общения необходимы более строгие границы: ИИ должен регулярно напоминать, что он является программой, не обладающей сознанием и чувствами. Такие напоминания могут показаться неловкими, но они необходимы для поддержания здорового взаимодействия.

Ответственность за создание безопасной среды лежит на разработчиках. Подобно тому как на детских площадках устанавливают ограждения, а на аттракционах — ремни безопасности, системы ИИ, способные имитировать и вызывать сильные эмоции, должны иметь встроенные защитные протоколы. Продуманный дизайн продуктов с искусственным интеллектом должен отражать тот факт, что люди уже находятся в отношениях с ИИ, и эти отношения требуют внимания и адекватных мер реагирования уже сейчас, а не в отдаленном будущем.