GPT-4.5 прошел классический тест Тьюринга: ИИ убедил людей в своей человечности

GPT-4.5 прошел классический тест Тьюринга: ИИ убедил людей в своей человечности

Исследователи из Университета Сан-Диего провели эксперимент, в ходе которого языковая модель GPT-4.5 смогла успешно пройти классический тест Тьюринга в его оригинальной трёхсторонней конфигурации. В 73% случаев участники эксперимента принимали искусственный интеллект за человека.

Учёные использовали формат, при котором испытуемый одновременно общался с человеком и языковой моделью, после чего должен был определить, кто есть кто. Это важный нюанс, поскольку ранее языковые модели проходили только упрощённую двустороннюю версию теста Тьюринга, а не его классический вариант.

В исследовании приняли участие 126 студентов и 158 человек из онлайн-платформы Prolific. Каждая сессия длилась около пяти минут, в течение которых происходил обмен в среднем восемью сообщениями. Для успешного прохождения теста языковой модели требовалось не просто казаться правдоподобно человечной, но выглядеть более человечной, чем реальный человек в той же беседе.

Примечательно, что для достижения наилучших результатов исследователи использовали особый подход к настройке языковых моделей. Помимо базовой инструкции об участии в тесте Тьюринга, моделям давали дополнительную установку: принять персону молодого интроверта, разбирающегося в интернет-культуре и использующего сленг.

Важно отметить, что участники эксперимента при определении "человечности" собеседника ориентировались не столько на знания или логику рассуждений, сколько на лингвистический стиль, плавность беседы и социально-эмоциональные факторы. Этот "интуитивный" подход к оценке позволил GPT-4.5 успешно имитировать человеческое общение.

Исследователи подчеркивают, что успешное прохождение теста Тьюринга не означает появления у искусственного интеллекта настоящего человеческого сознания. Однако это достижение демонстрирует, насколько убедительно современные языковые модели могут имитировать человеческое общение, что открывает новые возможности для развития ИИ, но также вызывает опасения о потенциальном использовании таких технологий в манипулятивных целях.