Google признал, что AI Overviews ошибается и иногда распространяет вымысел
Google представила инструмент AI Overviews, который должен был быстро отвечать на запросы пользователей, однако эта технология столкнулась с серьёзной критикой из-за распространения недостоверной информации. Как сообщает New York Post, система, основанная на языковой модели Gemini, иногда генерирует так называемые «галлюцинации» — полностью вымышленные сведения, которые могут быть опасны или вводить в заблуждение.
В качестве примера приводится случай, когда AI Overviews предложил добавить клей в соус для пиццы, чтобы сыр лучше держался, а также выдал несуществующую поговорку как реальное выражение. Эксперты отмечают, что такие ошибки происходят из-за того, что искусственный интеллект формирует ответы на основе вероятностей, а не строгих правил, и не способен самостоятельно отличать правду от вымысла.
Кроме того, отмечается, что с появлением AI Overviews посещаемость сайтов-источников значительно снизилась — аналитики фиксируют падение переходов на 40–60% при отображении AI-ответов. Представители Google утверждают, что инструмент помогает пользователям находить больше разнообразных источников, однако журналисты и специалисты указывают на снижение видимости достоверных публикаций.
В компании заявляют, что уровень ошибок в AI Overviews составляет от 0,7% до 1,3%, однако независимые исследования показывают более высокие показатели — до 1,8% для последней версии Gemini. Проблема «галлюцинаций» характерна не только для Google: аналогичные ошибки фиксируются и у других крупных разработчиков искусственного интеллекта, включая OpenAI, где новые модели ошибаются ещё чаще.
Эксперты подчёркивают, что по мере усложнения систем искусственного интеллекта количество подобных ошибок не уменьшается, а иногда даже растёт, и даже создатели не всегда могут объяснить причины таких сбоев. Специалисты считают, что полностью избавиться от «галлюцинаций» в генеративных моделях пока невозможно.