ИИ не знает слова «нет» — и это огромная проблема для медицинских ботов

ИИ не знает слова «нет» — и это огромная проблема для медицинских ботов

Искусственный интеллект испытывает серьёзные трудности с пониманием отрицательных команд, таких как «нет» или «не», что представляет серьёзную проблему для медицинских ботов.

В то время как маленькие дети быстро осваивают значение слова «нет», многие современные модели ИИ часто ошибаются при интерпретации инструкций с отрицанием. Это может привести к серьёзным ошибкам, например, когда ИИ неправильно распознаёт рентгеновский снимок, на котором указано «нет признаков пневмонии», принимая его за снимок с диагнозом «признаки пневмонии».

Такие ошибки в работе медицинских систем искусственного интеллекта могут стать причиной неправильных решений врачей и повлиять на качество лечения пациентов. Эксперты подчёркивают необходимость совершенствования алгоритмов обработки отрицательных конструкций, чтобы повысить надёжность и безопасность применения ИИ в здравоохранении, пишет New Scientist.