ИИ не знает слова «нет» — и это огромная проблема для медицинских ботов
Искусственный интеллект испытывает серьёзные трудности с пониманием отрицательных команд, таких как «нет» или «не», что представляет серьёзную проблему для медицинских ботов.
В то время как маленькие дети быстро осваивают значение слова «нет», многие современные модели ИИ часто ошибаются при интерпретации инструкций с отрицанием. Это может привести к серьёзным ошибкам, например, когда ИИ неправильно распознаёт рентгеновский снимок, на котором указано «нет признаков пневмонии», принимая его за снимок с диагнозом «признаки пневмонии».
Такие ошибки в работе медицинских систем искусственного интеллекта могут стать причиной неправильных решений врачей и повлиять на качество лечения пациентов. Эксперты подчёркивают необходимость совершенствования алгоритмов обработки отрицательных конструкций, чтобы повысить надёжность и безопасность применения ИИ в здравоохранении, пишет New Scientist.