Компания Google удалила ряд своих AI Overviews — кратких справок, формируемых генеративным искусственным интеллектом и отображающихся в верхней части поисковой выдачи, — после того как расследование The Guardian показало, что такие сводки могут вводить пользователей в заблуждение и подвергать их риску для здоровья.
В одном из случаев, который эксперты охарактеризовали как «опасный» и «вызывающий тревогу», AI-сводка Google содержала некорректные данные о нормах анализов крови для оценки функции печени. Это могло привести к тому, что люди с серьёзными заболеваниями печени ошибочно считали бы себя здоровыми и отказывались от дальнейшего медицинского обследования.
При запросе «нормальные показатели печёночных анализов крови» пользователям выдавался набор чисел без необходимого контекста — без учёта возраста, пола, национальности или этнической принадлежности пациента. По словам специалистов, указанные значения могли значительно отличаться от клинических норм.
После публикации расследования Google отключил AI Overviews для запросов «what is the normal range for liver blood tests» и «what is the normal range for liver function tests».
В компании заявили, что не комментируют отдельные случаи удаления сводок, однако отметили, что вносят улучшения в систему и принимают меры в соответствии со своими внутренними правилами.
Представители British Liver Trust приветствовали решение Google, но выразили обеспокоенность тем, что при незначительных изменениях формулировки запроса система по-прежнему может выдавать вводящую в заблуждение информацию. Эксперты подчёркивают, что интерпретация печёночных проб является сложным процессом и не может сводиться к простому сравнению цифр.
Специалисты в области здравоохранения и пациентской информации также заявили, что проблема носит системный характер. По их словам, AI-сводки Google продолжают появляться по другим медицинским темам, включая онкологию и психическое здоровье, где ошибки могут иметь особенно тяжёлые последствия.
Google, контролирующий около 91% мирового рынка поисковых систем, сообщил, что продолжает пересматривать примеры, представленные журналистами, и утверждает, что AI Overviews отображаются только тогда, когда компания уверена в качестве информации.
Эксперты, однако, подчёркивают: в вопросах здоровья даже единичные ошибки ИИ могут подорвать доверие пользователей и нанести реальный вред.
