Добавить новость
ru24.net
Все новости
Январь
2026
1 2 3 4 5 6 7 8 9 10 11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31

Guardian добилась удаления ИИ-ответов Google по анализам на состояние печени

Google удалил некоторые ИИ-обзоры, которые выдавались пользователям при поиске информации о результатах медицинских анализов, пишет Guardian. По данным издания, в обобщенном ответе на поисковые запросы нейросеть выдавала такие толкования показателей из анализов, которые могли привести к ошибочным выводам и причинить вред здоровью.

Google удалил некоторые ИИ-обзоры, которые выдавались пользователям при поиске информации о результатах медицинских анализов, пишет Guardian. По данным издания, в обобщенном ответе на поисковые запросы нейросеть выдавала такие толкования показателей из анализов, которые могли привести к ошибочным выводам и причинить вред здоровью.

Внимание Guardian привлекли медицинские обзоры, созданные с помощью искусственного интеллекта и с некоторых пор отображаемые в самом верху в списке ответов на поисковые запросы в Google. Журналисты проанализировали несколько таких ответов и пришли к выводу, что они искажают реальную ситуацию и могут ввести людей в заблуждение, ведущее к причинению вреда их здоровью.

Google сначала заявила, что ее обзоры на основе искусственного интеллекта являются «полезными» и «надежными». Но потом, изучив конкретные примеры, представленные Guardian, компания признала, что некоторые ИИ-ответы "содержали неточную информацию о здоровье, подвергая пользователей риску причинения вреда"

Внимание журналистов привлек ответ нейросети на запрос о результатах анализов, направленных на выявление патологий печени. Они попросили экспертов прокомментировать обзор от ИИ, и те пришли к выводу, что в нем содержится ложная информация, способная дезориентировать людей с серьезными нарушениями работы печени и понапрасну их успокоить.

В расследовании Guardian приводятся различные ИИ-ответы Google на запросы о результатах анализов, связанных с работой печени. Из них следует, что нейросеть произвольно компилирует данные различных источников, смешивая различные системы тестирования, шкалы оценки (например, по возрасту или полу) и другие критерии, но при этом полностью игнорируя контекст.

Опрошенные Guardian эксперты сочли, что Google AI Overviews выдает обзоры, способные создать у тяжело больных пациентов ложное впечатление об их состоянии. По мнению журналистов, под влиянием этих нейросетевых советов люди, страдающие болезнями печени, могут принять критически важное для них решение — отказаться от дальнейших медосмотров.

Несмотря на первоначальные возражения, Google удалила обзоры AI Overviews по поисковым запросам «нормальный диапазон анализов крови на функцию печени» и «нормальный диапазон анализов функции печени». «В случаях, когда обзоры ИИ не учитывают контекст, мы работаем над общими улучшениями, а также принимаем соответствующие меры в соответствии с нашей политикой», — прокомментировал изменения представитель компании.

Однако эксперты в сфере здравоохранения обеспокоены тем, что удалены только ответы на конкретные запросы, хотя все они могут представлять опасность — в том числе сформулированные немного по-другому. «Мы по-прежнему обеспокоены тем, что другая информация о здоровье, созданная с помощью ИИ, может быть неточной и вводить в заблуждение», — утверждает директор по коммуникациям и политике благотворительной организации British Liver Trust Ванесса Хебдич.

Она отметила, что даже корректно изложенные подходы к предельно допустимым минимальным и максимальным значениям показателей, отраженных в анализах, не дают пользователю без медицинского образования достаточного представления о результатах диагностики.

«В обзорах по искусственному интеллекту не предупреждается о том, что нормальные результаты этих анализов могут быть получены даже при наличии серьезного заболевания печени и необходимости дальнейшего медицинского лечения. Это ложное чувство безопасности может быть очень вредным», — пояснила Хебдич.

По ее словам, беспокойство вызывает в целом широкое распространение ИИ-обзоров в сфере здравоохранения: люди ищут информацию с конкретной практической целью, которая окажет непосредственное влияние на их дальнейшие решения по поводу своего здоровья, и могут быть введены в заблуждение нейросетью.

«По-прежнему существует слишком много примеров того, как обзоры Google, созданные с помощью искусственного интеллекта, предоставляют людям неточную информацию о здоровье», — констатирует председатель Форума информации для пациентов Сью Фаррингтон.

В качестве примеров Guardian приводит ИИ-обзоры Google по запросам о раке и психическом здоровье. Опрошенные изданием эксперты оценили их как «совершенно неверные» и «действительно опасные». На вопрос о том, почему эти обзоры не были удалены, в компании ответили, что они содержали ссылки на известные и авторитетные источники и информировали пользователей о том, когда важно обратиться за консультацией к эксперту.

«Наша внутренняя группа врачей проверила предоставленную нам информацию и обнаружила, что во многих случаях она не содержала неточностей и подтверждалась качественными веб-сайтами», — заявили в пресс-службе Google.

В компании утверждают, что ИИ-обзоры выдаются в поисковых результатах только по тем запросам, в которых компания испытывает "высокую степень уверенности", а качество таких ответов якобы постоянно проверяется.




Moscow.media
Частные объявления сегодня





Rss.plus
















Музыкальные новости




























Спорт в России и мире

Новости спорта


Новости тенниса