Риски ИИ в социальных услугах: как избежать негативных последствий
Об этом сообщает «Politexpert» со ссылкой на Politexpert
Использование искусственного интеллекта (ИИ) в социальных услугах становится всё более популярным. Однако не все его применения оказываются безвредными. Один из ярких примеров — использование ChatGPT в документации по защите детей, где ИИ ошибочно назвал игрушку сексуального назначения «соответствующей возрасту игрушкой». Это привело к запрету на использование генеративного ИИ в системе защиты детей в Австралии, но такие ошибки часто остаются незамеченными в других сферах.
Социальные службы применяют ИИ для повышения эффективности работы. Чат-боты, рекомендательные системы и системы оценки рисков позволяют быстрее обрабатывать данные, предоставлять психотерапевтическую помощь и даже прогнозировать риски насилия или безработицы. Однако многие из этих технологий могут быть вредными и даже травмирующими, если неправильно используются или не настроены должным образом.
Многие системы ИИ могут усилить дискриминацию или создать новые формы травм. Например, системы оценки рисков, использующие данные о неблагополучных семьях, могут несправедливо таргетировать уязвимые слои населения, такие как бедные или многонациональные семьи. Появление таких инструментов в социальной работе увеличивает риск нарушения прав людей и усиливает существующие предвзятости.
Для минимизации таких рисков важно использовать подход, ориентированный на травмированность, который учитывает потенциальный вред и опасности от применения ИИ. Специальные инструменты, такие как разработанный нами набор для оценки травматического воздействия ИИ, могут помочь социальной службе оценить безопасность технологий и их влияние на клиентов, прежде чем они будут внедрены в практику.
Напомним, ранее мы писали о том, что изменится в бизнесе к 2030 году.