ИИ-изображения угрожают науке: как ученые будут выявлять их
Технологии генеративного искусственного интеллекта могут с легкостью создавать убедительные научные данные — издатели и эксперты про проверке опасаются потока фейков.
Проблема мошенничества в научной литературе с каждым годом становится острее. Подделки, созданные с использованием генеративного искусственного интеллекта, все труднее выявить, а это ставит под угрозу достоверность исследований. Современные технологии позволяют мошенникам быстро генерировать тексты, изображения и даже данные, которые с трудом отличимы от настоящих. О сложившейся ситуации пишет в своем новом материале журнал Nature.
«Генеративный ИИ развивается очень быстро, и это вызывает серьезные опасения», — отмечает эксперт по проверке изображений Яна Кристофер из FEBS Press в Германии. Ученые, работающие в области этики публикаций и проверки достоверности данных, сталкиваются с новыми вызовами: подделки становятся все более убедительными, а риск распространения ложной информации в научной среде растет.
Мошенники давно пользуются услугами так называемых «фабрик статей» — компаний, которые массово создают псевдонаучные публикации. С внедрением генеративного ИИ «фабрики» получили еще один мощный инструмент: теперь они могут генерировать целые статьи, включая реалистичные изображения и данные, почти мгновенно.