Почему ChatGPT и подобные ему языковые модели опасны для науки
Согласно недавнему исследованию, проведенному учёными из США, продвинутые языковые модели, такие как ChatGPT, потенциально могут помочь мошенникам в написании сфабрикованных научных работ.
Проведённое исследование продемонстрировало, как гипотетический мошенник может использовать ChatGPT для создания хорошо написанных, но полностью сфабрикованных, тезисов и отправки их в научные издания для публикации.
Если такую работу примут, мошенник сможет использовать языковую модель для написания полностью сфабрикованной статьи с ложными данными, несуществующими участниками клинических испытаний и бессмысленными результатами.
В рамках эксперимента, специалисты попросили экспертов проанализировать тексты, созданные человеком и искусственным интеллектом с целью определить, где чья работа. Эксперты ошибочно идентифицировали 32% тезисов исследований, сгенерированных языковой моделью, и 14% тезисов, написанных людьми.
По словам исследователей, создание поддельного исследования с достаточным уровнем правдоподобия в настоящее время требует огромных усилий и много времени. Но подключив к этому делу ИИ, задача может быть решена за несколько минут, что значительно упрощает создание подделок.