Даже «мизерный» объем дезинформации при обучении смог испортить ответы ИИ 0 09.01.2025 12:32 Рамблер Исследование Нью-Йоркского университета показывает, что внесение даже мизерного количества медицинской дезинформации в большие языковые модели (LLM) может существенно повлиять на их точность. Moscow.media Частные объявления сегодня Rss.plus Все новости за 24 часа