В DeepMind обнаружили, что БЯМ способны к «многократному» обучению
Исследователи из Google DeepMind изучили возможности больших языковых моделей (БЯМ), которые могут работать с большим объемом текста через контекстное окно. Это исследование показало, что при включении сотен или даже тысяч примеров обучения непосредственно в запрос, возможности модели значительно улучшаются, а необходимость в традиционной тонкой настройке отпадает. Проще говоря, обучать БЯМ можно обычными текстовыми запросами, главное, чтобы они были объемными и содержали множество качественных примеров.