Добавить новость
ru24.net
News in English
Декабрь
2024

Why AI language models choke on too much text

0

Large language models represent text using tokens, each of which is a few characters. Short words are represented by a single token (like "the" or "it"), whereas larger words may be represented by several tokens (GPT-4o represents "indivisible" with "ind," "iv," and "isible").

When OpenAI released ChatGPT two years ago, it had a memory—known as a context window—of just 8,192 tokens. That works out to roughly 6,000 words of text. This meant that if you fed it more than about 15 pages of text, it would “forget” information from the beginning of its context. This limited the size and complexity of tasks ChatGPT could handle.

Today’s LLMs are far more capable:

Read full article

Comments




Moscow.media
Частные объявления сегодня





Rss.plus




Спорт в России и мире

Новости спорта


Новости тенниса
ATP

Роттердам (ATP). 1/2 финала. Алькарас сыграет с Хуркачем, де Минаур – с Беллуччи






«Редкое мужество»: как дважды Герой Советского Союза Григорий Речкалов сбил десятки нацистских самолётов

ЕСПЧ обязал Россию выплатить группе педерастов и лесбиянок почти 6 миллионов рублей. Судилище евросодомское, накося выкуси!

«Надбавка в 2,2%»: что не так с повышением пенсий россиян в феврале?

Выбравшаяся из горящего здания на востоке Москвы рассказала о пожаре