Добавить новость
«Время электроники»
Январь
2025
1 2 3
4
5
6 7 8 9 10
11
12 13 14 15 16 17
18
19
20 21 22 23 24
25
26
27 28 29 30 31

Землю захватит не западный ИИ Skynet ChatGPT, а китайский ИИ от DeepSeek

Понедельник, 27 января 2025 года, войдёт в историю как один из худших дней для технологических компаний со всего мира — акции большинства из них упали на фоне успеха китайского ИИ-стартапа DeepSeek. Хуже всех пришлось компании Nvidia — её капитализация рухнула примерно на $600 млрд, что является крупнейшим обвалом в истории фондового рынка США. И, возможно, это ещё не конец.

Акции Nvidia показывали суточное падение в 17,8 % — для данной компании это самый серьёзный спад с марта 2020 года. Впрочем, через день они отыграли почти 10% назад. Рыночная стоимость крупнейшего производителя ИИ-чипов в мире сократилась на 600 млрд долларов до отметки в 2,89 трлн, что является рекордным падением в истории. Прежний рекорд в 279 млрд также принадлежал Nvidia и произошёл в сентябре 2024 года. Ещё вчера Nvidia была самой дорогой компанией в мире, а уже сегодня скатилась на третье место после Apple и Microsoft, и рискует опуститься ещё ниже.

Примеру ценных бумаг Nvidia последовали акции многих других компаний технологического сектора, так или иначе связанных с ИИ. Акции Broadcom потеряли 17,3 %, AMD — 8 %, Microsoft — 3 %, Palantir — 7 %. Пожалуй, OpenAI повезло, что она не торгуется на бирже, поскольку её акции скорее всего тоже были бы в лидерах падения. Индекс Nasdaq Composite потерял 3,5 %, а индекс S&P 500 упал на 1,8 %. Добавим, что пострадали и компании, не связанные с ИИ напрямую: например, поставщики электроэнергии Constellation Energy и Vistra потеряли за день 21 и 29 % своей стоимости соответственно. Всего фондовый рынок США за день потерял более 1 трлн долларов капитализации.

Почему же инвесторы устроили распродажу акций и обвалили рынки? Всё дело в китайском стартапе DeepSeek, который нашёл способ обучать продвинутые ИИ-модели на малом количестве ускорителей вычислений. Например, при обучении одной из своих моделей на внушительных 671 млрд параметров DeepSeek использовала всего 2048 ИИ-ускорителей Nvidia H800 и потратила $5,6 млн. Это мизерная часть расходов OpenAI и Google на обучение моделей сопоставимого размера.

Кроме того, на прошлой неделе DeepSeek выпустила «рассуждающую» модель ИИ R1, которая превзошла мыслящую OpenAI o1 в важных тестах. Более того, компания опубликовала инструкции, как с минимальными затратами построить большую языковую модель, способную самостоятельно обучаться и совершенствоваться без контроля со стороны человека. Добавим, что многие свои разработки DeepSeek распространяет совершенно бесплатно. Да и платный доступ к наиболее продвинутым её системам оказывается намного дешевле, чем у конкурентов — например, R1 доступна через API компании по цене, которая на 90–95 % ниже, чем у OpenAI o1.

В итоге инвесторы поняли, что нейросети можно обучать не только по схеме «купи и установи как можно больше ускорителей вычислений», но и куда более эффективно на меньшем числе GPU. Это грозит резким падением спроса на продукцию Nvidia, выручка которой более чем на 80 % зависит как раз от ускорителей вычислений.

Ряд аналитиков предрекает Nvidia мрачное будущее и не рекомендуют пока покупать акции компании, хотя цены на них стали заманчивыми. Другие же наоборот уверены, что компания сможет быстро восстановиться, а нынешний спад как раз следует использовать для покупки акций.

Что интересно, сама Nvidia похвалила разработки DeepSeek. Компания отметила, что новая модель DeepSeek R1, является «отличным достижением в области ИИ», которое не нарушает экспортные ограничения США. Заявление также отвергает подозрения некоторых аналитиков и экспертов в том, что китайский стартап не мог совершить тот прорыв, о котором он заявлял.

Вместе с тем в Nvidia отметили, что её ускорители нужны не только для обучения ИИ-моделей, но и для инференса — запуска уже обученных систем. Причём для этого нужно очень много GPU, особенно при большом числе пользователей. «Для инференса требуется значительное количество графических процессоров Nvidia и высокопроизводительные сети», — заявили в компании.

Китайский миллиардер и владелец хедж-фонда Лян Вэньфэн (Liang Wenfeng) запустил стартап DeepSeek в области искусственного интеллекта, который разрабатывает передовые модели при ограниченных бюджете и технических ресурсах, а также рассказывает, как это можно сделать. В этом компания опередила американских лидеров рынка и устроила настоящий переполох, пишет Financial Times.

В минувшие выходные DeepSeek выпустила «рассуждающую» модель ИИ R1 и опубликовала инструкции, как с минимальными затратами построить большую языковую модель, способную самостоятельно обучаться и совершенствоваться без контроля со стороны человека.

Как сообщает издание TechCrunch, модель R1 превосходит OpenAI o1 в таких бенчмарках, как AIME, MATH-500 и SWE-bench Verified. Эти тесты охватывают различные области, включая математические задачи, программирование и общую производительность модели. AIME оценивает производительность моделей с помощью других ИИ-моделей, MATH-500 представляет собой набор задач по математике, а SWE-bench Verified ориентирован на программирование.

Особенностью R1 является её способность к самопроверке, что помогает исключить ошибки, характерные для других моделей. Однако этот подход требует больше времени для получения ответа — от нескольких секунд до нескольких минут. Тем не менее, такие модели считаются более надёжными в сложных областях, таких как математика, физика и различные науки.

В DeepSeek заявили, что R1 содержит 671 миллиард параметров, что делает её одной из крупнейших моделей в мире. Для удобства пользователей компания также выпустила упрощённые версии R1 с объёмом параметров от 1,5 до 70 миллиардов. При этом, самая компактная версия может работать даже на обычном ноутбуке, в то время как для полного варианта требуется более мощное оборудование. Тем не менее, R1 доступна через API компании по цене, которая, как утверждается, на 90–95% ниже, чем у OpenAI o1.

Отмечается, что у R1 есть и некоторые недостатки. Поскольку модель разработана в Китае, она подлежит обязательной проверке со стороны регуляторов на соответствие «основным социалистическим ценностям». Например, R1 отказывается отвечать на вопросы о событиях на площади Тяньаньмэнь или о независимости Тайваня, что характерно для многих китайских ИИ-моделей, которые избегают обсуждения острых для Поднебесной политических тем.

Стоит сказать, что DeepSeek стала первой китайской лабораторией, вступившей в реальную конкуренцию с OpenAI o1, представив предварительный вариант R1 ещё в ноябре. Однако за ней последовали и другие игроки, включая Alibaba и Kimi, принадлежащую компании Moonshot AI. По мнению исследователя искусственного интеллекта из Университета Джорджа Мейсона Дина Балла (Dean Ball), всё это свидетельствует о том, что китайские ИИ-компании продолжают оставаться «быстрыми последователями» в технологической гонке. «Успех упрощённых версий DeepSeek […] показывает, что мощные рассуждающие модели будут становиться всё более доступными и смогут работать даже на локальном оборудовании», — отметил Балл в своём посте на X.

Пионерами в разработке «рассуждающих» моделей, которые подражают когнитивным способностям человека, являются OpenAI и Google DeepMind. В декабре OpenAI выпустила полную версию своей нейросети o1, но не раскрыла, как вела её разработку. Выход DeepSeek R1 поднял вопрос, смогут ли обеспеченные ресурсами американские компании с проектами в области ИИ сохранить за собой технологическое преимущество.

Ещё в 2021 году Лян Вэньфэн начала закупать тысячи графических процессоров Nvidia для своего побочного ИИ-проекта — основным его местом работы значился фонд High-Flyer. Тогда его действия рассматривались как эксцентричное поведение миллиардера, который ищет для себя новое увлечение. Его не воспринимали всерьёз, когда он говорил о запуске кластера из 10 000 ускорителей Nvidia, да и сам он не мог внятно сформулировать своих целей — просто утверждал: «Я хочу это построить, и это изменит правила игры». Считалось, что это под силу только гигантам масштаба ByteDance и Alibaba. Свои миллиарды в High-Flyer он заработал, используя ИИ и алгоритмы для выявления закономерностей, способных повлиять на котировки акций. Его команда достигла высот, используя чипы Nvidia в торговле акциями. В 2023 году Лян Вэньфэн запустил стартап DeepSeek и объявил о намерении создать ИИ человеческого уровня.

Американские санкции, ограничившие доступ китайских компаний к ИИ-ускорителям, не помешали работе компании — её инженеры уже знали, «как раскрыть потенциал этих графических процессоров, даже если они не новейшие». Особенно опасной DeepSeek становится в связи с тем, что она готова делиться своими достижениями, а не скрывать их ради коммерческой выгоды. Компания не привлекала средств из внешних источников и не предпринимала значительных шагов для монетизации своих моделей; её область — это исследования и инженерная работа, что роднит её с ранней DeepMind. Лян характеризует DeepSeek как «местную» компанию, в которой работают доктора наук из лучших китайских вузов, а не американских институтов; а в прошлом году он сообщил в интервью, что в основной команде нет людей, которые вернулись из-за границы.

При обучении одной из своих моделей с 671 млрд параметров DeepSeek использовала всего 2048 ИИ-ускорителей Nvidia H800 и потратила $5,6 млн, и это лишь малая часть расходов OpenAI и Google на обучение систем сопоставимого размера. В Китае действительно много экспертов, которые знают, как обучать и запускать ИИ-модели, имея ограниченные вычислительные ресурсы, признают эксперты; но нет гарантии, продолжают они, что DeepSeek сможет сохранить конкурентоспособность по мере развития отрасли. При этом доходность компании High-Flyer, за чей счёт преимущественно существует DeepSeek, по итогам 2024 года снизилась, потому что её глава сейчас больше интересуется технологиями ИИ.

Напомним, в конце декабря 2024 года DeepSeek представила мощную открытую модель искусственного интеллекта DeepSeek V3 — лицензия позволяет её беспрепятственно скачивать, изменять и использовать в большинстве проектов, включая коммерческие.

DeepSeek V3 справляется со множеством связанных с обработкой текста задач, в том числе написание статей, электронных писем, перевод и генерация программного кода. Модель превосходит большинство открытых и закрытых аналогов, показали результаты проведённого разработчиком тестирования. Так, в связанных с программированием задачах она оказалась сильнее, чем Llama 3.1 405B, OpenAI GPT-4o и Alibaba Qwen 2.5 72B; DeepSeek V3 также проявила себя лучше конкурентов в тесте Aider Polyglot, проверяющем, среди прочего, её способность генерировать код для существующих проектов.

Модель была обучена на наборе данных в 14,8 трлн проектов; будучи развёрнутой на платформе Hugging Face, DeepSeek V3 показала размер в 671 млрд параметров — примерно в 1,6 раза больше, чем Llama 3.1 405B, у которой, как можно догадаться, 405 млрд параметров. Как правило, число параметров, то есть внутренних переменных, которые используются моделями для прогнозирования ответов и принятия решений, коррелирует с навыками моделей: чем больше параметров, тем она способнее. Но для запуска таких систем ИИ требуется больше вычислительных ресурсов.

DeepSeek V3 была обучена за два месяца в центре обработки данных на ускорителях Nvidia H800 — сейчас их поставки в Китай запрещены американскими санкциями. Стоимость обучения модели, утверждает разработчик, составила $5,5 млн, что значительно ниже расходов OpenAI на те же цели. При этом DeepSeek V3 политически выверена — она отказывается отвечать на вопросы, которые официальный Пекин считает щекотливыми.

В ноябре тот же разработчик представил модель DeepSeek-R1 — аналог «рассуждающей» OpenAI o1. Одним из инвесторов DeepSeek является китайский хедж-фонд High-Flyer Capital Management, который принимает решения с использованием ИИ. В его распоряжении есть несколько собственных кластеров для обучения моделей. Один из последних, по некоторым сведениям, содержит 10 000 ускорителей Nvidia A100, а его стоимость составила 1 млрд юаней ($138 млн). High-Flyer стремится помочь DeepSeek в разработке «сверхразумного» ИИ, который превзойдёт человека.

Кстати, недавно «вездесущий» Илон Маск заявил, что ИИ выучил всё известное человечеству и в 2025 году превзойдет человеческие способности. А президент США Дональд Трамп заявил о создании компании, которая инвестирует в ИИ $500 млрд.

А в середине января стало известно, что Россия выделит 15 млрд на создание центров роботизации. Рублей. То есть около $0,15 млрд. Ранее, в 2023 году, сообщалось, что власти России за 7 лет выделят 300 млрд рублей на развитие робототехники.

Кроме того, власти готовят гранты до 50 млн руб. разработчикам российских систем ИИ. А российским разработчикам ИИ власти создадут «регуляторный рай».

Сообщение Землю захватит не западный ИИ <s>Skynet</s> ChatGPT, а китайский ИИ от DeepSeek появились сначала на Время электроники.




Moscow.media
Частные объявления сегодня





Rss.plus




Спорт в России и мире

Новости спорта


Новости тенниса
WTA

Анна Калинская снялась с матча по ходу полуфинала турнира WTA-250 в Сингапуре






ТАСС: стоматолог-ортопед и бурильщик вошли в топ самых дорогих вакансий февраля

Убеждают покупать золото: МВД предупредило о новой схеме мошенничества

Вильфанд предупредил об опасных погодных явлениях в шести субъектах РФ

Петров купил дом беременной жене за ₽59 млн после продажи квартиры в Москве