Обновление DeepSeek V3: модель с 685 миллиардов параметров ведет инновации в AI Алгоритм

robot
Генерация тезисов в процессе

DeepSeek ведет новую эпоху ИИ: Инновации алгоритмов и Вытсчительная мощность

Недавно DeepSeek выпустила обновление последней версии V3 — DeepSeek-V3-0324 на платформе Hugging Face. Эта модель имеет 685 миллиардов параметров и значительно улучшилась в таких областях, как кодирование, дизайн интерфейса и способность к выводу.

На только что завершившейся конференции GTC 2025 генеральный директор Nvidia Дженсен Хуанг высоко оценил DeepSeek. Он подчеркнул, что ранее на рынке считали, что эффективная модель DeepSeek снизит спрос на чипы, было ошибочным мнением; в будущем вычислительные потребности будут только расти, а не уменьшаться.

DeepSeek как представительный продукт прорыва в алгоритмах, его связь с поставками чипов заслуживает обсуждения. Давайте сначала проанализируем значение вычислительной мощности и алгоритмов для развития AI-индустрии.

Вычислительная мощность и алгоритм: совместная эволюция

В области ИИ, повышение вычислительной мощности предоставляет основу для выполнения более сложных алгоритмов, позволяя моделям обрабатывать большие объемы данных и обучаться более сложным паттернам; в то время как оптимизация алгоритмов позволяет более эффективно использовать вычислительную мощность, повышая эффективность использования вычислительных ресурсов.

Вычислительная мощность и алгоритм в симбиотических отношениях перерабатывают структуру AI-индустрии:

  1. Дифференциация технического подхода: некоторые компании стремятся создать сверхбольшие вычислительные мощности, в то время как другие сосредотачиваются на оптимизации эффективности алгоритмов, формируя различные технические школы.

  2. Реконструкция цепочки поставок: один производитель чипов стал ведущим в области вычислительной мощности ИИ благодаря своей экосистеме, в то время как облачные провайдеры снижают порог развертывания благодаря гибким услугам вычислительной мощности.

  3. Корректировка распределения ресурсов: компании ищут баланс между инвестициями в аппаратную инфраструктуру и разработкой эффективных алгоритмов.

  4. Появление открытых сообществ: открытые модели, такие как DeepSeek, LLaMA, позволяют делиться результатами инноваций в алгоритмах и оптимизации вычислительной мощности, ускоряя итерацию и распространение технологий.

От вычислительной мощности до алгоритмической революции: новый парадигма AI, возглавляемая DeepSeek

Технические инновации DeepSeek

Технические инновации DeepSeek являются ключевыми факторами его успеха. Ниже приведено объяснение его основных инновационных аспектов:

Оптимизация архитектуры модели

DeepSeek использует комбинацию архитектур Transformer и MOE (Смешанная модель экспертов) и вводит механизм многоголового латентного внимания (Multi-Head Latent Attention, MLA). Эта архитектура напоминает суперкоманду, где Transformer отвечает за выполнение обычных задач, а MOE выступает в роли группы экспертов, каждый из которых обладает своей областью специализации. Когда возникает конкретная проблема, её решает наиболее подходящий эксперт, что значительно повышает эффективность и точность модели. Механизм MLA позволяет модели более гибко сосредотачиваться на различных важных деталях при обработке информации, что дополнительно улучшает производительность модели.

Инновации в методах обучения

DeepSeek представил структуру обучения с смешанной точностью FP8. Эта структура похожа на интеллектуальный распределитель ресурсов, который может динамически выбирать подходящую вычислительную точность в зависимости от требований на разных этапах обучения. Когда требуется высокая точность вычислений, используется более высокая точность для обеспечения точности модели; а когда можно принять более низкую точность, она понижается, что позволяет сэкономить вычислительные ресурсы, увеличить скорость обучения и уменьшить использование памяти.

Повышение эффективности вывода

На этапе вывода DeepSeek вводит технологию многотокенового прогнозирования (Multi-token Prediction, MTP). Традиционный метод вывода осуществляется шаг за шагом, при этом на каждом шаге предсказывается только один токен. Однако технология MTP позволяет предсказывать несколько токенов за один раз, что значительно ускоряет процесс вывода и одновременно снижает его стоимость.

Прорыв в алгоритмах обучения с подкреплением

Новый алгоритм глубокого обучения DeepSeek GRPO (Обобщенная оптимизация с вознаграждением и штрафом) оптимизирует процесс обучения модели. Укрепляющее обучение похоже на то, как если бы модели предоставлялся тренер, который направляет ее на обучение лучшему поведению через вознаграждения и штрафы. Традиционные алгоритмы укореняющего обучения могут потреблять значительное количество вычислительных ресурсов в этом процессе, в то время как новый алгоритм DeepSeek более эффективен, позволяя снизить ненужные вычисления, одновременно обеспечивая улучшение производительности модели, тем самым достигая баланса между производительностью и затратами.

Эти инновации не являются изолированными техническими моментами, а формируют целостную техническую систему, которая снижает требования к вычислительной мощности на всем протяжении цепочки от обучения до вывода. Обычные потребительские графические карты теперь также могут запускать мощные модели ИИ, что значительно снижает порог для применения ИИ, позволяя большему числу разработчиков и компаний участвовать в инновациях в области ИИ.

Влияние на производителей чипов

Многие считают, что DeepSeek обошел программный уровень определенного производителя чипов, тем самым избавившись от зависимости от него. На самом деле DeepSeek напрямую выполняет оптимизацию алгоритма через уровень параллельных потоков этого производителя. Это промежуточный язык представления, находящийся между высокоуровневым кодом и фактическими инструкциями GPU; управляя этим уровнем, DeepSeek способен достигать более тонкой настройки производительности.

Влияние на производителя чипов двустороннее: с одной стороны, DeepSeek на самом деле более глубоко связана с его аппаратным и программным экосистемами, а снижение порога входа для AI-приложений может расширить общий рынок; с другой стороны, оптимизация алгоритма DeepSeek может изменить структуру спроса на высококачественные чипы: некоторые AI-модели, которые изначально требовали высококачественные GPU для работы, теперь могут эффективно работать на средних и даже потребительских графических картах.

Значение для китайской индустрии ИИ

Оптимизация алгоритма DeepSeek предоставляет технологический прорыв для китайской AI-индустрии. В условиях ограничений на высококачественные чипы, подход "программное обеспечение компенсирует аппаратное обеспечение" уменьшает зависимость от импортных чипов высшего класса.

На upstream эффективные алгоритмы снижают давление требований к вычислительной мощности, что позволяет поставщикам вычислительных услуг продлевать срок службы оборудования за счет оптимизации программного обеспечения и увеличивать возврат инвестиций. На downstream оптимизированные открытые модели снижают порог входа для разработки AI-приложений. Множество малых и средних предприятий могут разрабатывать конкурентоспособные приложения на основе модели DeepSeek без необходимости в больших вычислительных ресурсах, что приведет к появлению большего числа AI-решений в вертикальных областях.

Глубокое влияние на Web3+AI

Децентрализованная AI инфраструктура

Оптимизация алгоритма DeepSeek предоставляет новую动力 для инфраструктуры Web3 AI. Инновационная архитектура, эффективные алгоритмы и низкие требования к вычислительной мощности делают децентрализованное AI-вывлечение возможным. Архитектура MoE естественно подходит для распределенного развертывания, разные узлы могут хранить различные сети экспертов, без необходимости в хранении полной модели на одном узле, что значительно снижает требования к хранению и вычислениям на одном узле, тем самым повышая гибкость и эффективность модели.

FP8 обучающая структура еще больше снижает потребность в высокопроизводительных вычислительных ресурсах, позволяя большему количеству вычислительных ресурсов присоединяться к сети узлов. Это не только снижает порог участия в децентрализованных AI вычислениях, но и повышает общую вычислительную мощность и эффективность сети.

Многоагентные системы

  1. Оптимизация интеллектуальных торговых стратегий: с помощью анализа данных рынка в реальном времени, предсказания краткосрочных колебаний цен, выполнения транзакций на блокчейне и мониторинга результатов сделок, совместная работа нескольких агентов помогает пользователям получать более высокую прибыль.

  2. Автоматическое выполнение умных контрактов: совместная работа агентов, таких как мониторинг, выполнение и контроль результатов умных контрактов, для реализации более сложной автоматизации бизнес-логики.

  3. Персонализированное управление инвестиционным портфелем: ИИ помогает пользователям в реальном времени находить лучшие возможности для стекинга или предоставления ликвидности в зависимости от их рискованных предпочтений, инвестиционных целей и финансового положения.

DeepSeek именно в условиях ограничения вычислительной мощности через инновации в алгоритме находит прорывы, открывая дифференцированные пути развития для китайской AI-индустрии. Снижение порога применения, продвижение интеграции Web3 и AI, уменьшение зависимости от высококачественных чипов и поддержка финансовых инноваций — все это влияет на перестройку цифровой экономики. В будущем развитие AI уже не будет лишь гонкой вычислительных мощностей, а станет соревнованием по совместной оптимизации вычислительной мощности и алгоритмов. На этой новой арене такие инноваторы, как DeepSeek, переопределяют правила игры с помощью китайской мудрости.

DEEPSEEK-3.59%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 3
  • Репост
  • Поделиться
комментарий
0/400
MEVictimvip
· 21ч назад
Генеральный директор NVIDIA действительно умеет говорить!
Посмотреть ОригиналОтветить0
DegenWhisperervip
· 21ч назад
Снова начали увеличивать количество параметров...
Посмотреть ОригиналОтветить0
ContractSurrendervip
· 22ч назад
Снова Хуан Лаобань бычий, кто понимает, тот понимает.
Посмотреть ОригиналОтветить0
  • Закрепить