После многих лет зависимости от смартфонов в качестве основного источника дохода, Qualcomm нацелилась на совершенно новый фронт — центр обработки данных ИИ.
Компания объявила о своем выходе на рынок с высокими ставками с новой линейкой специализированных AI-ускорителей и серверов, что сигнализирует о драматическом расширении ее бизнес-модели и вызове доминированию Nvidia и AMD.
Новая семья процессоров, начиная с AI200, является первым серьезным шагом Qualcomm в сторону крупномасштабной инфраструктуры. Это не просто выпуск чипов, а попытка создать полнофункциональную платформу — с процессорами, сетевыми решениями и энергоэффективной технологией AI-инференса — которая может конкурировать с крупнейшими игроками в этой области.
От телефонов до облака: переоснащение в движении
На протяжении десятилетий репутация Qualcomm была связана с мобильной революцией. Ее процессоры Snapdragon обеспечивали работу всего, от флагманских устройств на Android до подключенных автомобилей. Но руководство компании знает, что следующая возможность на триллионы долларов находится в другом месте — в вычислениях ИИ и огромной экономике дата-центров, которая их поддерживает.
К 2026 году Qualcomm представит свою систему AI200, за которой через год последует более мощная AI250, а в 2028 году - третье поколение. Каждое из этих обновлений, как утверждает компания, углубит её вовлеченность в рабочие нагрузки ИИ-инференции — «фазу развертывания» машинного обучения, где обученные модели выполняют задачи в реальном мире, такие как распознавание изображений, автоматизация и рекомендательные системы.
Вместо того чтобы гоняться за рынком обучения, где доминирует Nvidia, Qualcomm сосредоточилась на эффективности и масштабируемости — двух областях, которые могут заинтересовать гипермасштабные компании, пытающиеся контролировать растущие затраты на электроэнергию и оборудование.
Инженерная эффективность в гонке ИИ
В основе этой стратегии лежит Hexagon NPU Qualcomm ( Нейронный процессор ) — технология, изначально разработанная для мобильных процессоров, но теперь масштабированная для систем, монтируемых в стойки. Эта архитектура NPU позволяет осуществлять низкопотребляющую, высокопроизводительную инференцию за небольшую долю стоимости по сравнению с конкурентными GPU.
Хотя чипы Nvidia превосходят в производительности при обучении моделей, Qualcomm делает ставку на то, что многие корпоративные рабочие нагрузки будут придавать приоритет устойчивости и TCO (общей стоимости владения) вместо грубой производительности. Ожидается, что системы компании значительно сократят потребление энергии, при этом обеспечивая надежные скорости вывода ИИ.
В отличие от многих конкурентов, которые объединяют чипы и серверы в единое целое, Qualcomm планирует предложить модульную экосистему. Клиенты смогут приобретать отдельные ускорители, серверные компоненты или полные системы в масштабе стойки, в зависимости от их потребностей.
По словам Дурги Маллади, главы планирования технологий и решений для центров обработки данных Qualcomm, этот открытый подход может даже сделать чипы компании доступными для конкурентов. “Наше оборудование может вписаться в инфраструктуру любого,” отметила Маллади — дипломатичное, но красноречивое замечание, которое намекает на партнерство с потенциальными конкурентами, такими как AMD или Nvidia.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Акции Qualcomm: цена выросла на 20%, поскольку компания становится основным конкурентом в области ИИ против Nvidia и AMD
После многих лет зависимости от смартфонов в качестве основного источника дохода, Qualcomm нацелилась на совершенно новый фронт — центр обработки данных ИИ.
Компания объявила о своем выходе на рынок с высокими ставками с новой линейкой специализированных AI-ускорителей и серверов, что сигнализирует о драматическом расширении ее бизнес-модели и вызове доминированию Nvidia и AMD.
Новая семья процессоров, начиная с AI200, является первым серьезным шагом Qualcomm в сторону крупномасштабной инфраструктуры. Это не просто выпуск чипов, а попытка создать полнофункциональную платформу — с процессорами, сетевыми решениями и энергоэффективной технологией AI-инференса — которая может конкурировать с крупнейшими игроками в этой области.
От телефонов до облака: переоснащение в движении
На протяжении десятилетий репутация Qualcomm была связана с мобильной революцией. Ее процессоры Snapdragon обеспечивали работу всего, от флагманских устройств на Android до подключенных автомобилей. Но руководство компании знает, что следующая возможность на триллионы долларов находится в другом месте — в вычислениях ИИ и огромной экономике дата-центров, которая их поддерживает.
К 2026 году Qualcomm представит свою систему AI200, за которой через год последует более мощная AI250, а в 2028 году - третье поколение. Каждое из этих обновлений, как утверждает компания, углубит её вовлеченность в рабочие нагрузки ИИ-инференции — «фазу развертывания» машинного обучения, где обученные модели выполняют задачи в реальном мире, такие как распознавание изображений, автоматизация и рекомендательные системы.
Вместо того чтобы гоняться за рынком обучения, где доминирует Nvidia, Qualcomm сосредоточилась на эффективности и масштабируемости — двух областях, которые могут заинтересовать гипермасштабные компании, пытающиеся контролировать растущие затраты на электроэнергию и оборудование.
Инженерная эффективность в гонке ИИ
В основе этой стратегии лежит Hexagon NPU Qualcomm ( Нейронный процессор ) — технология, изначально разработанная для мобильных процессоров, но теперь масштабированная для систем, монтируемых в стойки. Эта архитектура NPU позволяет осуществлять низкопотребляющую, высокопроизводительную инференцию за небольшую долю стоимости по сравнению с конкурентными GPU.
Хотя чипы Nvidia превосходят в производительности при обучении моделей, Qualcomm делает ставку на то, что многие корпоративные рабочие нагрузки будут придавать приоритет устойчивости и TCO (общей стоимости владения) вместо грубой производительности. Ожидается, что системы компании значительно сократят потребление энергии, при этом обеспечивая надежные скорости вывода ИИ.
Гибкая архитектура, стратегическое позиционирование
В отличие от многих конкурентов, которые объединяют чипы и серверы в единое целое, Qualcomm планирует предложить модульную экосистему. Клиенты смогут приобретать отдельные ускорители, серверные компоненты или полные системы в масштабе стойки, в зависимости от их потребностей.
По словам Дурги Маллади, главы планирования технологий и решений для центров обработки данных Qualcomm, этот открытый подход может даже сделать чипы компании доступными для конкурентов. “Наше оборудование может вписаться в инфраструктуру любого,” отметила Маллади — дипломатичное, но красноречивое замечание, которое намекает на партнерство с потенциальными конкурентами, такими как AMD или Nvidia.