Джен-Сун Хуанг дав 10 мільярдів доларів Nokia: амбіції заробити 200 мільярдів.

Дженсен Хуанг оголосив на GTC 2025, що NVIDIA інвестує $1 млрд у Nokia для спільної розробки технології AI-RAN, орієнтованої на ринок RAN вартістю $200 млрд. (Синопсис: Хуїда вклав 1 мільярд доларів у Nokia і став найбільшим акціонером!) Nokia підскочила на 21%, що за цим думає Хуан Цзеньсюнь? (Передісторію додано: Nokia запустить телефони Web3? Подайте заявку на патент на шифрування цифрових активів, оптимістично налаштований щодо розвитку блокчейну Хуан Цзеньсюнь викликав хвилю великих кроків на GTC 2025 року. На GTC 2025 Дженсен Хуанг оприлюднив різку новину, Nvidia інвестує $1 млрд у Nokia. Так, це Nokia, компанія мобільних телефонів Symbian, яка була популярна по всій країні 20 років тому. У своєму виступі Хуанг сказав, що телекомунікаційні мережі перебувають у розпалі серйозного переходу від традиційних архітектур до систем на основі штучного інтелекту, і інвестиції Nvidia прискорять цей процес. Тому NVIDIA інвестувала в створення платформи штучного інтелекту для мереж 6G разом з Nokia, щоб розширити можливості штучного інтелекту в традиційних мережах RAN. Специфічною формою інвестицій є підписка Nvidia на близько 166 млн нових акцій Nokia за ціною $6,01 за акцію, що дасть Nvidia близько 2,9% Nokia. На момент оголошення про партнерство акції Nokia зросли на 21%, що стало найбільшим приростом з 2013 року. Що таке AI-RAN? RAN — це мережа радіодоступу, а AI-RAN — це нова мережева архітектура, яка вбудовує обчислювальну потужність штучного інтелекту безпосередньо в бездротову базову станцію. У той час як традиційні системи RAN в основному відповідають за передачу даних між базовими станціями та мобільними пристроями, AI-RAN додає периферійні обчислення та інтелектуальні можливості обробки. Дозвольте базовим станціям застосовувати алгоритми штучного інтелекту для оптимізації використання спектру та енергоефективності, покращуючи загальну продуктивність мережі, одночасно використовуючи активи неактивного RAN для розміщення периферійних служб штучного інтелекту, які створюють нові потоки доходів для операторів. Оператори можуть запускати програми штучного інтелекту безпосередньо на місці на базовій станції без необхідності відправляти всі дані назад до центрального дата-центру для обробки, що значно знижує навантаження на мережу. Хуанг навів приклад, майже 50% користувачів ChatGPT доступні через мобільні пристрої, мало того, ChatGPT має понад 40 мільйонів щомісячних завантажень на мобільні пристрої, в епоху вибухового зростання додатків штучного інтелекту традиційні системи RAN не можуть впоратися з генеративним ШІ та мобільними мережами, керованими агентами. AI-RAN надає можливості розподіленого висновування штучного інтелекту на периферії, щоб подальші програми штучного інтелекту, такі як агенти та чат-боти, реагували швидше. У той же час AI-RAN також готовий до інтегрованих додатків для зондування та зв'язку в епоху 6G. Хуанг послався на аналітичну компанію Omdia, яка очікує, що до 2030 року ринок RAN накопичить понад $200 млрд, а сегмент AI-RAN стане найбільш швидкозростаючим сегментом. Джастін Хотард, президент і генеральний директор Nokia, заявив у спільній заяві, що партнерство поставить центри обробки даних зі штучним інтелектом у кишені кожного та дозволить докорінно переробити дизайн з 5G до 6G. Зокрема, він згадав, що Nokia працює з трьома різними типами компаній: Nvidia, Dell і T-Mobile. Як один із перших партнерів, T-Mobile проводитиме польові випробування технології AI-RAN, починаючи з 2026 року, з акцентом на перевірку покращення продуктивності та ефективності. Джастін сказав, що тест надасть цінну інформацію для інновацій 6G, допомагаючи операторам створювати інтелектуальні мережі, які адаптуються до потреб штучного інтелекту. На базі AI-RAN NVIDIA випустила новий продукт під назвою Aerial RAN Computer Pro (ARC-Pro), який є платформою прискорених обчислень, підготовленою для 6G. Його основна апаратна конфігурація містить обидва графічні процесори NVIDIA: процесори Grace і графічні процесори Blackwell. Платформа працює через NVIDIA CUDA, а програмне забезпечення RAN може бути вбудовано безпосередньо в стек технологій CUDA. В результаті він може обробляти не тільки традиційні функції мережі радіодоступу, але й одночасно запускати основні програми штучного інтелекту. Це також основний підхід NVIDIA до впровадження двох літер штучного інтелекту в AI-RAN. Враховуючи довгу історію CUDA, найбільшою перевагою платформи є програмованість. Мало того, Хуанг також оголосив, що фреймворк Aerial програмного забезпечення буде з відкритим вихідним кодом, який, як очікується, буде випущений на GitHub під ліцензією Apache 2.0, починаючи з грудня 2025 року. Основна відмінність ARC-Pro від його попередника, ARC, полягає в тому, де він розгортається і коли використовується. У той час як попереднє покоління ARC в основному використовувалося для централізованої хмарної реалізації RAN, ARC-Pro може бути розгорнутий безпосередньо на майданчику базової станції, що робить можливості периферійних обчислень дійсно можливими. Ронні Вахіта, керівник телекомунікаційного бізнесу NVIDIA, сказав, що в минулому RAN і AI вимагали двох різних наборів апаратного забезпечення для реалізації, але ARC-Pro може динамічно розподіляти обчислювальні ресурси на основі потреб мережі, віддаючи перевагу функціям бездротового доступу або виконуючи завдання висновків ШІ в години простою. ARC-Pro також інтегрує платформу NVIDIA AI Aerial, повний програмний стек, який включає програмне забезпечення RAN з прискоренням CUDA, інструменти цифрових двійників Aerial Omniverse і новий Aerial Framework. Aerial Framework перетворює код Python на високопродуктивний код CUDA, який працює на платформі ARC-Pro. Крім того, платформа підтримує моделі нейронних мереж на основі штучного інтелекту для розширеної оцінки каналів. Хуанг сказав, що телекомунікації є цифровою нервовою системою для економіки та безпеки. Партнерство з Nokia та телекомунікаційною екосистемою започаткує цю революцію, допомагаючи операторам створювати розумні, адаптивні мережі, які визначають наступне покоління глобального зв'язку. Дивлячись на 2025 рік, Nvidia дійсно вклала чималі гроші. 22 вересня Nvidia та OpenAI досягли партнерства, і Nvidia планує поступово інвестувати $100 млрд у OpenAI, що прискорить побудову її інфраструктури. Хуанг розповів, що OpenAI давно шукала інвестиції у Nvidia, але на той час компанія мала обмежені кошти. Він з гумором сказав, що на той час був занадто бідним і повинен був віддати їм всі гроші. Хуанг вважає, що зростання висновків ШІ відбувається не в 100 і не в 1000 разів, а в 1 мільярд разів. І співпраця не обмежується апаратним забезпеченням, а також включає програмну оптимізацію, щоб гарантувати, що OpenAI може ефективно використовувати системи NVIDIA. Можливо, це пов'язано з тим, що він хвилювався, що OpenAI відмовиться від CUDA, дізнавшись про співпрацю між OpenAI та AMD. Як тільки найбільша у світі велика модель на основі штучного інтелекту не використовує CUDA, для інших великих постачальників моделей розумно слідувати за OpenAI. У подкасті BG2 Хуанг прогнозує, що OpenAI, ймовірно, стане наступною компанією вартістю трильйон доларів за ринковою капіталізацією, зростаючи рекордними показниками галузі. Він відкинув теорію бульбашки штучного інтелекту, вказавши, що світ щорічно витрачає суму грошей на інфраструктуру штучного інтелекту.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити