Hasil pencarian untuk "DGX"
04:02

Jen-Hsun Huang: Komputer AI pribadi telah diproduksi secara penuh.

Jin10 Data, 19 Mei - CEO NVIDIA, Jen-Hsun Huang, menyatakan bahwa komputer AI pribadi kami, DGX Spark, telah mulai diproduksi secara penuh dan akan siap dalam beberapa minggu ke depan. Kami juga bekerja sama dengan produsen komputer global untuk meluncurkan sistem komputer pribadi DGX "AI-First", di mana DGX Spark dilengkapi dengan chip super NVIDIA GB10 dan inti tensor. Kami juga meluncurkan DGX.
Lainnya
01:00

Pemesanan Nvidia H200 mulai dikirim Q3, rencananya B100 akan dikirim pada paruh pertama tahun depan

Data Golden Ten melaporkan pada 3 Juli bahwa chip upstream dari NVIDIA AI GPU H200 telah memasuki masa produksi massal sejak akhir Q2, dengan perkiraan pengiriman dalam jumlah besar setelah Q3. Namun, jadwal peluncuran platform Blackwell NVIDIA telah dipercepat setidaknya satu hingga dua kuartal, yang mempengaruhi niat pelanggan akhir untuk membeli H200. Rantai pasokan menunjukkan bahwa saat ini pesanan pelanggan yang akan dikirim masih banyak terpusat pada arsitektur HGX H100, dengan proporsi H200 yang terbatas. H200 yang akan diproduksi secara massal dan dikirim pada Q3 akan menjadi NVIDIA DGX utama.
Lainnya
08:19
Untuk membantu pelanggan memanfaatkan sumber daya komputasi AI mereka secara lebih efisien, NVIDIA telah mencapai protokol akhir untuk penyedia perangkat lunak manajemen dan orkestrasi beban kerja berbasis Kubernetes akuisisi Run:AI, dengan jumlah yang tidak diungkapkan. Nvidia berencana untuk mempertahankan model bisnis Run: ai saat ini untuk saat ini, dan karyawan Run: ai akan bergabung dengan pusat R&D Nvidia di Israel. Pelanggan NVIDIA DGX dan DGX Cloud akan menerima kemampuan yang disediakan Run:AI untuk beban kerja AI mereka, terutama penerapan model bahasa besar. Saat ini, solusi Run:AI terintegrasi dengan produk-produk seperti NVIDIA DGX, NVIDIA DGX SuperPOD, NVIDIA Base Command, kontainer NGC, dan perangkat lunak perusahaan NVIDIA AI. Selain itu, outlet media Israel Calcalist mengharapkan akuisisi bernilai sekitar $ 700 juta.
08:06

akuisisi Nvidia dari penyedia perangkat lunak orkestrasi GPU Run:ai

Protokol pada 25 April, NVIDIA telah mencapai kesepakatan definitif tentang akuisisi Run:ai, penyedia perangkat lunak manajemen beban kerja dan orkestrasi berbasis Kubernetes, dan jumlah akuisisi spesifik belum diungkapkan. Nvidia berencana untuk mempertahankan model bisnis Run:ai saat ini untuk saat ini, dengan karyawan Run:ai bergabung dengan pusat R&D Nvidia di Israel. Selain itu, pelanggan NVIDIA DGX dan DGX Cloud akan menerima kemampuan yang disediakan Run:ai untuk beban kerja AI mereka, terutama penerapan model bahasa besar. Saat ini, solusi Run:AI telah terintegrasi dengan produk-produk seperti NVIDIA DGX, NVIDIA DGX SuperPOD, NVIDIA Base Command, kontainer NGC, dan perangkat lunak perusahaan NVIDIA AI.
Lainnya
07:58
koin Jiejie melaporkan: Pada tanggal 25 April, dilaporkan bahwa Nvidia (NVIDIA) telah mencapai protokol akhir pada akuisisi Run:ai, penyedia perangkat lunak manajemen beban kerja dan orkestrasi berbasis Kubernetes, dan jumlah akuisisi spesifik belum diungkapkan. Nvidia berencana untuk mempertahankan model bisnis Run:ai saat ini untuk saat ini, dengan karyawan Run:ai bergabung dengan pusat R&D Nvidia di Israel. Selain itu, pelanggan NVIDIA DGX dan DGX Cloud akan menerima kemampuan yang disediakan Run:ai untuk beban kerja AI mereka, terutama penerapan model bahasa besar. Saat ini, solusi Run:AI telah terintegrasi dengan produk-produk seperti NVIDIA DGX, NVIDIA DGX SuperPOD, NVIDIA Base Command, kontainer NGC, dan perangkat lunak perusahaan NVIDIA AI.
07:57
Protokol pada 25 April, NVIDIA telah mencapai kesepakatan definitif tentang akuisisi Run:ai, penyedia perangkat lunak manajemen beban kerja dan orkestrasi berbasis Kubernetes, dan jumlah akuisisi spesifik belum diungkapkan. Nvidia berencana untuk mempertahankan model bisnis Run:ai saat ini untuk saat ini, dengan karyawan Run:ai bergabung dengan pusat R&D Nvidia di Israel. Selain itu, pelanggan NVIDIA DGX dan DGX Cloud akan menerima kemampuan yang disediakan Run:ai untuk beban kerja AI mereka, terutama penerapan model bahasa besar. Saat ini, solusi Run:AI telah terintegrasi dengan produk-produk seperti NVIDIA DGX, NVIDIA DGX SuperPOD, NVIDIA Base Command, kontainer NGC, dan perangkat lunak perusahaan NVIDIA AI.
07:25
Berita PANews pada 25 April, menurut Tech In Asia, pembuat chip Amerika Nvidia mengatakan dalam sebuah pernyataan bahwa perusahaan akan akuisisi startup kecerdasan buatan Israel Run: ai. Sementara Nvidia tidak mengungkapkan nilai akuisisi tersebut, outlet media Israel Calcalist memperkirakan angka tersebut sekitar $ 700 juta. Jalankan: AI mengembangkan perangkat lunak untuk membantu bisnis mengelola kebutuhan komputasi mereka dengan lebih efisien. Ini berjalan di Kubernetes, sistem Sumber Terbuka yang dirancang oleh Google yang mengotomatiskan penerapan, penskalaan, dan pengelolaan perangkat lunak. Dalam sebuah pernyataan, Nvidia mengutip penyebaran AI pelanggan yang "semakin kompleks" sebagai alasan di balik kesepakatan itu. Dengan akuisisi ini, pembuat chip bertujuan untuk memudahkan pelanggan mengakses dan mengelola solusi GPU, mengharapkan untuk melihat penggunaan GPU yang lebih baik, manajemen infrastruktur GPU yang lebih baik, dan fleksibilitas yang lebih besar dengan sistem arsitektur terbuka. Nvidia berencana untuk mempertahankan model bisnis Run: ai saat ini untuk saat ini, dengan karyawan Run: ai bergabung dengan pusat R&D pembuat chip di Israel, yang memiliki sekitar 3.000 karyawan. Penawaran Run:ai yang akan datang juga akan disertakan dalam Nvidia DGX Cloud, platform AI yang bermitra dengan penyedia cloud teratas untuk melayani pengembang perusahaan.
02:56
Nvidia mengatakan perusahaan biotek Amgen akan membangun model AI untuk menganalisis salah satu dataset manusia terbesar di dunia, yang akan dilatih pada Nvidia DGX Superpod, platform pusat data lengkap, seperti yang dilaporkan oleh Kim Shi pada 9 Januari.
06:26
Dell Technologies baru-baru ini mengumumkan bahwa mereka akan membantu pelanggan mencapai AI yang lebih cepat dan kinerja AI generatif dengan memperkenalkan teknologi penyimpanan data perusahaan baru dan memvalidasinya dengan infrastruktur Nvidia DGX SuperPod AI, seperti yang dilaporkan oleh Webmaster's Home pada 11 Desember. Ketika datang ke kebutuhan untuk kinerja tinggi dan efisiensi dalam penyimpanan AI, Dell Distributed File Storage System PowerScale telah memperkenalkan kemajuan baru. Dengan peningkatan perangkat lunak PowerScale OneFS, organisasi dapat mempersiapkan, melatih, mengoptimalkan, dan menyimpulkan model AI dengan lebih cepat. Sistem penyimpanan all-flash PowerScale baru berdasarkan generasi terbaru server Dell PowerEdge akan memberikan kinerja hingga 2x lebih cepat bagi pelanggan dalam streaming baca dan tulis. PowerScale juga akan menghadirkan kemampuan penskalaan cerdas baru yang meningkatkan performa node komputasi individu dan meningkatkan pemanfaatan GPU, memungkinkan throughput penyimpanan yang lebih cepat untuk pelatihan AI, checkpointing, dan inferensi.
07:33
Menurut "Science and Technology Innovation Board Daily", pada 21 November, waktu setempat, Nvidia mengumumkan kemitraan dengan Genentech, anak perusahaan Roche Pharmaceuticals, untuk melakukan penelitian platform AI untuk mempercepat penemuan dan pengembangan obat. Keduanya akan membangun model AI di NVIDIA DGX Cloud. Genentech juga berencana untuk menggunakan NVIDIA BioNeMo, platform AI generatif untuk penemuan obat, untuk memungkinkan biotek menyesuaikan model dalam skala besar dan mengintegrasikan antarmuka pemrograman aplikasi cloud BioNeMo langsung ke dalam alur kerja penemuan obat komputasi.
  • 1
04:22
BABBITT, 7 November (GLOBE NEWSWIRE) – Nvidia mengumumkan bahwa mereka bermitra dengan penyedia layanan komunikasi Amdocs untuk mengoptimalkan model bahasa besar (LLM) untuk mempercepat adopsi AI generatif di industri telekomunikasi senilai $ 1,7 triliun. Kedua perusahaan akan menyesuaikan LLM tingkat perusahaan yang berjalan pada komputasi terakselerasi NVIDIA sebagai bagian dari kerangka Amdocs amAIz, memungkinkan penyedia layanan komunikasi untuk secara efisien menyebarkan kasus penggunaan AI generatif di seluruh bisnis mulai dari pengalaman pelanggan hingga konfigurasi jaringan. Amdocs akan menggunakan superkomputer NVIDIA DGX Cloud AI dan perangkat lunak NVIDIA AI Enterprise untuk mendukung strategi adopsi yang fleksibel dan membantu memastikan bahwa penyedia layanan dapat menggunakan aplikasi AI generatif secara sederhana dan aman. Menurut laporan, pelanggan Amdocs mencakup lebih dari 350 perusahaan telekomunikasi dan media terkemuka di dunia, termasuk 27 dari 30 penyedia layanan top dunia.
  • 1
08:55
Nvidia meluncurkan superkomputer cloud DGX paling canggih di Oracle Cloud, menyediakan unit pemrosesan grafis yang kuat untuk beban kerja seperti AI generatif, seperti yang dilaporkan oleh Webmaster House pada 20 Oktober. Layanan superkomputer AI yang dihosting cloud ini memberi pelanggan semua yang mereka butuhkan untuk melatih AI generatif dan aplikasi lain dengan cepat, berdasarkan platform DGX Nvidia dengan akses ke beberapa kerangka kerja AI dan model yang telah dilatih sebelumnya. Sebuah Universitas New York telah menggunakan Nvidia DGX Cloud AI sebagai dasar untuk inisiatif AI Plus-nya, yang mendorong pendidikan dan penelitian di berbagai bidang, termasuk keamanan siber, prakiraan cuaca, analitik data kesehatan, dan banyak lagi.
10:56
Menurut berita dari Jinshi pada tanggal 8 September, Nvidia dan Reliance Group telah mencapai kemitraan dalam mempromosikan kecerdasan buatan di India. Kedua pihak akan bersama-sama mengembangkan AI bahasa dasar berskala besar; Izin untuk DGX Cloud.
  • 1
01:34
Menurut laporan "Kechuang Board Daily" pada tanggal 23 Agustus, sewa daya komputasi adalah cara menyewa sumber daya komputasi melalui penyedia layanan komputasi awan Song Jiaji, seorang analis di Guosheng Securities, percaya bahwa kekuatan komputasi awan mengadopsi metode "membagi" keseluruhan menjadi bagian". Metode ini memberdayakan semua pihak dalam rantai industri dan berkelanjutan. Di sisi permintaan, seiring dengan meningkatnya daya komputasi yang dibutuhkan untuk model skala besar AIGC, potensi pasar sewa daya komputasi AI meningkat. Di sisi pasokan, produsen daya komputasi telah lama bekerja sama dengan platform cloud.Dengan diluncurkannya cloud NVIDIA DGX, kekuatan komputasi cloud AI telah memasuki tahap baru. Sumber daya inti dari penyewaan daya komputasi terletak pada dana, pelanggan, serta kemampuan operasi dan pemeliharaan. Tiga jenis perusahaan yang dominan: memiliki keunggulan sebagai penggerak pertama dan memiliki pesanan; memiliki kemampuan untuk mengoperasikan dan memelihara daya komputasi AI; kekuatan .
09:15

DeepL menggunakan NVIDIA DGX SuperPOD untuk memperluas kemampuan LLM-nya

Layanan terjemahan mesin neural yang berbasis di Jerman, DeepL, mengumumkan bahwa mereka telah menerapkan platform infrastruktur pusat data AI NVIDIA DGX SuperPOD di salah satu pusat datanya di Swedia untuk memperluas kemampuan LLM-nya. Menurut DeepL, ini adalah "penyebaran komersial pertama sebesar ini di Eropa". Tolok ukur menunjukkan kinerja 21,85 PFlop/s, yang menempati peringkat ke-26 secara global dan ke-8 di Eropa. Terdiri dari 68 sistem NVIDIA DGX H100, NVIDIA DGX SuperPOD akan membantu DeepL melatih model bahasa besar lebih cepat dan mengembangkan alat komunikasi AI baru untuk pasar global.
Lainnya
15:16
Menurut sebuah laporan oleh The Decoder pada 2 Agustus, DeepL, layanan terjemahan mesin saraf yang berbasis di Jerman, mengumumkan bahwa mereka telah menggunakan platform infrastruktur pusat data AI Nvidia DGX SuperPOD di salah satu pusat datanya di Swedia untuk memperluas kemampuan LLM-nya. Menurut DeepL, ini adalah "penyebaran komersial pertama sebesar ini di Eropa". Tolok ukur menunjukkan kinerja 21,85 PFlop/s, yang menempati peringkat ke-26 secara global dan ke-8 di Eropa. Terdiri dari 68 sistem NVIDIA DGX H100, NVIDIA DGX SuperPOD akan membantu DeepL melatih model bahasa besar lebih cepat dan mengembangkan alat komunikasi AI baru untuk pasar global.
03:32
Menurut sebuah laporan oleh "Kechuang Board Daily" pada 3 Juli, analis Raymond James (Ruijie Financial) Srini Pajjuri mengatakan bahwa "AI-as-a-service" dari cloud DGX Nvidia adalah peluang jangka panjang yang besar dan diharapkan untuk menjadi bisnis skala besar di masa depan. Nvidia memiliki model AI yang dapat dimanfaatkan perusahaan, dan perusahaan dapat menggunakannya untuk menyesuaikan modul bahasa besar yang berisi data khusus perusahaan. Selain itu, analis menunjukkan bahwa Nvidia akan meluncurkan produk terkait AI akhir tahun ini. Setelah berbicara dengan Simona Jankowski, kepala hubungan investor dan keuangan strategis perusahaan, dia yakin adopsi AI generatif akan terus mendorong pertumbuhan kuat perusahaan di kuartal mendatang.
13:34
Odaily Planet Daily News Pada tanggal 28 Mei, Waktu Bagian Timur, pendiri dan CEO NVIDIA Jensen Huang mengumumkan dalam pidatonya di NVIDIA Computex 2023 bahwa mesin AI generatif NVIDIA DGX GH200 kini dalam produksi massal. Situs web resmi NVIDIA menunjukkan bahwa NVIDIA DGX GH200 adalah superkomputer AI tipe baru yang sepenuhnya menghubungkan 256 chip super NVIDIA Grace Hopper ke dalam satu GPU, dan mendukung pelatihan model besar AI dengan triliunan parameter. Mampu menangani sistem rekomendasi berskala besar, AI generatif, dan analitik grafik, serta menyediakan skalabilitas linier untuk model AI raksasa. "Tidak perlu menyimpan data dalam banyak modul. DGX GH200 lebih mudah melatih model bahasa besar dan sistem rekomendasi pembelajaran mendalam," kata Huang Renxun. (Jaringan Sekuritas China)
05:31

Nvidia meluncurkan lebih banyak produk kecerdasan buatan untuk lebih memahami ledakan AI

CEO Nvidia Jensen Huang mengumumkan sejumlah produk dan layanan terkait AI baru, berharap untuk lebih memanfaatkan kegemaran ini. Produk yang baru diluncurkan sangat beragam, termasuk platform superkomputer AI yang disebut DGX GH200, yang akan membantu perusahaan teknologi menciptakan "penerus" ChatGPT, kata Huang. Microsoft, Meta Platforms, dan Google diharapkan menjadi pengguna pertama perangkat tersebut. Nvidia akan bekerja sama dengan WPP Group untuk menggunakan AI dan dunia virtual untuk mengurangi biaya produksi iklan. Selain itu, perusahaan bersiap meluncurkan layanan jaringan yang dirancang untuk mempercepat transmisi informasi di pusat data. Perusahaan bahkan bermaksud mengubah cara orang berinteraksi dengan video game: Layanan bernama Nvidia ACE for Games akan menggunakan AI untuk menganimasikan karakter latar belakang, memberi mereka lebih banyak kepribadian. Kesibukan produk menggarisbawahi transformasi Nvidia dari pembuat chip grafis komputer menjadi perusahaan di pusat ledakan AI.
Lainnya
Muat Lebih Banyak
Tag Populer

Topik Hangat

Lainnya

Kalender Kripto

Lainnya
Blockchain Life 2025 di Dubai
Aethir dijadwalkan untuk berpartisipasi dalam konferensi Blockchain Life 2025, yang berlangsung di Dubai, dari 28 hingga 29 Oktober. Acara ini diharapkan dapat mengumpulkan holder dari sektor cryptocurrency untuk membahas perkembangan pasar terkini dan kemajuan teknologi.
2025-10-28
Masa Depan Uang, Pemerintahan, dan Hukum 2025 di Washington
Konstelasi akan menghadiri konferensi Masa Depan Uang, Pemerintahan, dan Hukum 2025, yang dijadwalkan pada 30 Oktober di Washington.
2025-10-29
Penutupan Mainnet Legacy
Neo telah mengeluarkan pengingat resmi bahwa Neo Legacy MainNet akan ditutup pada 31 Oktober. Pengguna dihimbau untuk menyelesaikan migrasi aset mereka sebelum tenggat waktu untuk menghindari risiko kehilangan dana. Jaringan Legacy, yang awalnya diluncurkan sebagai AntShares MainNet pada 2016, akan sepenuhnya dinonaktifkan, menandai akhir fase operasionalnya dalam ekosistem Neo.
2025-10-30
Minggu AI Seattle di Seattle
Arcblock berencana untuk mengungkap kemitraan baru selama Seattle AI Week pada 27-31 Oktober. Konferensi ini diharapkan akan menarik lebih dari 3.500 peserta dan mencantumkan Coinbase, Accenture, dan perusahaan lainnya sebagai sponsor.
2025-10-30
Hackathon
Flow meluncurkan Forte Hacks, sebuah hackathon virtual yang menawarkan hadiah dan keuntungan lebih dari $250,000, yang dimulai pada 1-31 Oktober. Acara ini bertujuan untuk mengeksplorasi potensi penuh ekosistem Flow. Forte kini telah aktif di testnet Flow, memungkinkan pengembang untuk memulai proyek mereka lebih awal sebelum hackathon dimulai.
2025-10-30
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)