NVIDIA Mendorong 100 Juta PC dan Workstation Windows RTX ke Era Kekuasaan Generatif – TechCult
Bermacam Macam / / May 29, 2023
NVIDIA telah membuat langkah signifikan dalam mempercepat pengembangan dan penyebaran model AI generatif, menghadirkan peningkatan kinerja yang luar biasa. Dengan integrasi Tensor Cores dan Max-Q low-power AI yang akan datang, NVIDIA mendorong 100 juta PC dan Workstation Windows RTX ke era pembangkit listrik. Kemajuan ini diatur untuk membentuk masa depan produktivitas, pembuatan konten, dan game.
Daftar isi
Merevolusi AI Generatif pada PC dan Workstation Windows RTX
- AI generatif, didukung oleh jaringan saraf, merevolusi industri dengan membuat konten baru dan orisinal.
- GPU RTX NVIDIA digunakan oleh model AI generatif yang kuat seperti NVIDIA NeMo, DLSS 3 Frame Generation, Meta LLaMa, ObrolanGPT, Adobe Firefly, dan Difusi Stabil.
- Optimasi model ini untuk GeForce RTX Dan GPU NVIDIA RTX memungkinkan pengembang mencapai kinerja hingga 5 kali lebih cepat dibandingkan dengan perangkat pesaing.
- Tensor Cores, perangkat keras khusus dalam GPU RTX, memainkan peran penting dalam mempercepat kalkulasi AI, berkontribusi pada peningkatan kecepatan yang mengesankan.
- Perangkat tambahan perangkat lunak terbaru diluncurkan di konferensi Microsoft Build telah menggandakan kinerja model AI generatif, seperti Difusi Stabil, berkat baru Optimalisasi DirectML.
Max-Q Low-Power AI Inferencing untuk Peningkatan Efisiensi
Karena inferensi AI semakin banyak terjadi pada perangkat lokal, permintaan akan perangkat keras yang efisien menjadi sangat penting. Untuk memenuhi kebutuhan ini, NVIDIA memperkenalkan Max-Q berdaya rendah menyimpulkan untuk Beban kerja AI pada GPU RTX. Inferensi daya rendah Max-Q NVIDIA untuk beban kerja AI pada GPU RTX menawarkan beberapa keuntungan, memberikan keseimbangan optimal antara konsumsi daya dan kinerja. Inilah poin-poin utamanya:
1. Permintaan Perangkat Keras yang Efisien: Karena inferensi AI lebih sering terjadi pada perangkat lokal, ada kebutuhan yang meningkat akan perangkat keras yang efisien untuk mendukung tugas-tugas ini.
2. Memperkenalkan Inferensi Berdaya Rendah Max-Q: NVIDIA menangani permintaan ini dengan memperkenalkan inferensi daya rendah Max-Q untuk beban kerja AI pada GPU RTX.
3. Pengoptimalan Daya: Max-Q memungkinkan GPU beroperasi pada sebagian kecil dari kapasitas dayanya untuk tugas inferensi yang lebih ringan. Ini menghasilkan pengurangan konsumsi daya dan peningkatan efisiensi energi.
4. Performa Tak Tertandingi: Meskipun beroperasi pada level daya yang lebih rendah untuk tugas yang lebih ringan, GPU RTX yang dilengkapi dengan Max-Q tetap memberikan performa yang luar biasa. Mereka dapat menangani beban kerja AI generatif intensif sumber daya secara efisien, memastikan hasil berkualitas tinggi.
5. Saldo yang Dioptimalkan: Keunggulan utama Max-Q adalah keseimbangan yang dioptimalkan antara konsumsi daya dan kinerja. Hal ini memungkinkan PC dan workstation untuk menangani tugas AI yang kompleks secara efektif sekaligus menghemat energi.
6. Kemampuan AI yang Ditingkatkan: Dengan Max-Q, pengguna dapat merasakan potensi penuh inferensi AI pada perangkat mereka tanpa mengorbankan kinerja atau efisiensi daya.
7. Mengaktifkan AI Di Mana Saja: Max-Q memperluas jangkauan inferensi AI, memungkinkannya terjadi pada perangkat lokal tanpa mengorbankan efisiensi. Ini memberdayakan pengguna untuk memanfaatkan kemampuan AI di mana pun mereka membutuhkannya.
8. Pengalaman Pengguna yang Ditingkatkan: Dengan menyediakan perangkat keras yang efisien untuk inferensi AI, Max-Q berkontribusi pada pengalaman pengguna yang lebih baik. Pengguna dapat menikmati aplikasi AI yang lebih cepat dan lebih responsif, menciptakan lingkungan komputasi yang lancar dan efisien.
Teknologi inferensi daya rendah Max-Q NVIDIA pada GPU RTX merevolusi efisiensi dan performa beban kerja AI pada PC dan workstation. Ini memungkinkan perangkat untuk menangani tugas AI yang rumit dengan konsumsi daya minimal, memastikan kinerja optimal dan pengalaman pengguna yang ditingkatkan.
Selesaikan Stack Pengembangan AI yang Dipercepat RTX
Pengembang sekarang memiliki akses ke tumpukan pengembangan AI yang dipercepat RTX yang berjalan di Windows 11, menyederhanakan proses pengembangan, pelatihan, dan penerapan model AI tingkat lanjut. Inilah poin-poin utamanya:
- Pengembangan Model dan Penyempurnaan: Pengembang dapat memulai pengembangan model dan penyempurnaan menggunakan kerangka pembelajaran mendalam yang dioptimalkan yang tersedia melalui Subsistem Windows untuk Linux.
- Transisi ke Pelatihan Cloud: Pengembang dapat dengan mulus bertransisi ke cloud untuk melatih model AI mereka. Tumpukan NVIDIA AI yang sama tersedia melalui penyedia layanan cloud utama, memastikan konsistensi dan kompatibilitas selama proses pengembangan.
- Pelatihan dengan NVIDIA AI Stack: Pelatihan berbasis cloud menggunakan tumpukan NVIDIA AI menawarkan peningkatan kinerja dan skalabilitas. Pengembang dapat memanfaatkan kekuatan GPU NVIDIA RTX untuk pelatihan model AI mereka yang lebih cepat dan lebih efisien.
- Pengoptimalan untuk Inferensi Cepat: Setelah model dilatih, developer dapat mengoptimalkannya untuk inferensi cepat. Alat seperti Microsoft Olive dapat digunakan untuk menyempurnakan model untuk kinerja optimal selama tugas inferensi.
- Penerapan ke PC dan Workstation RTX: Aplikasi dan fitur berkemampuan AI dapat diterapkan ke basis penginstalan yang luas di lebih dari 100 juta PC dan workstation RTX. Perangkat ini telah dioptimalkan dengan cermat untuk kinerja AI, memastikan eksekusi aplikasi AI yang mulus dan efisien.
Komitmen NVIDIA untuk Pengalaman AI Transformatif
Dengan lebih dari 400 aplikasi dan game yang dipercepat RTX AI telah dirilis, NVIDIA terus mendorong inovasi di seluruh industri. Selama pidato utamanya di COMPUTEX 2023, pendiri NVIDIA dan CEO Jensen Huang diperkenalkan NVIDIA Avatar Cloud Engine (ACE) untuk Game, layanan pengecoran model AI generatif baru. ACE for Games memberdayakan pengembang untuk menghadirkan kecerdasan pada karakter yang tidak dapat dimainkan melalui interaksi bahasa alami yang didukung AI.
Pengembang middleware, pembuat game, dan pengembang alat dapat memanfaatkan ACE for Games untuk membuat dan menerapkan model AI ucapan, percakapan, dan animasi yang disesuaikan, mengubah pengalaman bermain game.
Masa Depan AI Generatif di RTX
AI generatif pada GPU RTX tidak terbatas pada perangkat atau platform tertentu; itu mencakup server, cloud, dan perangkat lokal. Dedikasi NVIDIA pada komputasi AI telah menghasilkan arsitektur perangkat keras dan perangkat lunak yang dioptimalkan, termasuk Tensor Core generasi keempat pada GPU RTX.
Pengoptimalan driver reguler memastikan kinerja puncak, dengan driver NVIDIA terbaru dan model yang dioptimalkan Olive memberikan peningkatan yang signifikan bagi pengembang di Windows 11.
Selain itu, laptop dan workstation seluler RTX generasi terbaru yang dibangun di atas arsitektur NVIDIA Ada Lovelace menawarkan kinerja dan portabilitas yang belum pernah ada sebelumnya. Pabrikan terkemuka seperti Dell, HP, Lenovo, dan ASUS mendorong era generatif AI ke depan dengan perangkat bertenaga GPU RTX mereka.
Saat NVIDIA mendorong 100 juta PC dan Workstation Windows RTX ke era daya generatif, upaya kolaboratif NVIDIA dengan Microsoft dan mitra perangkat keras memastikan bahwa pengembang dan pengguna dapat sepenuhnya memanfaatkan kekuatan transformatif AI di berbagai bidang domain.
Sumber: Ruang Berita Nvidia
Alex Craig
Alex didorong oleh hasrat untuk teknologi dan konten game. Baik itu dengan memainkan video game terbaru, mengikuti berita teknologi terbaru, atau terlibat dengan individu lain yang berpikiran sama secara online, kecintaan Alex pada teknologi dan game terbukti dalam semua hal yang dia lakukan melakukan.
Alex didorong oleh hasrat untuk teknologi dan konten game. Baik itu dengan memainkan video game terbaru, mengikuti berita teknologi terbaru, atau terlibat dengan individu lain yang berpikiran sama secara online, kecintaan Alex pada teknologi dan game terbukti dalam semua hal yang dia lakukan melakukan.