NVIDIA driver 100 millioner Windows RTX-pc'er og arbejdsstationer ind i en æra med generativ kraft – TechCult
Miscellanea / / May 29, 2023
NVIDIA har gjort betydelige fremskridt med at accelerere udviklingen og implementeringen af generative AI-modeller, hvilket har bragt banebrydende ydeevneforbedringer. Med integrationen af Tensor Cores og kommende Max-Q laveffekt AI driver NVIDIA 100 millioner Windows RTX-pc'er og -arbejdsstationer ind i en æra med generativ kraft. Dette fremskridt skal forme fremtiden for produktivitet, skabelse af indhold og spil.
Indholdsfortegnelse
Revolutionerende generativ AI på Windows RTX-pc'er og -arbejdsstationer
- Generativ AI, drevet af neurale netværk, revolutionerer industrier ved at skabe nyt og originalt indhold.
- NVIDIAs RTX GPU'er bruges af kraftfulde generative AI-modeller som NVIDIA NeMo, DLSS 3 Frame Generation, Meta LLaMa, ChatGPT, Adobe Fireflyog stabil diffusion.
- Optimering af disse modeller til GeForce RTX og NVIDIA RTX GPU'er gør det muligt for udviklere at opnå ydeevne op til 5 gange hurtigere sammenlignet med konkurrerende enheder.
- Tensor Cores, dedikeret hardware i RTX GPU'er, spiller en afgørende rolle i at accelerere AI-beregninger, hvilket bidrager til det imponerende hastighedsboost.
- Nylige softwareforbedringer afsløret på Microsoft Build konference har fordoblet ydeevnen af generative AI-modeller, som f.eks Stabil diffusion, takket være nye DirectML-optimeringer.
Max-Q Low-Power AI-inferencing for forbedret effektivitet
Efterhånden som AI-inferencing i stigende grad forekommer på lokale enheder, bliver efterspørgslen efter effektiv hardware afgørende. For at imødekomme dette behov introducerer NVIDIA Max-Q laveffekt konklusion for AI-arbejdsbelastninger på RTX GPU'er. NVIDIAs Max-Q-laveffekt-inferencing for AI-arbejdsbelastninger på RTX GPU'er tilbyder flere fordele, der giver en optimeret balance mellem strømforbrug og ydeevne. Her er de vigtigste punkter:
1. Effektiv hardwareefterspørgsel: Da AI-inferencing finder sted hyppigere på lokale enheder, er der et stigende behov for effektiv hardware til at understøtte disse opgaver.
2. Introduktion af Max-Q Low-Power Inferencing: NVIDIA imødekommer denne efterspørgsel ved at introducere Max-Q low-power inferencing for AI-arbejdsbelastninger på RTX GPU'er.
3. Strømoptimering: Max-Q gør det muligt for GPU'er at operere med en brøkdel af deres strømkapacitet til lettere inferenceringsopgaver. Dette resulterer i reduceret strømforbrug og forbedret energieffektivitet.
4. Uovertruffen præstation: På trods af drift ved lavere strømniveauer til lettere opgaver, leverer RTX GPU'er udstyret med Max-Q stadig enestående ydeevne. De kan håndtere ressourcekrævende generative AI-arbejdsbelastninger effektivt, hvilket sikrer resultater af høj kvalitet.
5. Optimeret balance: Den vigtigste fordel ved Max-Q er den optimerede balance, den opnår mellem strømforbrug og ydeevne. Det gør det muligt for pc'er og arbejdsstationer at håndtere komplekse AI-opgaver effektivt og samtidig spare på energien.
6. Forbedrede AI-egenskaber: Med Max-Q kan brugere opleve det fulde potentiale af AI-inferencing på deres enheder uden at gå på kompromis med ydeevne eller strømeffektivitet.
7. Aktivering af AI overalt: Max-Q udvider rækkevidden af AI-inferencing, så det kan ske på lokale enheder uden at ofre effektiviteten. Dette giver brugerne mulighed for at udnytte AI-egenskaber, hvor end de har brug for dem.
8. Forbedret brugeroplevelse: Ved at levere effektiv hardware til AI-inferencing bidrager Max-Q til en bedre brugeroplevelse. Brugere kan nyde hurtigere og mere responsive AI-applikationer, hvilket skaber et problemfrit og effektivt computermiljø.
NVIDIAs Max-Q laveffekt-inferencing-teknologi på RTX GPU'er revolutionerer effektiviteten og ydeevnen af AI-arbejdsbelastninger på pc'er og arbejdsstationer. Det gør det muligt for enheder at håndtere komplekse AI-opgaver med minimalt strømforbrug, hvilket sikrer optimal ydeevne og en forbedret brugeroplevelse.
Komplet RTX-Accelerated AI Development Stack
Udviklere har nu adgang til en omfattende RTX-accelereret AI-udviklingsstak, der kører på Windows 11, hvilket forenkler processen med at udvikle, træne og implementere avancerede AI-modeller. Her er de vigtigste punkter:
- Modeludvikling og finjustering: Udviklere kan begynde modeludvikling og finjustering ved hjælp af optimerede deep learning-rammer, der er tilgængelige via Windows Subsystem til Linux.
- Overgang til Cloud Training: Udviklere kan problemfrit skifte til skyen for at træne deres AI-modeller. Den samme NVIDIA AI-stak er tilgængelig gennem store cloud-tjenesteudbydere, hvilket sikrer konsistens og kompatibilitet gennem hele udviklingsprocessen.
- Træning med NVIDIA AI Stack: Cloud-baseret træning ved hjælp af NVIDIA AI-stakken giver forbedret ydeevne og skalerbarhed. Udviklere kan udnytte kraften i NVIDIA RTX GPU'er til hurtigere og mere effektiv træning af deres AI-modeller.
- Optimering til hurtig inferencing: Når modellerne er trænet, kan udviklere optimere dem til hurtig inferencing. Værktøjer som Microsoft Olive kan bruges til at finjustere modellerne til optimal ydeevne under inferenceringsopgaver.
- Implementering til RTX pc'er og arbejdsstationer: De AI-aktiverede applikationer og funktioner kan implementeres til en stor installationsbase på over 100 millioner RTX-pc'er og arbejdsstationer. Disse enheder er omhyggeligt optimeret til AI-ydeevne, hvilket sikrer en jævn og effektiv udførelse af AI-applikationer.
NVIDIAs forpligtelse til transformative AI-oplevelser
Med over 400 RTX AI-accelererede apps og spil, der allerede er udgivet, fortsætter NVIDIA med at drive innovation på tværs af brancher. Under sin hovedtale på COMPUTEX 2023, NVIDIA-grundlægger og administrerende direktør Jensen Huang indført NVIDIA Avatar Cloud Engine (ACE) til spil, en ny generativ AI-modelstøberitjeneste. ACE for Games giver udviklere mulighed for at bringe intelligens til ikke-spilbare karakterer gennem AI-drevne naturlige sproginteraktioner.
Middleware-udviklere, spilskabere og værktøjsudviklere kan bruge ACE for Games til at bygge og implementere tilpassede tale-, samtale- og animations-AI-modeller, hvilket transformerer spiloplevelsen.
Fremtiden for generativ AI på RTX
Generativ AI på RTX GPU'er er ikke begrænset til specifikke enheder eller platforme; det spænder over servere, skyen og lokale enheder. NVIDIAs dedikation til AI computing har ført til optimeret hardware- og softwarearkitektur, herunder fjerde generations Tensor Cores på RTX GPU'er.
Regelmæssige driveroptimeringer sikrer maksimal ydeevne, med den seneste NVIDIA-driver og Olive-optimerede modeller, der leverer betydelige hastigheder for udviklere på Windows 11.
Derudover tilbyder den seneste generation af RTX bærbare computere og mobile arbejdsstationer bygget på NVIDIA Ada Lovelace-arkitekturen hidtil uset ydeevne og bærbarhed. Førende producenter som Dell, HP, Lenovo og ASUS driver den generative AI-æra fremad med deres RTX GPU-drevne enheder.
Mens NVIDIA driver 100 millioner Windows RTX-pc'er og arbejdsstationer ind i en æra med generativ kraft, vil NVIDIAs samarbejde med Microsoft og hardwarepartnere sikrer, at udviklere og brugere fuldt ud kan udnytte den transformative kraft af AI på tværs af forskellige domæner.
Kilde: Nvidia Newsroom
Alex Craig
Alex er drevet af en passion for teknologi og spilindhold. Uanset om det er ved at spille de seneste videospil, holde sig ajour med de seneste tekniske nyheder eller engagere med andre ligesindede online, Alex' kærlighed til teknologi og spil er tydelig i alt det, han gør.
Alex er drevet af en passion for teknologi og spilindhold. Uanset om det er ved at spille de seneste videospil, holde sig ajour med de seneste tekniske nyheder eller engagere med andre ligesindede online, Alex' kærlighed til teknologi og spil er tydelig i alt det, han gør.