SAN JOSE, California - NVIDIA ha presentato una nuova suite di microservizi di AI generativa progettati per aiutare le aziende a distribuire applicazioni personalizzate in modo più efficiente. I microservizi NVIDIA NIM, eseguiti sulla piattaforma NVIDIA CUDA, consentono di ottimizzare l'inferenza su un'ampia gamma di modelli di AI, con l'obiettivo di ridurre i tempi di implementazione da settimane a minuti.
Il catalogo di microservizi cloud-nativi è costruito per supportare la base installata di NVIDIA CUDA, che comprende centinaia di milioni di GPU su varie piattaforme come cloud, data center, workstation e PC. Questi servizi sono destinati a fornire alle aziende gli strumenti per diventare organizzazioni orientate all'intelligenza artificiale, mantenendo la proprietà e il controllo della loro proprietà intellettuale.
I microservizi di AI di livello enterprise di NVIDIA fanno parte dell'offerta NVIDIA AI Enterprise 5.0 e sono accessibili dai principali servizi cloud come Amazon SageMaker, Google Kubernetes Engine e Microsoft Azure AI. Si integrano con i framework AI più diffusi e sono supportati da oltre 400 sistemi certificati NVIDIA dei principali fornitori di hardware.
ServiceNow è tra i primi a utilizzare questi servizi per sviluppare applicazioni di IA specifiche per il settore. Anche altre aziende, fra cui Adobe, Cadence, CrowdStrike, Getty Images, SAP, ServiceNow e Shutterstock, stanno accedendo ai nuovi microservizi per trasformare i loro dati in capacità di IA.
I microservizi di inferenza NIM sono alimentati dal software di inferenza NVIDIA, fra cui Triton Inference Server e TensorRT-LLM, e offrono API standard del settore per vari domini, come la scoperta di lingue e farmaci. Questi contenitori pre-costruiti sono progettati per consentire una rapida scalabilità e prestazioni elevate per le applicazioni di intelligenza artificiale negli ambienti di produzione.
Inoltre, NVIDIA ha annunciato microservizi CUDA-X per attività come la generazione aumentata del reperimento (RAG), l'elaborazione dei dati e i guardrail, oltre che per l'elaborazione ad alte prestazioni (HPC). Questi servizi facilitano la preparazione dei dati, la personalizzazione e la formazione per accelerare lo sviluppo dell'intelligenza artificiale in tutti i settori.
I partner dell'ecosistema, fra cui Box, Cloudera, Cohesity, Datastax, Dropbox e NetApp, stanno collaborando con NVIDIA per integrare i dati proprietari nelle applicazioni di IA generativa. Snowflake sfrutta i microservizi NeMo Retriever per utilizzare i dati aziendali per lo sviluppo di applicazioni di AI.
Gli sviluppatori possono sperimentare gratuitamente i microservizi NVIDIA attraverso ai.nvidia.com. Per la distribuzione in produzione, le aziende possono utilizzare NVIDIA AI Enterprise 5.0 su sistemi certificati NVIDIA e sulle principali piattaforme cloud.
Questo annuncio si basa su un comunicato stampa di NVIDIA.
Questo articolo è stato generato e tradotto con il supporto dell'intelligenza artificiale e revisionato da un redattore. Per ulteriori informazioni, consultare i nostri T&C.