ARMONK, N.Y. - IBM ha ampliato la sua offerta di intelligenza artificiale integrando il modello linguistico di grandi dimensioni (LLM) Mixtral-8x7B nella sua piattaforma di AI e dati watsonx. Questo modello, sviluppato da Mistral AI e ora ottimizzato da IBM, è in grado di ridurre potenzialmente la latenza del 35-75%, a seconda delle dimensioni del batch, e di aumentare il throughput di elaborazione dei dati del 50% rispetto alla versione standard.
Il miglioramento delle prestazioni è attribuito alla quantizzazione, un processo che riduce le dimensioni del modello e i requisiti di memoria, accelerando la velocità di elaborazione. Questo miglioramento dovrebbe ridurre i costi e il consumo di energia per le aziende che utilizzano il modello.
L'integrazione di Mixtral-8x7B sottolinea l'impegno di IBM nel fornire una gamma diversificata di modelli di intelligenza artificiale, compresi quelli sviluppati internamente, da terze parti e opzioni open-source. La strategia multi-modello dell'azienda mira a soddisfare le diverse esigenze dei clienti, offrendo loro la flessibilità di scalare le soluzioni di IA attraverso diverse funzioni aziendali.
Mixtral-8x7B utilizza la modellazione Sparse e la tecnica Mixture-of-Experts per elaborare e analizzare in modo efficiente grandi insiemi di dati, fornendo approfondimenti rilevanti per il contesto. Questo modello fa parte della più ampia iniziativa di IBM di fornire modelli di base pronti per l'impresa che consentano ai clienti di sfruttare l'IA generativa per l'innovazione e il miglioramento dei risultati aziendali.
Kareem Yusuf, Ph.D., Senior Vice President of Product Management & Growth di IBM Software, ha sottolineato l'importanza della scelta e della flessibilità per i clienti che vogliono implementare modelli di IA su misura per le loro specifiche esigenze aziendali. La piattaforma watsonx è stata progettata per supportare un solido ecosistema di sviluppatori di IA e di leader aziendali in vari settori.
Inoltre, questa settimana IBM ha annunciato la disponibilità su watsonx di ELYZA-japanese-Llama-2-7b, un modello LLM giapponese di ELYZA Corporation. La piattaforma ospita anche i modelli open-source di Meta e altri modelli di terze parti, che dovrebbero essere aggiunti nei prossimi mesi.
Le informazioni contenute in questo articolo si basano su un comunicato stampa.
Questo articolo è stato generato e tradotto con il supporto dell'intelligenza artificiale e revisionato da un redattore. Per ulteriori informazioni, consultare i nostri T&C.