La compressione degli LLM di Multiverse Computing raccoglie 189 M€

Multiverse Computing, attiva nella compressione di modelli di intelligenza artificiale quantum-inspired, ha sviluppato CompactifAI, una tecnologia di compressione in grado di ridurre fino al 95% le dimensioni degli LLM (Large Language Models), conservandone le prestazioni. Dopo aver dedicato il 2024 allo sviluppo della tecnologia e alla fase di roll out con i primi clienti, oggi l’azienda annuncia un round di investimento da 189 milioni di euro (pari a 215 milioni di dollari).

Il round di serie B è guidato da Bullhound Capital con il supporto di HP Tech Ventures, SETT, Forgepoint Capital International, CDP Venture Capital, Santander Climate VC, Quantonation, Toshiba e Capital Riesgo de Euskadi – Grupo SPRI. In questo nuovo slancio verso la sua espansione, l’azienda ha ottenuto ampio supporto da una serie di investitori strategici internazionali, tra cui CDP Venture Capital, il cui investimento è volto a rafforzare lo sviluppo di Multiverse Computing in Italia. L’investimento accelererà l’adozione della tecnologia su larga scala, contribuendo ad affrontare gli enormi costi che impediscono la diffusione dei modelli linguistici di grandi dimensioni (LLM), rivoluzionando il mercato dell’inferenza AI, che vale 106,03 miliardi di dollari (fonte: Polaris market research).

Gli LLM vengono tipicamente eseguiti su infrastrutture specializzate, basate su cloud, che fanno lievitare i costi dei data center. Le tecniche di compressione tradizionali come quantizzazione e pruning mirano ad affrontare queste sfide, ma i modelli che ne derivano hanno prestazioni significativamente inferiori rispetto a quelle degli LLM originali. Con lo sviluppo di CompactifAI, Multiverse ha scoperto un nuovo approccio. I modelli CompactifAI sono versioni altamente compresse dei principali LLM open source, che mantengono però l’accuratezza originale, sono 4-12 volte più veloci e consentono una riduzione del 50%-80% dei costi di inferenza. Questi modelli compressi, economici ed efficienti dal punto di vista energetico, possono essere eseguiti nel cloud, in data center privati o, nel caso di LLM ultra-compressi, direttamente su dispositivi come PC, telefoni, automobili, droni e persino Raspberry PI.

“L’opinione prevalente è che la riduzione degli LLM abbia un costo. Multiverse sta cambiando le cose – dice in una nota ha dichiarato Enrique Lizaso Olmos, fondatore e CEO di Multiverse Computing (nella foto insieme agli altri co-fondatori) – Ciò che è iniziato come un’innovazione nella compressione dei modelli si è rapidamente rivelato trasformativo, sbloccando nuove efficienze nell’implementazione dell’IA e guadagnando una rapida adozione, grazie alla capacità di ridurre radicalmente i requisiti hardware per l’esecuzione dei modelli di intelligenza artificiale. Con l’ingresso di un pool unico di investitori globali esperti e strategici, e con Bullhound’s Capital come investitore principale, possiamo ora far progredire ulteriormente la nostra iper-focalizzata offerta di modelli di AI compressi, che offrono prestazioni eccezionali con un’infrastruttura minima.”

CompactifAI è stato creato utilizzando le reti tensoriali, un approccio di ispirazione quantistica per semplificare le reti neurali. Le reti tensoriali sono un campo di studio specializzato di cui è stato pioniere Román Orús, co-founder e chief scientific officer di Multiverse: “Per la prima volta nella storia, siamo in grado di profilare il funzionamento interno di una rete neurale, al fine di eliminare miliardi di correlazioni spurie e ottimizzare realmente tutti i tipi di modelli di intelligenza artificiale” . Le versioni compresse dei principali modelli Llama, DeepSeek e Mistral sono disponibili da subito, mentre altri modelli sono in arrivo.

Per Roman, co-fondatore e managing partner di Bullhound Capital, aggiunge: “CompactifAI di Multiverse introduce dei cambiamenti sostanziali nell’elaborazione dell’intelligenza artificiale, rispondendo all’esigenza globale di una maggiore efficienza nel campo dell’IA; l’ingegnosità di queste novità contribuisce ad accelerare la sovranità europea. Roman Orus ci ha convinto che lui e il suo team di ingegneri stanno sviluppando soluzioni di rilevanza mondiale in questo campo altamente complesso e a elevata intensità di calcolo. Enrique Lizaso è il CEO perfetto per espandere rapidamente l’azienda nella corsa globale per il dominio dell’IA. Sono inoltre lieto di vedere che così tanti investitori di alto profilo, come HP e Forgepoint, hanno deciso di contribuire al round. Accogliamo con favore la loro partecipazione”.

Tuan Tran, presidente di Technology and Innovation di HP dice: “In HP ci impegniamo a guidare il futuro del lavoro, offrendo soluzioni che favoriscono la crescita del business e migliorano la realizzazione professionale. Il nostro investimento in Multiverse Computing sostiene questa ambizione. Rendendo le applicazioni di IA più accessibili, l’approccio innovativo di Multiverse ha il potenziale di portare, nelle aziende di qualsiasi dimensione, i vantaggi dell’IA in termini di miglioramento delle prestazioni, personalizzazione, privacy ed efficienza dei costi”.

Damien Henault, managing director di Forgepoint Capital International, aggiunge: “Il team di Multiverse ha risolto un problema profondamente complesso e con implicazioni di vasta portata. L’azienda è ben posizionata per essere un livello fondamentale dello stack dell’infrastruttura IA. Multiverse rappresenta un salto quantico per la diffusione e l’applicazione globale dei modelli di IA, consentendo un’IA più intelligente, più economica e più verde. Questo è solo l’inizio di un’enorme opportunità di mercato”.

© RIPRODUZIONE RISERVATA

    Iscriviti alla newsletter