Roma – Sta per iniziare una nuova fase nel mondo del cloud computing: Seeweb ha lanciato in anteprima per l’Italia servizi di GPU cloud supportati dai potenti chip AMD InstinctTMMI300X e dalla suite software ROCmTM, aprendo nuove opportunità per l’intelligenza artificiale e i calcoli ad alte prestazioni.
Seeweb si distingue in Europa come uno dei primi provider ad offrire soluzioni cloud basate su questi chip avanzati. Il servizio Cloud Server GPU con GPU AMD Instinct MI300X, inoltre, si avvale della tecnologia Lenovo ThinkSystem SR685a V3.
Il modello cloud si è consolidato come la soluzione ideale anche per l’intelligenza artificiale, così come per i carichi di lavoro più tradizionali, grazie alla sua semplicità, flessibilità e scalabilità, anche a breve termine. Il cloud computing con GPU è efficace per una vasta gamma di applicazioni, tra cui l’inferenza AI, il calcolo ad alte prestazioni (HPC) e il training dell’intelligenza artificiale.
La soluzione basata su chip AMD offre un ottimo rapporto qualità-prezzo, mentre il software open dell’ecosistema ROCm AMD Instinct è proposto da Seeweb su server equipaggiati con 8 GPU, ciascuna con chip MI300X. La configurazione include 265 vCPU, 2048 GB di RAM e 16 TB di spazio su disco.
Carichi di lavoro AI e HPC
Il chip AMD Instinct MI300X è stato sviluppato per ottimizzare i carichi di lavoro legati al calcolo ad alte prestazioni (HPC) e all’intelligenza artificiale (AI).
Grazie alla memoria dall’ampia capacità e la sua architettura particolarmente avanzata, si rivela particolarmente adatto in diversi ambiti, tra cui: simulazioni scientifiche, imaging in campo medico, data mining e analisi predittiva, rendering 3D, addestramento ed inferenza di modelli AI.
Il mercato globale del GPU cloud computing con AMD
L’adozione di modelli di intelligenza artificiale basati su chip AMD sta crescendo rapidamente, affiancando i modelli già consolidati. I sistemi che supportano queste soluzioni sono realizzati sia da fornitori tradizionali che da nuovi attori del settore. La lista dei principali operatori continua ad ampliarsi, e tra questi si possono notare sia piccole che grandi società.
Piccole realtà
Alcuni provider cloud, come RunPod.io (Texas) e TensorWave.com (Nevada), hanno iniziato ad incorporare i chip MI300X nei loro sistemi, con prezzi variabili in base alla configurazione per l’uso del cloud.
Grandi società
Già nel 2024, Oracle ha reso disponibili gli acceleratori AMD MI300X nella propria infrastruttura cloud, mentre IBM ha annunciato l’integrazione dei chip AMD Instinct MI300X nel suo servizio cloud a partire dal 2025. Microsoft, invece, propone il servizio ND MI300X su Azure.
Anche Meta ed OpenAI stanno considerando l’inserimento di questi chip nei loro ecosistemi.
L’offerta di Seeweb
Con l’integrazione delle GPU AMD MI300X nella propria offerta di servizi cloud per l’intelligenza artificiale, Seeweb ha ampliato le opzioni tecnologiche a disposizione delle aziende, mantenendo il suo impegno verso la libertà di scelta e l’assenza di vincoli o limitazioni tecnologiche, garantendo elevati livelli di affidabilità e prestazioni dell’infrastruttura.
Nello specifico, i nuovi Cloud Server GPU si basano sulla piattaforma Lenovo ThinkSystem SR685a V3, progettata per supportare GPU di ultima generazione ad alte prestazioni. A ciò si affianca un modello commerciale flessibile, che consente di usufruire del servizio in modalità on demand, con una tariffazione basata sull’effettivo utilizzo.
Antonio Baldassarra, CEO Seeweb ha affermato che l’integrazione delle GPU AMD MI300X nel cloud Seeweb espanderà l’offerta Cloud GPU, permettendo alle aziende di gestire carichi complessi con un’architettura avanzata e maggiore memoria, ideale per modelli LLM avanzati. ha poi confermato che l’infrastruttura Lenovo ThinkSystem SR685a V3 accelererà applicazioni in ricerca scientifica, modellazione e rendering ad alte prestazioni.
Massimo Chiriatti, CTIO di Lenovo ha affermato che l’azienda contribuisce attivamente allo sviluppo del mercato dell’intelligenza artificiale per le imprese italiane ed europee, collaborando con i professionisti di Seeweb per progettare soluzioni che combinano alte prestazioni ed efficienza operativa.
Grazie a questa partnership, Seeweb può contare su un leader globale del settore IT, beneficiando di strumenti e servizi per accelerare i risultati e migliorare la produttività aziendale.
Queste soluzioni rappresentano una scelta strategica per l’evoluzione del modello di business di Seeweb, rafforzandone la posizione nel mercato AI.
Per maggiori informazioni è possibile visitare: https://www.seeweb.it/prodotti/cloud-server-gpu