IBM Granite 3.2 utilizza ragionamento condizionale, previsioni di serie temporali e visione dei documenti per affrontare casi d'uso aziendali complessi

Iscriviti alle nostre newsletter giornaliere e settimanali per gli ultimi aggiornamenti e contenuti esclusivi sulla copertura AI leader del settore. Scopri di più
Sulla scia del debutto rivoluzionarie di DeepSeek-R1 , i modelli di ragionamento hanno avuto molto successo nel 2025.
IBM si unisce ora alla festa, con il debutto odierno della sua famiglia di modelli di linguaggio di grandi dimensioni (LLM) Granite 3.2. A differenza di altri approcci di ragionamento come DeepSeek-R1 o o3 di OpenAI, IBM sta integrando profondamente il ragionamento nei suoi modelli Granite open source di base. È un approccio che IBM definisce ragionamento condizionale, in cui il ragionamento della catena di pensiero (CoT) passo dopo passo è un'opzione all'interno dei modelli (invece di essere un modello separato).
Si tratta di un approccio flessibile in cui il ragionamento può essere attivato in modo condizionale con un flag, consentendo agli utenti di controllare quando utilizzare un'elaborazione più intensiva. La nuova capacità di ragionamento si basa sui guadagni di prestazioni introdotti da IBM con il rilascio di Granite 3.1 LLM a dicembre 2024.
IBM sta inoltre rilasciando un nuovo modello di visione nella famiglia Granite 3.2, specificamente ottimizzato per l'elaborazione dei documenti. Il modello è particolarmente utile per la digitalizzazione dei documenti legacy, una sfida con cui molte grandi organizzazioni si scontrano.
Un'altra sfida dell'AI aziendale che IBM intende risolvere con Granite 3.2 è la modellazione predittiva. Il machine learning (ML) è stato utilizzato per le previsioni per decenni, ma non aveva l'interfaccia in linguaggio naturale e la facilità d'uso dell'AI di generazione moderna. È qui che entrano in gioco i modelli di previsione delle serie temporali Granite di IBM; applicano la tecnologia dei trasformatori per prevedere valori futuri da dati basati sul tempo.
"Il ragionamento non è qualcosa che un modello è, è qualcosa che un modello fa", ha detto a VentureBeat David Cox, vicepresidente per i modelli di intelligenza artificiale presso IBM Research.
Sebbene nel 2025 non siano mancati entusiasmo e clamore attorno ai modelli di ragionamento, il ragionamento fine a se stesso non fornisce necessariamente valore agli utenti aziendali.
La capacità di ragionare sotto molti aspetti è da tempo parte della gen AI. Semplicemente sollecitando un LLM a rispondere con un approccio passo dopo passo si innesca un output di ragionamento CoT di base. Il ragionamento moderno in modelli come DeepSeek-R1 e ora Granite 3.2 va un po' più in profondità utilizzando l'apprendimento per rinforzo per addestrare e abilitare le capacità di ragionamento.
Mentre i prompt CoT possono essere efficaci per determinati compiti come la matematica, le capacità di ragionamento in Granite 3.2 possono avvantaggiare una gamma più ampia di applicazioni aziendali. Cox ha osservato che incoraggiando il modello a dedicare più tempo alla riflessione, le aziende possono migliorare i complessi processi decisionali. Il ragionamento può avvantaggiare le attività di ingegneria del software, la risoluzione dei problemi IT e altri flussi di lavoro agentici in cui il modello può scomporre i problemi, formulare giudizi migliori e consigliare soluzioni più informate.
IBM sostiene inoltre che, con il ragionamento attivato, Granite 3.2 è in grado di superare i concorrenti, tra cui DeepSeek-R1, nelle attività di istruzione.
Sebbene Granite 3.2 abbia capacità di ragionamento avanzate, Cox ha sottolineato che non tutte le query necessitano effettivamente di più ragionamento. Infatti, molti tipi di query comuni possono effettivamente essere influenzati negativamente da più ragionamento.
Ad esempio, per una query basata sulla conoscenza, un modello di ragionamento autonomo come DeepSeek-R1 potrebbe impiegare fino a 50 secondi in un monologo interiore per rispondere a una domanda di base come "Dov'è Roma?"
Una delle innovazioni chiave di Granite 3.2 è l'introduzione di una funzionalità di pensiero condizionale, che consente agli sviluppatori di attivare o disattivare dinamicamente le capacità di ragionamento del modello. Questa flessibilità consente agli utenti di trovare un equilibrio tra velocità e profondità di analisi, a seconda dell'attività specifica da svolgere.
Facendo un ulteriore passo avanti, i modelli Granite 3.2 traggono vantaggio da un metodo sviluppato dalla business unit Red Hat di IBM che utilizza un cosiddetto "filtro di particelle" per abilitare capacità di ragionamento più flessibili.
Questo approccio consente al modello di controllare e gestire dinamicamente più thread di ragionamento, valutando quali sono i più promettenti per arrivare al risultato finale. Ciò fornisce un processo di ragionamento più dinamico e adattivo, piuttosto che un CoT lineare. Cox ha spiegato che questa tecnica di filtro delle particelle offre alle aziende ancora più flessibilità nel modo in cui possono utilizzare le capacità di ragionamento del modello.
Nell'approccio del filtro particellare, ci sono molti thread di ragionamento che si verificano simultaneamente. Il filtro particellare sta potando gli approcci meno efficaci, concentrandosi su quelli che forniscono risultati migliori. Quindi, invece di fare solo ragionamento CoT, ci sono molteplici approcci per risolvere un problema. Il modello può navigare in modo intelligente problemi complessi, concentrandosi selettivamente sulle linee di ragionamento più promettenti.
Le grandi organizzazioni tendono ad avere volumi di documenti altrettanto grandi, molti dei quali sono stati scansionati anni fa e ora sono archiviati. Tutti quei dati sono stati difficili da usare con i sistemi moderni.
Il nuovo modello di visione Granite 3.2 è progettato per aiutare a risolvere questa sfida aziendale. Mentre molti modelli multimodali si concentrano sulla comprensione generale delle immagini, le capacità di visione di Granite 3.2 sono progettate specificamente per l'elaborazione dei documenti, riflettendo l'attenzione di IBM sulla risoluzione di problemi aziendali tangibili piuttosto che sulla ricerca di punteggi di riferimento.
Il sistema ha come obiettivo quello che Cox ha descritto come "quantità irrazionali di vecchi documenti scansionati" conservati negli archivi aziendali, in particolare negli istituti finanziari. Questi rappresentano archivi di dati opachi che sono rimasti ampiamente inutilizzati nonostante il loro potenziale valore commerciale.
Per le organizzazioni con decenni di archivi cartacei, la capacità di elaborare in modo intelligente documenti contenenti grafici, figure e tabelle rappresenta un vantaggio operativo sostanziale rispetto ai modelli multimodali generici che eccellono nella descrizione delle foto delle vacanze ma hanno difficoltà con i documenti aziendali strutturati.
Nei benchmark aziendali come DocVQA e ChartQA, IBM Granite Vision 3.2 mostra ottimi risultati rispetto ai concorrenti.
Forse la componente tecnicamente più distintiva della release sono i "tiny time mixers" (TTM) di IBM, modelli specializzati basati su trasformatori, progettati specificamente per le previsioni di serie temporali.
Tuttavia, la previsione delle serie temporali, che consente analisi e modellazione predittive, non è una novità. Cox ha osservato che per vari motivi, i modelli di serie temporali sono rimasti bloccati nella vecchia era del machine learning (ML) e non hanno beneficiato della stessa attenzione dei modelli AI di nuova generazione più appariscenti.
I modelli Granite TTM applicano le innovazioni architettoniche che hanno alimentato i progressi LLM a un dominio di problemi completamente diverso: prevedere valori futuri in base a modelli storici. Questa capacità affronta esigenze aziendali critiche in termini di previsioni finanziarie, programmazione della manutenzione delle apparecchiature e rilevamento delle anomalie.
Non c'è carenza di clamore e tutti i fornitori affermano di superarsi a vicenda in una serie infinita di parametri di riferimento del settore.
Per i decisori aziendali, prendere nota dei benchmark può essere interessante, ma non è questo che risolve i punti critici. Cox ha sottolineato che IBM sta adottando l'approccio "giacca e cravatta" all'AI aziendale, cercando di risolvere problemi reali.
"Penso che ci sia un sacco di pensiero magico in atto, che possiamo avere un modello super intelligente che in qualche modo farà tutto ciò di cui abbiamo bisogno e, almeno per il momento, non ci siamo nemmeno vicini", ha detto Cox. "La nostra strategia è 'Costruiamo strumenti reali e pratici usando questa tecnologia molto entusiasmante e costruiamo il maggior numero possibile di funzionalità che rendono facile fare un lavoro reale'".
Se vuoi impressionare il tuo capo, VB Daily ha quello che fa per te. Ti diamo informazioni privilegiate su cosa stanno facendo le aziende con l'intelligenza artificiale generativa, dai cambiamenti normativi alle implementazioni pratiche, così puoi condividere approfondimenti per il massimo ROI.
Leggi la nostra Informativa sulla Privacy
Grazie per esserti iscritto. Scopri altre newsletter VB qui .
Si è verificato un errore.

venturebeat