Seleziona la lingua

Italian

Down Icon

Seleziona Paese

Italy

Down Icon

Come cambia Apple Intelligence: più spazio a ChatGPT, per gli sviluppatori c’è anche Claude

Come cambia Apple Intelligence: più spazio a ChatGPT, per gli sviluppatori c’è anche Claude

Tra i primi annunci arrivati dal palco della WWDC, la conferenza annuale degli sviluppatori, c’è il Foundation Models Framework, una nuova libreria software che permette agli sviluppatori di terze parti di sfruttare i modelli linguistici di grandi dimensioni alla base di Apple Intelligente. Le capacità offerte dal framework sono ampie e versatili: estrazione di testo, riassunto, generazione guidata e chiamate a vari strumenti. Queste funzionalità permettono agli sviluppatori di implementare esperienze intelligenti direttamente nelle loro app e giochi esistenti senza dover ricorrere a servizi cloud esterni. Il framework include anche adattatori dedicati per applicazioni comuni come il tagging dei contenuti, che migliorano l'efficacia del modello in aree specifiche. Inoltre, supporta output strutturati attraverso tipi generabili, permettendo di creare istanze di tipi specificati dagli sviluppatori in risposta ai prompt. Con il supporto nativo per Swift, gli sviluppatori possono sfruttare il modello con sole tre righe di codice, rendendo l'integrazione dell'AI accessibile anche ai meno esperti.

Il modello

Il modello on-device utilizzato dal Foundation Models Framework è un LLM con 3 miliardi di parametri, ciascuno quantizzato a 2 bit in fase di training: un compromesso ingegnoso tra prestazioni e efficienza energetica, che permette al modello di funzionare su dispositivi mobili mantenendo capacità avanzate. La quantizzazione a 2 bit riduce i requisiti di memoria e il consumo energetico, rendendo praticabile l'esecuzione di un modello così grande su iPhone, iPad e altri dispositivi Apple.

Chi ha provato le Writing Tools di iOS riporta prestazioni soddisfacenti senza evidenti segni di degradazione dovuti alla quantizzazione. Questo successo dimostra che Apple ha sviluppato tecniche avanzate di ottimizzazione che permettono di mantenere la qualità dell'output anche con una compressione così spinta. Il modello supera significativamente le dimensioni di qualsiasi altro modello integrato direttamente nel sistema operativo, evidenziando l'impegno di Apple nel fornire capacità AI direttamente sui dispositivi degli utenti. E, attenzione, pur utilizzando lo stesso numero di token, non è lo stesso modello dello scorso anno, segno che a Cupertino il lavoro su Apple Intelligence procede rapidamente. Per l'addestramento - si legge in una pagina dedicata del sito Apple - sono stati utilizzati “dati che abbiamo ottenuto in licenza da editori, curato da dataset pubblicamente disponibili o open source, e informazioni accessibili pubblicamente raccolte tramite il nostro web crawler, Applebot. Non utilizziamo i dati personali privati degli utenti né le loro interazioni per addestrare i nostri modelli fondamentali. Inoltre, adottiamo misure per applicare filtri volti a rimuovere determinate categorie di informazioni personali identificabili e per escludere linguaggio offensivo o contenuti non sicuri. E ancora, per evitare battaglie legali come quella in corso tra il new York Times e OpenAI: “Continuiamo inoltre a seguire le migliori pratiche per il web crawling etico, incluso il rispetto dei protocolli robots.txt ampiamente adottati, che consentono agli editori web di escludere i propri contenuti dall’essere utilizzati per l’addestramento dei modelli generativi fondamentali di Apple”.

Nuove funzionalità per gli sviluppatori

Con i Foundation Models Framework arrivano nuove funzionalità che espandono le capacità di Apple Intelligence. Ad esempio la traduzione live per testo e voce in tempo reale, disponibile in watchOS 26, iOS 26 e macOS Tahoe 26. E potrebbe arrivare anche su app di terze parti. Ad esempio, in Messaggi, può tradurre automaticamente i testi mentre si scrive, inviando il messaggio nella lingua preferita del destinatario. E quando l’altra persona risponde, i suoi messaggi vengono tradotti istantaneamente. Tutti i dati sono elaborati direttamente sul dispositivo, senza che le conversazioni vengano condivise con Apple. La funzione è disponibile per Messages, FaceTime, ma pure normali Sms. E dovrebbe arrivare successivamente in app di terze parti che decideranno si utilizzarla. Funziona anche durante le chiamate telefoniche o FaceTime: mentre si parla, le parole vengono tradotte in tempo reale e pronunciate ad alta voce per l’interlocutore.

Se non c’è ancora una Siri più intelligente, come ha anticipato il responsabile del software di Apple, Craig Federighi proprio all’inizio del keynote inaugurale (“avremo aggiornamenti il prossimo”), Apple Intelligence è però sempre più presente nei vari sistemi operativi di Apple. Con Shortcuts, che ora permette di creare workflow più potenti che sfruttano l'intelligenza artificiale per automatizzare compiti complessi. Pure Visual Intelligence ha ricevuto aggiornamenti che permettono di esplorare facilmente il contenuto sullo schermo dell'iPhone, aprendo nuove possibilità per applicazioni che analizzano e interagiscono con il contenuto visivo. È un'area particolarmente promettente per gli sviluppatori, perché permette di creare applicazioni che possono comprendere e reagire al contenuto visivo in tempo reale.

Più spazio a ChatGPT

Apple ha annunciato lo scorso anno una partnership strategica con OpenAI per integrare le capacità di ChatGPT in alcune funzionalità di Apple Intelligence. Con la WWDC 2025, l’integrazione si estende a Image Playground, l’app che permette di generare immagini, che ora oltre ai modelli interni di Apple, può contare anche sulla potenza di elaborazione di ChatGPT. Basterà toccare "Any Style" e descrivere quello che si vuole: l’app invierà la descrizione o la foto a ChatGPT per creare un'immagine nuova. L'implementazione mantiene il controllo dell'utente, assicurando che “nulla venga condiviso con ChatGPT senza esplicito permesso”, come spiegano ad Apple. E, nonostante la maggiore varietà di stili disponibili, rimane esclusa la possibilità di generare immagini fotorealistiche potenzialmente utilizzabili per deepfake, non per impossibilità tecnica ma per una scelta precisa di Apple, che già lo scorso anno aveva illustrato questo e altri principi etici del suo approccio all’intelligenza artificiale in un post sul proprio blog.

C’è anche Claude

Dall’altra parte, per gli sviluppatori, Apple mette a disposizione una versione aggiornata di Xcode 26, il software utilizzato per creare le app per le varie piattaforme della Mela. Oggi offre un supporto integrato per ChatGPT, che permette agli sviluppatori di usare direttamente il modello per scrivere codice, generare test, produrre documentazione, elaborare il design, correggere errori e molto altro, tutto all’interno dell’ambiente di sviluppo. Non è necessario creare un account ChatGPT per iniziare, ma chi già dispone di un abbonamento può collegarlo per accedere a più richieste.

Gli sviluppatori – è questa pure una novità strategicamente molto importante - possono utilizzare librerie software di altri provider AI (come Anthropic/Claude) o eseguire modelli locali sui Mac con chip Apple, scegliendo il modello più adatto alle proprie esigenze. L'azienda avrebbe siglato una partnership con Anthropic per integrare il modello Claude Sonnet in una versione aggiornata di Xcode, attualmente in fase di test interno.

La decisione di ricorrere a Claude è anche il risultato delle difficoltà incontrate con Swift Assist, l’assistente AI per la codifica sviluppato internamente da Apple. Annunciato al WWDC 2024, non è ancora stato completamente rilasciato al pubblico a causa di lamentele interne riguardo allucinazioni e prestazioni non entusiasmanti. Swift Assist già lavora insieme a strumenti di terze parti come GitHub Copilot e ChatGPT, entrambi integrati in Xcode per offrire supporto AI aggiuntivo agli sviluppatori.

Un cambio di strategia

L'annuncio del Foundation Models Framework e gli accordi strategici con OpenAI e Anthropic segnano una svolta significativa nella strategia AI di Apple, che storicamente ha mantenuto un controllo stretto sui suoi ecosistemi. Il nuovo approccio non solo democratizza l'accesso alle capacità AI di Apple, ma stabilisce anche un modello di business dove Cupertino fornisce l'infrastruttura AI mentre gli sviluppatori creano le applicazioni. Rendere disponibili modelli AI potenti direttamente sui dispositivi, senza costi di inferenza per gli sviluppatori, è un indubbio vantaggio competitivo perché elimina i costi operativi continui associati all'utilizzo di servizi AI cloud, e rende più conveniente per gli sviluppatori sperimentare e implementare funzionalità AI avanzate. Dall’altra parte, certo, limita le possibilità di movimento degli sviluppatori, che non possono accedere alla potenza dei server cloud di Apple. Nelle intenzioni dell’azienda, l’apertura del Foundation Model potrebbe accelerare l'adozione di Apple Intelligence e la creazione di un ecosistema ricco di applicazioni basate sulla piattaforma AI di Cupertino, per non parlare del lavoro prezioso di ricerca e identificazione dei bug, che vedrebbe arruolati migliaia di sviluppatori esperti in tutto il mondo.

La Repubblica

La Repubblica

Notizie simili

Tutte le notizie
Animated ArrowAnimated ArrowAnimated Arrow