Ecco come sarà la nuova Siri con Gemini: date, caratteristiche e accordi tra Apple e Google

  • Apple lancerà una nuova Siri basata su Gemini in iOS 26.4, con una versione beta prevista per febbraio e un lancio in primavera.
  • L'integrazione consentirà a Siri di comprendere il contesto, lo schermo ed eseguire azioni complesse all'interno delle app, avvicinandosi così a un chatbot avanzato.
  • Gemini opererà all'interno dell'infrastruttura Apple (sul dispositivo e su Private Cloud Compute), senza inviare dati ai server di Google.
  • L'accordo con Google vale circa 1.000 miliardo di dollari all'anno e rappresenta una soluzione temporanea mentre Apple sviluppa i propri modelli.

nuova Siri con Gemini sui dispositivi Apple

La La prossima grande evoluzione di Siri Passa attraverso Google GeminiDopo anni di lamentele sulla stagnazione del suo assistente vocale, Apple ha optato per un'alleanza strategica con Google per iniettare modelli avanzati di intelligenza artificiale nel suo ecosistema. Il risultato sarà una Siri molto più contestuale, in grado di comprendere meglio ciò che vogliamo e di gestire attività complesse senza che l'utente debba passare da un'app all'altra.

Questa modifica non si limita a una semplice modifica del software: Comporta una profonda riscrittura del "cervello" di Siri., basato sulla tecnologia Gemini ma sotto le regole di privacy e controllo di Apple. L'azienda di Cupertino, pesantemente criticata per essere rimasta indietro rispetto a rivali come Google e OpenAI nella corsa all'intelligenza artificiale, ha bisogno di una svolta, e lo raggiungerà proprio con questo "nuova Siri con Gemini"Arriverà prima su iPhone e poi sugli altri dispositivi."

Quando arriverà la nuova Siri con Gemini e su quali dispositivi sarà disponibile?

Apple gestisce un cronologia in due fasi per l'implementazione del nuovo SiriLa prima ondata arriverà con iOS 26.4, la cui beta è prevista per febbraio e la cui versione stabile è prevista per la primavera, tra marzo e aprile. Questa versione metterà finalmente a disposizione degli utenti le funzionalità di intelligenza artificiale generativa che l'azienda ha anticipato nell'ambito di Apple Intelligence.

In quel primo aggiornamento, Siri inizierà a fare affidamento sui Gemelli per compiti di comprensione avanzataMa la sua interfaccia classica non è ancora cambiata del tutto. Vedremo una Siri più intelligente "all'interno", che comprenderà meglio le nostre richieste e potrà navigare tra le app, ma non sarà ancora il chatbot conversazionale a lungo termine che Apple sta preparando per la fase successiva.

Quel salto più grande arriverà con iOS 27, iPadOS 27 e macOS 27In quella generazione, prevista per la fine dell'anno dopo la presentazione al WWDC di giugno, l'idea è che Siri cessi di essere solo un assistente vocale tradizionale e si comporti invece come un chatbot conversazionale a lungo raggioNello stile di ChatGPT o di Gemini stesso, lunghe conversazioni, contesto persistente, la possibilità di digitare o dettare richieste e la comprensione da parte del sistema di stringhe di comandi complesse costituiranno parte dell'esperienza principale.

Per quanto riguarda la disponibilità per modello, Apple continuerà a dare priorità ai suoi dispositivi più recenti. Le funzionalità più avanzate della nuova Siri con Gemini Si concentreranno sugli iPhone di ultima generazione e sui dispositivi sufficientemente potenti da gestire modelli di intelligenza artificiale ibridi (sul dispositivo e nel cloud di Apple), soprattutto in Europa, dove le esigenze normative e di privacy hanno un peso maggiore.

Quali cambiamenti specifici porterà Siri quando Gemini sarà integrato?

La grande differenza rispetto all'attuale Siri sarà la sua capacità di comprendere il contesto, lo schermo e i dati personaliInvece di limitarsi a impartire comandi isolati, Apple vuole che l'assistente agisca realmente "per conto dell'utente" all'interno del sistema e delle applicazioni, senza richiedere agli utenti di aprire manualmente i menu o cercare funzioni.

Tra le funzionalità previste per questa nuova Siri con Gemini, spiccano diverse aree chiave. Innanzitutto, la comprensione di ciò che appare sullo schermo: L'assistente sarà in grado di interpretare i contenuti visibili sull'iPhone. (un'e-mail, una chat, un sito web, un documento) e utilizzarlo come contesto per rispondere o intraprendere un'azione. Puoi anche utilizzare informazioni personali, come e-mail sui voli o messaggi con prenotazioni, per rispondere a domande più complesse come "a che ora arriva il volo di mia madre?", senza che l'utente debba specificare ogni dettaglio.

Un altro pilastro sarà il esecuzione concatenata di azioni all'interno delle applicazioniInvece di chiedere cose molto specifiche ("apri Mail", "scrivi un messaggio"), Siri potrà ricevere richieste di livello superiore come "prepara un riepilogo del rapporto che mi è stato inviato ieri e invialo al mio capo" e concatenare i passaggi necessari utilizzando Gemini quando il compito richiede un ragionamento più sofisticato.

Apple sta anche lavorando su quelle che sono state descritte internamente come caratteristiche di “Le risposte della conoscenza mondiale”Risposte basate su conoscenze generali raccolte da Internet, accompagnate da riferimenti o citazioni, simili a quelle offerte direttamente da ChatGPT o Gemini. Ciò consentirà agli utenti di porre domande più aperte senza dover uscire da Siri.

Anche l'integrazione con le app subirà un notevole passo avanti. Siri potrà attivare funzioni specifiche all'interno delle applicazioni Utilizzando solo la voce: cerca foto specifiche, scrivi appunti, crea promemoria complessi o scrivi lunghe e-mail, il tutto con un livello di comprensione delle sfumature più vicino a quello delle attuali chat basate sull'intelligenza artificiale che a quello dell'assistente tradizionale.

I Gemelli come "cervello secondario" di Siri: come vengono suddivisi i compiti

L'approccio di Apple all'integrazione di Gemini non si baserà sulla sostituzione completa di Siri, ma piuttosto sull'utilizzo di quest'ultimo come strumento. un “cervello secondario” a cui ricorrere quando le richieste diventano troppo complessePer le attività semplici e di routine, il sistema consueto continuerà a funzionare, elaborando le richieste molto rapidamente sul dispositivo stesso con modelli locali.

Quando l'utente effettua una richiesta che richiede ragionamento, un'interpretazione più approfondita del linguaggio naturale o la gestione di grandi quantità di informazioni, Siri scaricherà silenziosamente parte del lavoro su GeminiIn pratica, l'utente noterà che l'assistente ora può riassumere documenti lunghi, analizzare notizie, preparare viaggi, concatenare più passaggi in app diverse o gestire istruzioni con molte sfumature.

Uno dei punti interessanti per gli utenti europei sarà il rapporto tra la nuova Siri con Gemini e l'ecosistema GoogleL'integrazione consentirà agli utenti di richiedere direttamente operazioni che attualmente richiedono l'apertura delle app Google: individuare un file in Drive, scrivere o rispondere a un'e-mail in Gmail o preparare una bozza in Documenti, il tutto tramite i comandi di Siri, senza dover navigare tra i menu.

Oltre al testo, il modello di Google è nativamente multimodale, il che significa che Può comprendere testo, audio e immagini in combinazione.Integrando questa funzionalità nella fotocamera dell'iPhone, Gemini analizzerà ciò che il dispositivo vede in tempo reale e Siri fornirà la risposta all'utente. Si tratta di un'evoluzione dell'attuale ricerca visiva, ma con un significativo balzo in avanti in termini di comprensione e contesto.

In ogni caso la partecipazione dei Gemelli sarà trasparente e facoltativo per l'utenteApple implementerà l'integrazione in modo che ciascun utente possa decidere se collegare il proprio account e autorizzare Siri a consultare i sistemi di Google. Chi sceglierà di non farlo continuerà a utilizzare una versione più limitata di Siri, ma senza quella connessione esterna.

Privacy, dati e infrastruttura del Private Cloud Computing

Uno dei punti più delicati di "Siri con Gemini" è cosa succede ai dati. Apple ha insistito sul fatto che, nonostante l'uso della tecnologia Google, Gemini non funzionerà come un classico servizio esterno all'interno dell'iPhone.Invece di inviare richieste ai server di Google, le query verranno eseguite sul dispositivo stesso o sull'infrastruttura di Apple, nota come Private Cloud Compute.

Questo modello ibrido si basa su una combinazione di chip progettati da Apple e server proprietari in cui Le attività di intelligenza artificiale che richiedono maggiore potenza di elaborazione vengono gestite senza esporre i dati a terze parti.Prima di lasciare il dispositivo, le informazioni vengono rese anonime e gli identificatori personali vengono rimossi; l'azienda garantisce inoltre che nulla venga memorizzato in modo tale da poter essere collegato a un utente specifico.

Come ha sottolineato Tim Cook, l’accordo con Google è stato specificamente progettato per per mantenere gli standard di privacy che Apple promuove da anniL'azienda sottolinea che né Google né altri partner avranno accesso ai contenuti generati dagli utenti quando interagiscono con Siri, anche quando tale interazione sfrutta modelli linguistici avanzati come Gemini.

In pratica, ciò significa che gli utenti europei continueranno ad avere lo stesso quadro normativo sulla protezione dei dati di prima, ma con un assistente molto più efficiente. Apple mantiene il controllo sull'esperienza e sulla sicurezza.mentre Google fornisce la potenza algoritmica che consente il balzo in avanti nella comprensione e nella generazione del linguaggio.

Questa architettura è inoltre in linea con le normative europee e con le crescenti esigenze in materia di sovranità dei dati. Per Apple è fondamentale poter affermare che non sta "cedendo" le informazioni degli utenti a Google.Sebbene tragga vantaggio dalla sua tecnologia, ed è per questo che ha progettato l'integrazione di Gemini in un modo molto diverso da come il chatbot viene offerto direttamente dai servizi di Google.

L'accordo economico con Google e la strategia a lungo termine

L'aspetto meno visibile di tutta questa operazione è la componente economica. Diverse fonti indicano che Apple pagherà a Google circa 1.000 miliardo di dollari all'anno per accedere a una versione personalizzata di Gemini, pensata per le esigenze di Siri e Apple Intelligence.

Questa cifra si aggiunge alle entrate che Google già ricava dall'essere il motore di ricerca predefinito in SafariUn accordo dal valore di oltre 18.000 miliardi di dollari, ovvero 20.000 miliardi di dollari all'anno. Dal punto di vista commerciale, espandere la collaborazione nel campo dell'intelligenza artificiale è stato molto più semplice che partire da zero con un altro partner, sia in termini di costi che di tempi.

Apple descrive internamente questo accordo come una soluzione temporaneaL'azienda continua a sviluppare modelli di intelligenza artificiale proprietari con l'idea di ridurre, nel medio o lungo termine, la dipendenza da partner esterni e di riprendere il pieno controllo sulle tecnologie chiave, come ha fatto in altri settori (chip, progettazione hardware, sistemi operativi).

Fino a tempi relativamente recenti, Apple ha esplorato alternative come un un'alleanza più profonda con Anthropic o un'espansione della sua collaborazione con OpenAITuttavia, le trattative con alcuni di questi attori sono state complicate dai costi e dalle condizioni, mentre la pressione del mercato per una risposta chiara in materia di intelligenza artificiale ha lasciato poco spazio a ulteriori ritardi.

In definitiva, la scelta dei Gemelli è un segno di pragmatismo: Apple riconosce che, in questo ambito, arrivare in ritardo significa perdere rilevanza.E ha scelto di affidarsi a chi ha già un modello maturo e scalabile, mentre completa lo sviluppo della propria alternativa. Per gli utenti, questo si traduce in miglioramenti tangibili, senza dover attendere diversi anni prima che la propria soluzione completamente proprietaria sia pronta.

Siri come chatbot avanzato: il passo successivo con iOS 27

La versione di Siri che vedremo con iOS 26.4 sarà, in larga misura, un profondo aggiornamento del motore interno Più che una radicale riprogettazione dell'esperienza. Il vero restyling, quello che trasformerà Siri in un chatbot a tutti gli effetti, è riservato alla prossima generazione del sistema.

Con iOS 27, Apple prevede di Siri si comporta come un assistente conversazionale completoÈ in grado di mantenere dialoghi lunghi, recuperare il contesto dai messaggi precedenti, ricordare le preferenze e accettare istruzioni scritte oltre ai comandi vocali. Questa evoluzione allineerà l'assistente di Apple a ciò che ChatGPT e Gemini già offrono nelle loro interfacce web e nelle app dedicate.

A questo punto, l'utente potrà chiedere all'assistente di Generare testi, riassumere documenti, analizzare file e assistere nelle attività di programmazionetutto dall'interno del sistema stesso. Si prevede inoltre che sarà in grado di effettuare ricerche Internet integrate, generare immagini e lavorare con i contenuti caricati dall'utente o memorizzati sul dispositivo.

La chiave sarà nel come Apple trasforma questa potenza in qualcosa di facile da usare e coerente con il suo ecosistemaNon si tratta solo di avere un modello potente, ma di integrarlo nel sistema operativo, nelle app native e nei flussi di lavoro quotidiani, in modo che non venga percepito come un ripensamento, ma come un'estensione naturale di ciò che già facciamo con iPhone, iPad o Mac.

L'azienda è consapevole che la sua reputazione con Siri non è esattamente stellare e che Ogni fallimento in questa nuova fase sarà attentamente esaminato.Ecco perché ha optato per una transizione graduale: prima rafforzando il "cervello" con Gemini e poi implementando l'interfaccia più ambiziosa quando avrà capito chiaramente come reagiscono gli utenti e dove si trovano i punti di attrito.

Ciò che arriverà con la nuova Siri con Gemini è, in pratica, un cambio di categoria per l'assistente di ApplePasserà dall'essere uno strumento utilizzato da molti solo per attività di base a diventare una parte centrale dell'esperienza sui propri dispositivi, a patto che l'implementazione soddisfi le aspettative e rispetti le promesse di privacy, un aspetto particolarmente sensibile in mercati come l'Europa.

Tutto fa pensare che nei prossimi mesi gli utenti iPhone in Spagna e nel resto d'Europa inizieranno a notare una Siri diversa: più attenta al contesto, più capace di muoversi tra le applicazioni e più preparata a comprendere richieste complesse, grazie a un Gemini che lavorerà in background ma all'interno dell'infrastruttura Apple, in un delicato equilibrio tra potenza dell'intelligenza artificiale, business e protezione dei dati.

nuova Siri potenziata da Gemini
Articolo correlato:
Nuova Siri powered by Gemini: ecco come cambia la strategia AI di Apple