La recente scoperta di tre vulnerabilità di sicurezza nella suite di intelligenza artificiale Gemini di Google ha sollevato notevoli preoccupazioni per la privacy e la protezione dei dati degli utenti. Queste falle, ora corrette, sono state individuate da ricercatori di cybersecurity che hanno evidenziato come potessero esporre informazioni personali e consentire il furto di dati tramite sofisticate tecniche di attacco.
Gemini Trifecta: le tre vulnerabilità principali
Il gruppo di vulnerabilità, denominato “Gemini Trifecta”, coinvolge tre componenti chiave della piattaforma Gemini.
- Vulnerabilità di prompt injection in Gemini Cloud Assist: permetteva a un attaccante di nascondere istruzioni malevole all’interno dell’header User-Agent di una richiesta HTTP. Così facendo, era possibile sfruttare i privilegi del tool per accedere e riassumere log provenienti da servizi cloud come Cloud Run, App Engine e Compute Engine, potenzialmente esponendo asset e configurazioni sensibili.
- Vulnerabilità search-injection nel modello di Search Personalization: un attaccante poteva manipolare la cronologia di ricerca su Chrome della vittima tramite codice JavaScript, iniettando richieste malevole che la IA non era in grado di distinguere da quelle legittime. In questo modo, era possibile indurre Gemini a rivelare dati salvati dall’utente e informazioni sulla sua posizione geografica.
- Indirect prompt injection su Gemini Browsing Tool: gli attaccanti potevano sfruttare il comportamento interno dell’IA, che riassumeva contenuti di pagine web, per esfiltrare dati sensibili verso server esterni senza che l’utente ne fosse consapevole.
Implicazioni e risposte di sicurezza
Secondo i ricercatori, queste falle avrebbero potuto essere sfruttate per inviare dati privati a server controllati da attaccanti, anche senza la necessità di visualizzare link o immagini. Un esempio concreto era la possibilità di creare hyperlink contenenti informazioni riservate ottenute tramite query automatiche alle API di Google Cloud.
Google è intervenuta prontamente dopo la segnalazione, rafforzando le difese e bloccando la possibilità di mostrare hyperlink nelle risposte legate alla sintesi dei log. Inoltre, sono state introdotte ulteriori misure per mitigare il rischio di prompt injection.
Sicurezza e piattaforme AI: una priorità crescente
Il caso Gemini evidenzia come le piattaforme di intelligenza artificiale possano diventare esse stesse vettori di attacco, oltre che obiettivi. Per questo motivo, la sicurezza delle soluzioni AI deve essere una priorità, richiedendo visibilità costante e politiche restrittive per il controllo degli accessi.