Una nuova controversia coinvolge Google e il suo browser Chrome. Secondo il ricercatore di sicurezza Alexander Haniff, noto online come “That Privacy Guy”, il browser starebbe scaricando automaticamente un modello AI locale da circa 4GB sui computer degli utenti, senza richiedere alcuna autorizzazione esplicita.
La scoperta ha rapidamente acceso il dibattito tra esperti di privacy, sviluppatori e utenti, soprattutto considerando la diffusione globale di Chrome, attualmente il browser più utilizzato al mondo con oltre il 67% del mercato.
Il file nascosto: weights.bin
Il file individuato da Haniff si chiama weights.bin ed è associato a Gemini Nano, il modello linguistico leggero sviluppato da Google per l’esecuzione locale di funzionalità AI direttamente sul dispositivo dell’utente.
Secondo il ricercatore, il file viene salvato nella directory:
OptGuideOnDeviceModel
Il comportamento più contestato riguarda il fatto che il modello:
- viene scaricato automaticamente;
- non viene segnalato chiaramente all’utente;
- si reinstalla autonomamente dopo l’eliminazione.
Dal punto di vista tecnico, Gemini Nano è progettato per alimentare funzionalità AI “on-device”, evitando l’invio di dati ai server cloud. Questo approccio consente a Chrome di eseguire alcune elaborazioni localmente, con vantaggi teorici in termini di privacy e latenza.
A cosa serve Gemini Nano in Chrome
Google ha spiegato che Gemini Nano viene utilizzato principalmente per funzionalità di sicurezza avanzata, tra cui:
- rilevamento di truffe online;
- protezione anti-phishing;
- API AI dedicate agli sviluppatori;
- elaborazione locale di contenuti senza invio al cloud.
L’azienda sostiene inoltre che il modello sia stato progettato per essere leggero rispetto ai grandi modelli AI tradizionali e che venga rimosso automaticamente dai sistemi con risorse limitate.
Tuttavia, il problema principale non riguarda tanto l’esistenza del modello quanto le modalità con cui viene distribuito.
Il nodo centrale: consenso e trasparenza
La critica più forte rivolta a Google riguarda la mancanza di trasparenza. Installare automaticamente un file da 4GB su milioni di dispositivi senza una richiesta esplicita rappresenta, per molti esperti, una violazione del principio di consenso informato.
Per gli utenti con connessioni a consumo o limiti di traffico dati, il download può avere anche conseguenze economiche concrete. Inoltre, nei sistemi con spazio disponibile limitato, il comportamento automatico di download e rimozione potrebbe generare traffico inutile e continui cicli di scrittura su disco.
Secondo Haniff, Google avrebbe potuto evitare gran parte delle polemiche semplicemente mostrando un messaggio iniziale che spiegasse:
- cos’è Gemini Nano;
- quali vantaggi offre;
- quanto spazio occupa;
- come attivarlo o disattivarlo.
Google introduce l’opzione di disattivazione
In risposta alle critiche, Google ha dichiarato di aver iniziato a distribuire una nuova impostazione che permette agli utenti di disabilitare e rimuovere facilmente il modello AI direttamente dalle impostazioni di Chrome.
Una volta disattivata l’opzione, il modello non dovrebbe più essere scaricato né aggiornato automaticamente.
La scelta arriva però dopo settimane di segnalazioni e polemiche, alimentando ulteriormente il dibattito sul rapporto tra intelligenza artificiale, software consumer e controllo dell’utente.
AI locale: vantaggi reali ma comunicazione discutibile
Dal punto di vista ingegneristico, l’utilizzo di modelli AI locali rappresenta una direzione sempre più comune nel settore tecnologico. L’esecuzione “on-device” riduce la dipendenza dal cloud, migliora la privacy e consente tempi di risposta più rapidi.
Tuttavia, il caso Chrome evidenzia un problema crescente nell’industria software moderna: molte funzionalità AI vengono integrate automaticamente senza spiegazioni adeguate agli utenti finali.
Quando un aggiornamento introduce componenti di grandi dimensioni, utilizza risorse hardware locali e modifica il comportamento del sistema, la trasparenza non dovrebbe essere opzionale.
La vicenda di Gemini Nano potrebbe quindi diventare un precedente importante nel dibattito su consenso digitale, gestione delle risorse e distribuzione delle funzionalità AI nei software di largo consumo.
HW Legend Staff













