Immagine generata con Grok
Foglio Ai
Un manuale per non farsi archiviare dal proprio chatbot. “Spegnere” non significa sparire
Nel 2025 la privacy nell’AI non è una battaglia apocalittica ma una quotidiana igiene digitale: spegnere toggle, usare chat temporanee e disattivare memorie automatiche bastano a ridurre rischi reali, ricordandoci che un chatbot è un servizio che conserva, non un amico che dimentica
C’è qualcosa di salutare, quasi liberatorio, nell’articolo di Geoffrey Fowler: non ti chiede di scegliere tra tecnofilia e tecnopanico. Ti dice, più banalmente, che il tuo chatbot “tiene un file su di te” e che quel file – chat, immagini, clic, preferenze, memorie automatiche – può diventare un problema molto più quotidiano di quanto pensiamo. Poi fa la cosa che molti commentatori evitano: scende nel fango dei menu, delle impostazioni, dei pulsantini nascosti e dei nomi ingannevoli. E’ un testo che non vuole avere ragione: vuole farti cambiare due opzioni in quindici minuti. E questa, nel 2025, è già una posizione politica. La parte che funziona meglio è la cornice: la privacy non viene presentata come un lusso per paranoici, ma come una forma di igiene digitale. Fowler elenca rischi comprensibili senza terrorismo: la possibilità che conversazioni intime si trasformino in pubblicità che ti inseguono; l’incertezza su quanto bene vengano “ripuliti” i dati personali quando i modelli si addestrano; il fatto che avvocati e governi possano chiedere le chat come prove o piste; e il tema, molto moderno, delle “memorie” che i bot costruiscono su di noi e che possono sbagliare o ricordare ciò che preferiremmo dimenticare. Non c’è bisogno di immaginare scenari cyberpunk: basta un pranzo di Natale in cui qualcuno ti fa una domanda e tu ti accorgi che hai raccontato troppe cose a un assistente che non è un confessore.
E’ anche convincente l’idea guida: se devi fare una sola cosa, usa le “temporary chats”, una modalità tipo navigazione in incognito che, dove disponibile, evita che la conversazione finisca nella cronologia, nelle memorie e (in prospettiva) nell’addestramento. E’ un consiglio semplice, applicabile, con un costo chiaro: perdi la comodità di ritrovare la chat. E soprattutto è un consiglio che non ti chiede di fidarti della tua forza di volontà: ti chiede di cambiare un’impostazione.
Il pezzo è efficace anche perché non finge neutralità assoluta. Dice, per esempio, che non ottieni “nulla” dal far usare le tue chat per addestrare il modello e che quindi conviene spegnere quell’opzione su ChatGPT (“Improve the model” off), e mette in fila le mosse: cancellare le chat pregresse, disattivare la memoria, usare istruzioni personalizzate invece della memoria automatica. E’ un linguaggio da guida pratica, non da editoriale: “vai qui, premi lì”. E quando allarga lo sguardo agli altri attori – Claude, Gemini, Meta AI, Copilot – ti fa capire un punto importante: non tutti i chatbot sono uguali per impostazioni e per incentivi economici, e in alcuni casi (Meta AI, Copilot personale) la pubblicità non è un rischio teorico, ma una componente del prodotto.
Detto questo, proprio la qualità “cliccabile” del pezzo è anche il suo limite. Perché la privacy, nell’AI, non è un rubinetto che chiudi e poi dormi sereno. E’ più simile a un condominio: puoi chiudere la porta di casa, ma non controlli tutti i corridoi. L’articolo lo suggerisce, ma non lo spinge fino in fondo: molte piattaforme non offrono auto-cancellazioni programmate, alcune cancellazioni sono “dal tuo punto di vista” più che dal punto di vista dei sistemi, e comunque esistono log tecnici, backup, conservazioni per sicurezza e obblighi legali che un semplice “Delete all” non esaurisce. Il rischio, per il lettore, è l’effetto placebo: ho spento due toggle, quindi non esisto più.
C’è anche un altro punto: il testo è scritto per difendere il consumatore, e fa bene. Ma in controluce resta una domanda che meriterebbe una riga in più: se la privacy è un diritto, perché devo diventare io un esperto di interfacce? Il pezzo nota che le impostazioni “si spostano”, e chiede di segnalare se qualcosa cambia: è un modo elegante per dire che il terreno è mobile e che la fatica, spesso, è scaricata sull’utente.
Infine, il suggerimento iniziale – chiedere al bot di “roastarti” sulla base della cronologia per capire quanto ti conosca – è spiritoso e funziona come gancio narrativo, ma contiene una contraddizione del nostro tempo: ci indigniamo per la sorveglianza e poi chiediamo una dimostrazione spettacolare della sorveglianza. E’ un dettaglio, certo. Però dice molto: la privacy nell’èra dell’AI non si salva solo con i menu, si salva soprattutto con una nuova educazione al confine tra confidenza e comodità.
Quello che va bene, insomma, è il tono: pratico, non apocalittico; militante, ma non predicatorio; e soprattutto utile. Quello che non va bene è il rischio implicito: far credere che la partita sia tutta lì, in una checklist. La checklist è indispensabile. Ma la vera conclusione, che il lettore deve portarsi a casa, è più semplice e più scomoda: un chatbot non è un amico, è un servizio. E un servizio, se può, conserva. Sta a noi decidere quanto della nostra vita vogliamo trasformare in “file”.
Testo realizzato con AI