Editoriali
Una buona causa molto preoccupante
Apple vuole controllare le foto nei telefoni a fin di bene. Finirà male
Apple annuncia due novità importanti e inquietanti nella lotta alla pedofilia. Ha creato un nuovo sistema di controlli che esamina tutte le foto che un possessore di telefono Apple salva sul Cloud (l’archivio a pagamento che espande la memoria) e le confronta con un database di immagini pedopornografiche chiamato Csam (Child Sexual Abuse Material) creato dal centro americano per la lotta alla pedofilia. Se il sistema si accorge che ci sono immagini uguali, il caso passa a revisori umani che possono disabilitare l’account dell’utente.
La seconda novità è un sistema di sorveglianza che controlla le foto spedite e ricevute via messaggio (iMessage) da account di persone minorenni. Apple sa quando un possessore di telefono è minorenne, perché quando si compra un telefono o un computer Apple si compra anche un profilo Apple. Se sono foto esplicite e il profilo è sotto i tredici anni, il sistema manda un avvertimento ai genitori.
Il problema è che una volta che questo sistema di sorveglianza è stato creato per una buona causa è possibile che sia manipolato per altri scopi. Cosa succede se la Cina chiede ad Apple di far scattare l’allarme se trova una foto delle proteste di piazza Tiananmen? O se il governo egiziano chiede di identificare chiunque scambi un meme scherzoso sul presidente Abdel Fattah al Sisi? Fino a poco tempo fa Apple era molto orgogliosa del fatto che i suoi prodotti fossero i più sicuri contro le intrusioni (ma non invincibili) e i più attenti alla privacy. Si insisteva molto sulle comunicazioni criptate e sulla possibilità di disattivare le app troppo impiccione. Adesso ha costruito un sistema a fin di bene che potrebbe diventare il sogno di qualsiasi regime. Il telefono che ti guarda le foto e ti denuncia.
rischi e prospettive
Essere giudicati da un algoritmo? Contro la Giustizia dei robot
la causa negli stati uniti