
Foto di Szabo Viktor su Unsplash
Cose dai nostri schermi
L'enshittification di YouTube
Le aziende tecnologiche stanno imponendo l'intelligenza artificiale a tutti e su tutto, anche a discapito degli utenti, ancora umani. I video modificati da Youtube con algoritmi di machine learning e la traduzione automatica audio
Nel 2022, Cory Doctorow, blogger, attivista statunitense e grande difensore del web aperto ha coniato un termine per descrivere una delle derive più preoccupanti del mondo digitale contemporaneo: enshittification. In italiano potremmo tradurlo con "merdificazione" o "smerdamento", neologismi poco eleganti ma efficaci nel descrivere il processo attraverso cui piattaforme, app e servizi digitali diventano progressivamente peggiori per i loro utenti, favorendo invece gli inserzionisti pubblicitari.
L’enshittification ha però diverse facce. Oltre a colpire i prodotti di Meta o TikTok, ad esempio, è sempre più percepibile in YouTube, in particolare nel dilagare di video generati con le AI presenti nella piattaforma. Non solo, però, perché alle volte le AI finiscono per modificare e influenzare anche i video caricati dagli esseri umani.
Un episodio recente del fenomeno riguarda il rapper e attore Will Smith, che questa settimana è stato deriso sui social per aver pubblicato video dei suoi concerti in cui il pubblico mostrava volti deformi e innaturali, simili a quelli generati dai siti come "This Person Doesn't Exist". In molti hanno pensato che Smith avesse utilizzato l'AI per fingere maggior successo di pubblico e coprire il fallimento del suo tour; in realtà, i video erano autentici, solo che YouTube li aveva automaticamente "migliorati" con algoritmi di machine learning. La piattaforma utilizza degli strumenti per quella che chiama "AI enhancement" (miglioramenti automatici che aumentano contrasti e nitidezza) con molti video, anche senza il consenso dei creator. Il risultato sono volti che si sciolgono, bordi innaturalmente marcati e una patina digitale color pastello che rende tutto… finto.
Lo stesso succede anche su Netflix, quando è alle prese con serie televisive degli anni '80 e '90 come "A Different World" (in Italia "Tutti al College") e utilizza algoritmi di upscaling per aumentare artificialmente la risoluzione di contenuti girati decenni fa. L'obiettivo è chiaro: offrire una qualità video migliore, in linea con gli standard odierni; il problema nasce quando l'algoritmo deve "inventare" informazioni che nel materiale originale semplicemente non esistono. Il risultato? Volti alieni, movimenti innaturali e distorsioni che ricordano i film di David Cronenberg. Altro che sit-com anni Novanta.
Ma il caso forse più frustrante riguarda la traduzione automatica audio di YouTube. La piattaforma ha deciso che se l'utente ha impostato l'italiano come lingua predefinita, tutti i video, anche quelli originariamente in inglese, verranno automaticamente tradotti e doppiati da voci “sintetiche” in italiano. Viceversa, chi ha l'inglese come lingua principale si ritroverà video di creator italiani tradotti in inglese. Capita così di aprire uno Shorts, ad esempio, e ritrovarsi a sentire voci freddissime e piatte, come una colata di asfalto su tutto quello che è stato caricato sulla piattaforma. A quel punto occorre cercare nelle impostazioni la voce "Traccia audio", mettere quella inglese e riprendere.
Sono esempi banali, ce ne rendiamo conto, ma delinea una tendenza chiara quanto amara: le aziende tecnologiche stanno imponendo l'intelligenza artificiale a tutti e su tutto, anche a discapito di noi utenti ancora umani. È una forma di enshittification più sottile ma forse più pericolosa di quella originariamente descritta da Doctorow, un new normal nel quale stanno crescendo le nuove generazioni, tra le più legate a YouTube e ai suoi video. Sia chiaro, la traduzione simultanea multilingue con generazione audio in tempo reale è effettivamente un piccolo miracolo tecnologico, così come l’upscaling; ma sarebbe bello poter scegliere, ecco, e non appiattire tutto rendendo tutto nitido e lucido, ma sempre meno umano.



impegni sotto pressione