Lettera Nera. Parte 3
L’economia dell’attenzione e le responsabilità dell’industria digitale
Continua dalla seconda parte.
Attenzione e percezione, autonomia e realtà
“Quando Theuth venne alla scrittura disse: "Questa conoscenza, o faraone, renderà gli Egizi più sapienti e più capaci di ricordare: è stata infatti inventata come medicina per la memoria e per la sapienza ". Ma quello rispose: "Ingegnosissimo Theuth, c'è chi è capace di dar vita alle arti, e chi invece di giudicare quale danno e quale vantaggio comportano per chi se ne avvarrà. E ora tu, padre della scrittura, per benevolenza hai detto il contrario di ciò che essa è in grado di fare. Questa infatti produrrà dimenticanza nelle anime di chi l’avrà appresa, perché non fa esercitare la memoria. Infatti, facendo affidamento sulla scrittura, essi trarranno i ricordi dall' esterno, da segni estranei, e non dall’interno, da sé stessi. Dunque non hai inventato una medicina per la memoria, ma per richiamare alla memoria. Ai discepoli tu procuri una parvenza di sapienza, non la vera sapienza: divenuti, infatti, grazie a te, ascoltatori di molte cose senza bisogno di insegnamento, crederanno di essere molto dotti, mentre saranno per lo più ignoranti e difficili da trattare, in quanto divenuti saccenti invece che sapienti” Platone, Fedro[1]
La tecnologia è, da millenni, oggetto di paure, complesse e per nulla scontate. Dalla scrittura all’invenzione della stampa a caratteri mobili ad internet, i timori riguardano la capacità della tecnologia di modificare le nostre capacità cognitive e la nostra capacità di fare attenzione in maniera irrimediabile. Partiamo da qui: cosa è l’attenzione? Se pensiamo all’attenzione come alla capacità di concentrarsi su di una singola attività per un tempo più o meno lungo, ne consegue che l’attenzione sia anche fondamentale per l’esercizio autonomo delle proprie capacità cognitive, e quindi per la nostra autonomia personale. L’autonomia può essere compromessa nel momento in cui la nostra attenzione è subordinata ad interventi esterni.[2] In un recente volume pubblicato dalla American Psychological Association, vengono delineati quattro aspetti generali importanti per studiare l’attenzione[3]:
1. L’attenzione è limitata.
2. L’attenzione è un requisito chiave per molti processi cognitivi.
3. L’attenzione è soggetta sia ad un controllo interno che alla manipolazione esterna.
4. Il controllo dell’attenzione è un processo che sviluppiamo: ciò che attrae l’attenzione può cambiare ed essere più o meno soggetto al nostro controllo.
L’attenzione è necessaria qualsiasi volta che decidiamo, consciamente, di fare una certa attività o esperienza; e la capacità di prestare attenzione è limitata in due modi: dal nostro stato psico-fisico, quindi dal nostro organismo (per es. dalla fame), oppure dall’esterno, da altre persone, da eventi, fattori, dispositivi esterni, naturali o artefatti. In questo senso l’attenzione è continua (facciamo sempre attenzione a qualche cosa, finché siamo svegli) ma limitata quantitativamente, cioè in ogni preciso momento c’è un “ammontare” limitato di attenzione che abbiamo a disposizione. Se facciamo attenzione a più di una cosa alla volta, la nostra attenzione non è infinita e non viene moltiplicata, ma divisa e degradata. La ricerca nel campo dell’attenzione sottolinea come la tecnologia sia in grado di interferire con la nostra personale gestione dell’attenzione sia in maniera interna che esterna. Interna perché può emerge il desiderio di spostare l’attenzione da un compito difficile e poco gratificante, ad uno che sappiamo essere più gratificante, e che nei dispositivi digitali è facilmente accessibile (qualunque esso sia). Esterne perché la tecnologia può influire sulla nostra attenzione in molti modi, tramite le notifiche, ma anche tramite le circostanze in cui ci troviamo, ad es. durante un’attività di gruppo, se le altre persone invece di concentrarsi si distraggono con il telefono, distraggono anche noi. Se, mentre cerchiamo di portare a termine un “compito” iniziale, spostiamo l’attenzione da quel compito ad attività secondarie su di uno smartphone (oppure se dal pc passiamo dal lavoro ad altre app), tendiamo poi ad impegnarci in ulteriori attività secondarie invece di tornare al compito iniziale. Studi che hanno analizzato questo tipo di interruzioni hanno rilevato che il tempo richiesto per completare un compito può aumentare drasticamente se avvengono interruzioni, e che più è “ricca” è l’interruzione (cioè se include stimoli visivi piuttosto che solo testo), più è difficile tornare a concentrarsi.
Date queste premesse, ne deriva che l’attenzione possa, che lo desideriamo o meno, avere un inquadramento economico. Nella prima formulazione storica di economia dell’attenzione (1969), Herbert Simon ipotizzò che in una società post-industriale (quella che poi verrà definita “società dell’informazione”) come quella in cui viviamo, l’informazione sia una risorsa abbondante, mentre l’attenzione sia scarsa, e quindi desiderabile. La celebre frase “If the product is free, you are the product” (“Se il prodotto è gratis, allora il prodotto sei tu”), immancabile in qualsiasi testo di studi sui social media, risale anch’essa al secolo scorso: è una variante del testo di “Television Delivers People” (“La televisione consegna le persone”), un’installazione artistica realizzata del 1973. Citiamo una parte del testo dell’installazione (un testo che scorre su di una televisione), traduzione mia:
“Il prodotto della televisione. Della televisione commerciale. È l’audience.
La televisione consegna le persone ad un inserzionista pubblicitario.
Negli Stati Uniti, non c’è nessun mass medium, eccetto la televisione.
Per mass media si intendono i media che possono consegnare milioni di persone.
La televisione consegna 20 milioni di persone al minuto.
Lo spettatore delle trasmissioni commerciali paga il privilegio di essere venduto.
È il consumatore che viene consumato.
Il prodotto della TV sei tu.
Sei tu ad essere consegnato all’inserzionista, che è il cliente.
Lui ti consuma.
Lo spettatore non ha controllo sulla programmazione televisiva.
Il prodotto finale sei tu.
Il prodotto finale consegnato in massa all’inserzionista sei tu.
Il prodotto della TV sei tu.
Ogni cosa in televisione è educativa, nel senso che ogni cosa insegna qualcosa.
Quello che la televisione insegna, tramite il consumismo, è il consumo materialistico.”[5]
Questo tipo di analogia è stata poi presa e raffinata nel tempo. Se la metafora “tu sei il prodotto” risuona emotivamente, è più corretto dire che (chi guarda la TV o usa servizi digitali basati sulla raccolta dati) è non tanto il prodotto, ma la fonte di una materia prima: l’attenzione. Possiamo pensare all’attenzione come ad una “risorsa” che viene usata immediatamente, ma che non può essere accumulata né usata in seguito. Quindi, per quanto sia una risorsa praticamente illimitata nel tempo, nell’immediato è invece limitata: in ogni preciso momento c’è un numero preciso di persone che possono indirizzare la loro attenzione ad una cosa piuttosto che ad un'altra; dall’altro lato esiste un numero (pressoché illimitato) di idee, oggetti, attività, altre persone che potrebbero ricevere questa attenzione. L’economia dell’attenzione si basa quindi su questo principio della scarsità, estraendo una risorsa limitata (l’attenzione delle persone), trasformandola un prodotto vendibile (una commodity), e vendendo questo prodotto a terzi, che sono interessati a farne uso (spesso sul mercato pubblicitario, ma non solo). Cosa è questo prodotto “trasformato”? Jaron Lanier fa notare che quello che viene venduto non è tanto l’attenzione, ma qualcosa di più specifico: è la capacita di creare un cambiamento nel comportamento, più o meno impercettibile, di una persona[6]; come potrebbe essere decidere di fare click su qualcosa che ci è appena apparso davanti, come fare un acquisto che non si aveva intenzione di fare, ma anche come decidere di votare per un partito piuttosto che per un altro, oppure al negativo, di tenere la propria attenzione incollata allo schermo invece di andare a votare. La definizione di Lanier ha senso se pensiamo che la sola attenzione di per sé non avrebbe valore commerciale se non esistesse la possibilità di tradurla in un cambiamento mirato del comportamento; ed è proprio il lavoro di trasformazione e di “impacchettamento” dell’attenzione che, rendendola vendibile, ha fatto schizzare i profitti dell’industria digitale. Detto ciò (che il prodotto venduto non è l’attenzione in sé), il termine economia dell’attenzione rimane una buona descrizione, perché siamo davanti ad un’industria che, con il fine di modificare il comportamento e fare di questa manipolazione psicologica un prodotto vendibile a terzi, creano spazi mirati all’irreggimentazione dell’attenzione.
L’idea che l’attenzione, la cognizione umana possano essere strumentalizzate da parte del capitale non è nuova: si inserisce nel contesto della più ampia ingegneria sociale per cui la natura, la politica, la vita sociale, e i corpi stessi diventano sempre più oggetto di privatizzazione e sfruttamento. In questo campo non esiste un limite etico preciso a ciò che può diventare un prodotto e cosa no, e nemmeno la coscienza umana è al riparo da essere un territorio di conquista per i mercati. La posta in gioco non è solo la privacy: se i profili psicologici generati dalla massa di dati raccolti diventano una commodity, un bene di commercio scambiabile come qualsiasi altro, è perché quei profili sono uno strumento capace di alterare ciò che è visibile nella nostra realtà, di reindirizzare la nostra attenzione in maniera sistemica e pervasiva. Quello che è in vendita è la possibilità di influire sul nostro comportamento, alterando la nostra percezione della realtà. Questo perché l’attenzione va ben al di là dell’atto di concentrarsi. L’attenzione è anche l’atto di definire cosa per noi è reale, cosa esiste e cosa ha importanza: la nostra percezione della realtà è strettamente collegata all’attenzione, perché ciò che scegliamo di osservare facendovi attenzione è ciò che per noi esiste, mentre (giorno dopo giorno) scompare o è in secondo piano quello a cui non facciamo attenzione. La nostra capacità di fare attenzione e di dirigere l’attenzione a formare il nostro contesto cognitivo impattano direttamente la nostra libertà personale di agire in maniera indipendente.[7]
Per questo è importante notare che viviamo la nostra quotidianità in contesti dove l’attenzione è fortemente contesa e che la nostra “indipendenza attentiva” è sempre più soggetta ad interventi tecnologici invasivi, pervasivi, invisibili, senza confini chiari su dove questi interventi iniziano e dove finiscono (vedi seconda parte). La percezione della realtà si costruisce all’interno di questa particolare “economia cognitiva”, dove i tentativi di manipolare l’attenzione sono all’ordine del giorno, dove la visibilità è maggiormente garantita alle narrative spettacolari, alla capacità di proiettare un certo tipo di successo. Questa economia dell’attenzione esiste al di fuori degli spazi digitali, ma può trovare conferma nel digitale se gli strumenti di cui ci serviamo sono a loro volta tarati per catturare e privilegiare la dimensione della vanità, della fama, della visibilità a tutti i costi, a discapito di altri tipi di attenzione. Si tratta di un processo di trasformazione sociale, non riconducibile interamente al digitale ma che il digitale amplifica, che si nutre di una particolare consapevolezza: “che la reputazione, la notorietà, il prestigio, la celebrità, la fama siano forme di ricchezza e che, pur non sostituendo interamente la ricchezza forme di ricchezza materiale, siano in grado di contendere sullo stesso piano come misura di successo economico”[8]. Ci troviamo in un momento in cui la visibilità è più che mai traducibile in ricchezza, dove gli strumenti che consentono di amplificare la propria visibilità e la propria immagine sono sempre più accessibili, dove le competenze necessarie all’elaborazione di un’immagine di successo sono sempre più comuni. Non si tratta solo dei social media o dell’ubiquità dei dispositivi in grado di catturare immagini e video, ma di un cambiamento più ampio e graduale in cui la realtà diventa in primis spettacolo e rappresentazione, e dove le celebrità sono il nuovo riferimento: come (ormai più di venti anni fa) i reality show hanno creato l’impressione di potere diventare una celebrità pur non essendo nessuno, così i social media hanno democratizzato la possibilità di riprodurre la propria immagine su una scala che prima era esclusiva dei media tradizionali. Ma non si può dire che nè i reality né i social abbiano creato il desiderio di celebrità, quanto che abbiano colto un desiderio comune, uno spostamento dei valori già in corso da tempo. Come scrive George Monbiot, la cultura della visibilità e della celebrità, nelle dimensioni che raggiunge oggi, non è un fenomeno accidentale, ma è una maschera attraverso la quale le grandi aziende si connettono con il loro pubblico di consumatori, è un mezzo per costruire il desiderio[9]. È un modo di nascondere la distanza e la freddezza dei prodotti dietro ad un’immagine calda e familiare, l’immagine di celebrità che tramite gli schermi vediamo quotidianamente, come se fossero nella nostra cerchia di conoscenze più intime; tanto più se la celebrità oggi è fatta di reality show, di live-streamers, di influencer e youtuber che, in molti casi, si presentano come persone “normali” che mostrano la loro vita quotidiana (o meglio una rappresentazione della vita quotidiana). In questo sdoganamento e apertura del mondo delle celebrità, i valori necessariamente cambiano, fama e visibilità guadagnano spazio mentale e culturale. Nel familiarizzarci con la natura ormai pervasiva della riproduzione dell’immagine, un po’ chiunque ha imparato a masticare il linguaggio della visibilità e dello spettacolo, a sapere convertire la manipolazione dell’attenzione in potere e ricchezza: dal desiderio di avere un canale social o podcast di successo alla promozione della propria attività commerciale online. Di fronte a questa consapevolezza ormai comune, la visibilità diventa una riserva di valore a sé stante, un “bene rifugio” come può essere l’oro: più volatile dell’oro, al tempo stesso la visibilità è rara e limitata, impossibile da falsificare o da rubare, ed è socialmente riconosciuta (praticamente ovunque) come una riserva di valore, spendibile in vari modi per catturare e dirigere l’attenzione, per vendere prodotti tanto quanto per fare politica, o entrambe. In tutto questo, l’economia dell’attenzione è il motore, è il mercato dove questo nuovo tipo di valuta è spendibile. Se in passato erano i mass media a fare da tramite, oggi sono gli strumenti digitali e in particolare i social a rendere possibile l’accumulo e la gestione di questo potere.
L’economia dello spettacolo
Non credo sia quindi da sorprendersi se assistiamo ad una versione della politica vanitosa, autoreferenziale, spettacolare. Non è un fenomeno attribuibile ai social e ad internet, ma in base ai ragionamenti di cui sopra, possiamo dire che un certo tipo di spazi digitali, crea una forte predisposizione alla spettacolarizzazione della vita e della politica, perché modificano la nostra percezione della realtà rendendo più visibile ciò che è in grado di attrarre attenzione. Non solo crea questa predisposizione, ma la rende algoritmica, automatica, irrimediabilmente più veloce di una forza sociale, umana. Nel concreto, gli spazi digitali che si focalizzano sull’immagine, sui like, sulle condivisioni, sulla creazione di contenuti di successo, sull’accumulo di follower e di visualizzazioni, ecco questi spazi contribuiscono a rinforzare i valori descritti sopra. Nel momento in cui fanno uso di IA e di algoritmi per accelerare a dismisura le interazioni e la presenza sulla piattaforma, gli spazi digitali sfruttano il pre-esistente desiderio di visibilità per rendere la visibilità un bene ancora più prezioso, dimostrando il valore tangibile dell’attenzione e trasformando la piattaforma stessa in una vera e propria “banca” del valore-visibilità; ma le regole di questa “banca” sono dettate arbitrariamente dalla compagnia proprietaria. Ad esempio, YouTube decide, e può cambiare in ogni momento, quanto vale una visualizzazione su un video sponsorizzato.
Se da un lato questa potenzialità algoritmica è nuova, la trasformazione in spettacolo di ogni esperienza non lo è. Nell’economia dell’attenzione, ben prima che internet esistesse, l’attenzione non veniva “catturata” per essere reindirizzata verso un’esperienza qualsiasi, ma verso la rappresentazione dell’esperienza stessa, secondo le possibilità del mezzo tecnico. Se la radio offre la possibilità di rappresentare la registrazione audio di un discorso, la stampa offre la possibilità di rappresentarne la trascrizione, e così via. Motivo per cui i mass media non sono semplicemente una enorme collezione di immagini e di contenuti, ma spazi dove la forma privilegiata di interazione sociale non è l’esperienza stessa, ma è la rappresentazione dell’esperienza. In merito a questo mi sembra utile citare i primi paragrafi de “La società dello spettacolo”. È un testo filosofico del 1967, a tratti non semplicissimo, ma che per la sua incisività e precisione rimane ad oggi più che attuale:
“1. L'intera vita delle società, in cui dominano le moderne condizioni di produzione, si annuncia come un immenso accumulo di spettacoli. Tutto ciò che era direttamente vissuto si è allontanato in una rappresentazione.
2. Le immagini che si sono staccate da ciascun aspetto della vita, si fondono in un unico insieme, in cui l'unità di questa vita non può più essere ristabilita. La realtà considerata parzialmente si dispiega nella propria unità generale in quanto pseudo-mondo a parte, oggetto di sola contemplazione. La specializzazione delle immagini del mondo si ritrova, realizzata, nel mondo dell'immagine resa autonoma, in cui il mentitore mente a se stesso. Lo spettacolo in generale, come inversione concreta della vita, è il movimento autonomo del non-vivente.
3. Lo spettacolo si presenta nello stesso tempo come la società stessa, come parte della società, e come strumento di unificazione. In quanto parte della società, esso è espressamente il settore più tipico che concentra ogni sguardo e ogni coscienza. Per il fatto stesso che questo settore è separato, è il luogo dell'inganno visivo e della falsa coscienza; e l'unificazione che esso realizza non è altro che un linguaggio ufficiale della separazione generalizzata.
4. Lo spettacolo non è un insieme di immagini, ma un rapporto sociale tra le persone, mediato dalle immagini.
5. Lo spettacolo non può essere compreso come l'abuso di un mondo visivo, il prodotto delle tecniche di diffusione massiva di immagini. Esso è piuttosto una Weltanschauung divenuta effettiva, materialmente tradotta. Si tratta di una visione del mondo che si è oggettivata”[10]
Se i social media oggi ci promettono di avere sempre più “connessioni”, allora tanto più è importante l’invito di Debord di riflettere su questa promessa. Se da un lato i social media, internet e le tecnologie digitali in generale vengono presentate come “strumento di unificazione” e di partecipazione, e per tanti versi lo sono, dall’altro questi strumenti non possono, e non potranno mai fornire una socialità completa, perché quello che offrono è una rappresentazione della socialità. Rappresentazione non significa che sia un semplice “fantasma”. Come tutte le rappresentazioni ha uno scopo, una forza, e può, effettivamente, fare nascere o rinforzare amicizie, legami di parentela e di cura, può dare il via a movimenti e dare una grande spinta alla società civile, può essere un luogo di scambio preziosissimo, può essere una fonte di conoscenza come mai abbiamo avuto prima: e questi sono i motivi per cui, giustamente, celebriamo le tecnologie digitali. D’altro canto, la proliferazione a dismisura delle rappresentazioni crea questa grande impressione, questo grande spettacolo di convergenza, unione, di convivialità, che è però falso ed effimero. Il grande spettacolo digitale oggi ci convince di essere in grado di sostituire l’oggetto della rappresentazione: gli incontri di persona, le qualità e le necessità dei corpi fisici, il mutuo aiuto, l’organizzazione di reti durature, pervasive, profonde e create nel tempo con la fatica e anche i litigi. Per spiegare meglio l’illusione che deriva dalla rappresentazione è utile guardare ai movimenti oggi: appaiono in maniera sorprendente, dal nulla, per poi spesso scomparire, oppure per essere sovrastati da nuove ondate di notizie, nuove priorità. Gli strumenti digitali hanno reso molto più facile radunare decine di migliaia di persone per una causa, e queste fiammate di grande entusiasmo e presenza ci hanno fatto pensare che questo potere straordinario, a disposizione di chiunque, sarebbe stata una risorsa preziosissima verso società più aperte, democratiche e partecipate. Questa è la direzione che, nei primi anni dieci, il ruolo dei social media nelle grandi proteste della Primavera Araba sembrava indicare. Quel potere lo abbiamo, ed è innegabile: ma al tempo stesso è un potere animato dalle controversie, dalla polarizzazione e disinformazione, dall’economia dell’attenzione stessa. Quello che è illusorio non è tanto il potere in sé, quanto la convinzione che quel potere basti a costruire ponti nella società, a ricucire ferite antiche, a soverchiare la nostra tendenza a creare gerarchie e stratificazione. Le manifestazioni non sono che una parte della costruzione di un movimento politico duraturo e stabile, così come lo è anche la presenza e l’informazione online. Premere un pulsante per votare su una petizione, esprimere le proprie opinioni politiche online, ammassare migliaia di follower (per questa o quella causa) non basta; ma anche organizzare manifestazioni, fare informazione di qualità, occupare le strade non basta. Non è che siano inutili, al contrario: sono tutte componenti fondamentali dei movimenti politici e sociali. Ma da sole non bastano. Serve lavorare in maniera più profonda e duratura, serve la creazione di istituzioni parallele[11], in alcuni casi di economie parallele e di una società civile forte, reale, che vada al di là di essere una rappresentazione di quello che dovrebbe essere, al di là di una proiezione di sé stessa sugli spazi digitali. Così come noi ci siamo adeguati a questi strumenti, così si è abituato il potere e chi lo occupa, che bene comprende come ormai quello che appare online, per quanto possa avere l’aspetto di un fronte del dissenso consolidato e ben rodato, in realtà sia altro: è la rappresentazione del dissenso, ne è lo spettacolo; e in quanto tale si trova a competere con gli altri milioni di spettacoli, onnipresenti, che governano la vita quotidiana, perché è la politica stessa quindi a fare spettacolo, a lavorare nella polarizzazione (che in momenti di tensione divide invece di unire), a non fare politica ma a fare della politica uno spettacolo. L’orrore del Genocidio a Gaza, della guerra in Sudan, le conseguenze della crisi climatica, la repressione del dissenso, situazioni tragiche come quella carceraria oggi in Italia si mescolano con i balletti, le ricette e i videogiochi in streaming, e con essi competono per i like, i repost, i commenti.
Il ciclo di innovazione e i suoi limiti
Come Platone racconta la storia di Theuth per dire che ci sentiamo più saggi grazie alla scrittura, che la scrittura ci dà l’illusione del sapere, quando in realtà siamo solo più saccenti, perché la nostra sapienza è ridotta e dipende dalla tecnologia-libro, e dimentichiamo l’importanza di sapere interiorizzare; così le tecnologie digitali, mentre ci danno l’impressione di avere più connessioni e meno isolamento sociale, in realtà creano connessioni debole ed effimere, perennemente dipendenti dalla tecnologia, e al tempo stesso sminuiscono l’importanza di altri tipi di socialità, oppure la colonizzano. Senza volere qui negare le possibilità infinite degli strumenti digitali (o argomentare che dobbiamo abbandonarli), è innegabile che rischiano di farci perdere di vista tutto ciò che non è traducibile in digitale. Se a questo poi si aggiunge che molti degli spazi digitali sono volutamente strutturati per favorire l’economia dell’attenzione ed ampliarla, tanto più è vero che la comunicazione e la socialità su questi spazi non possono mai essere lo scopo principale della piattaforma, ma solo qualità accidentali, buone abbastanza per non farci accorgere che non si sta veramente lavorando per il nostro beneficio.
In passato le società hanno imparato, collettivamente, a contendere con la tecnologia, a rifiutarla, ad accettarla, a porre dei limiti: le tecnologie dell’economia dell’attenzione non fanno eccezione. Tim Wu in “The Attention Merchants” spiega bene come queste dinamiche funzionino da tempo e in maniera ciclica. Chi opera nel mercato dell’attenzione deve trovare i modi migliori per fare cambiare, a più persone possibile, l’oggetto della loro attenzione: già nel diciannovesimo secolo, con l’invenzione delle testate giornalistiche scandalistiche (finanziate dalle pubblicità), o con i grandi poster artistici (realizzati, tra gli altri, da Chéret e Toulouse-Lautrec) a Parigi, si erano creati nuovi mezzi per attrarre attenzione, inizialmente con grande successo ed entusiasmo. Ma con l’espandersi del fenomeno, quando più e più persone e aziende copiano la stessa metodologia per attrarre attenzione, succedono due cose: l’ambiente si satura di questo tipo di comunicazione, e al tempo stesso le persone si abituano a quel tipo di richiamo, e incominciano ad ignorarlo. Non solo, ma davanti all’abuso di qualsiasi tipo di mezzo, è possibile che le persone incomincino a ribellarsi ad esso: davanti ad una Parigi ricoperta di poster da cima a fondo, emerse una reazione sociale, fatta di comitati e di movimenti sociali, che dichiaravano “guerra al poster” per i motivi più vari, dalla presunta immoralità di certi poster, all’idea che questi rovinavano l’estetica della città, arrivando a chiedere leggi, tasse, restrizioni sul loro piazzamento. In altre parole, si crea una specie di “corsa agli armamenti”, tra chi cerca l’attenzione e chi la detiene. Se questa competizione inizialmente fornisce qualcosa di innovativo e di gradito, spesso gratuitamente o a basso costo, la crescita e diffusione di questo meccanismo, portata all’estremo e senza limiti, raggiunge un punto di non ritorno in cui non solo il modello di attrazione smette di funzionare (perché le persone hanno imparato a riconoscerlo e ad ignorarlo), ma è anche percepito negativamente, come qualcosa di intrinsecamente manipolativo, abusivo, non etico, immorale, anti-estetico. Il risultato è la rivolta: le persone smettono di spostare la propria attenzione, dichiarano non gradito quel modello, mettono in moto la società civile contro di esso, tanto che l’industria dell’attenzione è costretta a reinventarsi.[12] Non è possibile semplicemente “ripartire da capo”: è necessaria un’innovazione che sia in grado di superare la nuova soglia dell’attenzione, più alta di prima, dal momento in cui le persone hanno imparato a salvaguardare la propria attenzione da certi tipi di stimolazione eccessiva o dal “già visto”. Questa forma di contesa, di adattamento collettivo, è particolarmente importante, perché ci indica una possibile strada, che prende una forma dialogica, di discussione, dove ci si prende il tempo per rimettere in discussione un patto sociale, i limiti entro i quali l’industria del digitale deve operare. Non necessariamente vietare, ma ristrutturare.
In altre parole, il particolare modello economico che vediamo funzionare attorno ad internet è più comprensibile se interpretato come un ciclo di innovazione all’interno della più ampia economia dell’attenzione e di una “società dello spettacolo”, che viene rivoluzionata a partire dai primi anni del ventunesimo secolo tramite le possibilità di internet, dei nuovi dispositivi e di nuove metodologie come il design della dipendenza e le tecnologie della persuasione. Sono due i cambiamenti chiave: in ordine, il primo è l’innovazione tecnologica in sè, il secondo è la capacità del modello economico di adattarsi rapidamente all’innovazione. Con l’avvento del World Wide Web (1993), l’ubiquità e l’utilizzo pervasivo di internet, la grande capacità di stoccaggio dati, l’iterazione automatizzata algoritmica, l’uso di tecniche di machine learning e di intelligenza artificiale (a loro volta rese possibili dall’aumento della capacità di calcolo) hanno reso possibile raccogliere e analizzare in maniera massiccia i dati degli utenti.
Il surplus comportamentale e l’invenzione del capitalismo della sorveglianza
Nei primi anni del 2000 si colloca un passaggio fondamentale: il “surplus comportamentale”, ovvero la quantità enorme di dati raccolti mentre usiamo dispositivi digitali, diventa la risorsa prediletta dell’economia dell’attenzione. Questo accade grazie all’intervento di Google (ora Alphabet) prima, Facebook (ora Meta) poi. Inizialmente, questi dati erano input non strutturati: ciò che le persone scrivevano per cercare qualcosa, l’ora in cui facevano le richieste, il luogo da cui provenivano, eccetera. Non era chiaro che questi dati potessero essere utili, o addirittura fonte di guadagno, e anzi inizialmente erano considerati “uno scarto”. Il passaggio dalla raccolta di dati non strutturati alla raccolta sistemica, strutturata e pervasiva è spiegato bene da Shoshana Zuboff nel libro “Il capitalismo della sorveglianza”: “Gli ingegneri di Google capirono ben presto che il flusso incessante di dati comportamentali collaterali era in grado di far diventare il motore di ricerca un sistema di apprendimento ripetuto che migliorava costantemente i risultati e forniva innovazioni come controllo dello spelling, traduzione e riconoscimento vocale”[13]. Questo ciclo di continuo input-apprendimento-miglioramento era estremamente efficace nel migliorare le ricerche, ma rimaneva un problema: Google aveva un ottimo servizio, ma ancora nessun business model per dire come sarebbe stato possibile trarne profitto. In un momento di incertezza finanziaria (erano gli anni della bolla Dot-Com) e su pressione degli investitori, il team di Google decise di dare una svolta e capì, nei primi anni del nuovo millennio, che i dati potevano essere usati per fornire inserzioni pubblicitarie, ma con una differenza fondamentale. Se prima era possibile inserire contenuti pubblicitari calibrati per una specifica pagina (ad esempio, su una pagina web che raccoglie ricette, inserire pubblicità per utensili da cucina), Google consentiva, per la prima volta nella storia, di creare pubblicità mirate su base individuale, differenziate in base ai dati disponibili su quel profilo: cosa aveva cercato, quali erano i suoi interessi, quali i suoi dati anagrafici, ecc. Non solo le pubblicità erano mirate, ma essendo tracciate Google sapeva quando le pubblicità venivano cliccate e da chi, ed era quindi in grado di fornire quindi agli inserzionisti uno strumento in più per capire cosa stesse funzionando, quali strategie e demografiche andavano bene e quali no. La creazione dei profili psicologici però non si ferma qui: dal momento in cui Google, così come altre aziende, hanno a disposizione una serie di informazioni sugli utenti, e una serie di informazioni di come hanno reagito di fronte a dati contenuti (le famose interazioni), possono mettere in relazione i due ambiti per prevedere come reagirà davanti a contenuti futuri. Il ciclo di apprendimento ripetuto che prima si applicava ai servizi ed era in grado di renderli migliori era ora applicabile alla creazione di profili psicologici (applicati non solo ai servizi, ma anche alle pubblicità) sempre più precisi e redditizi, con l’ulteriore beneficio di non doverlo fare a mano, ma di potere impiegare le tecniche di apprendimento automatico (machine learning) per svolgere questo lavoro[14].
Questo spiega perché le interazioni sono così importanti per le piattaforme digitali. Lo scriviamo qui in chiaro se non lo fosse ancora:
Più si usa una piattaforma, più sono le interazioni, maggiore è la possibilità di raccogliere dati da parte della piattaforma (che sia una ricerca, l’uso di qualsiasi funzione, l’interazione con una persona, l’interazione con una app…), maggiore è la possibilità di creare profili psicologici accurati e di poterli sfruttare come fonte di profitto
Di conseguenza, è inevitabile che la compagnia, nei limiti del possibile, voglia massimizzare l’uso del proprio servizio; e che un numero crescente di app e nuovi dispositivi raccolgano informazioni su ambiti della nostra vita sempre più ampi, dalle case smart, alle automobili, alle culle e ai dispositivi medici. Dal momento in cui il team di Google ha introdotto questi cambiamenti e dimostrato che le interazioni potevano essere trasformate in profili predittivi, e che questi profili potevano essere a loro volta venduti e scambiati come merce, ricavando profitti enormi, il design degli spazi digitali è cambiato in maniera drastica. Gli spazi e i servizi digitali, in buona parte, non vengono più creati facendosi la domanda “come faccio a creare qualcosa che sia utile all’utente?”, ma “come faccio a creare qualcosa che può raccogliere più interazioni possibili, trasformarle in prodotti predittivi, e a fare apparire il tutto come un servizio gratuito e di valore per la collettività?”.
Zuboff ha definito questo modello, assieme alle sue conseguenze più ampie, “Il capitalismo della sorveglianza” (grassetto mio):
“Il capitalismo della sorveglianza si appropria dell’esperienza umana usandola come materia prima da trasformare in dati sui comportamenti. Alcuni di questi dati vengono usati per migliorare prodotti o servizi, ma il resto diviene un surplus comportamentale privato, sottoposto a un processo di lavorazione avanzato noto come “intelligenza artificiale” per essere trasformato in prodotti predittivi in grado di vaticinare cosa faremo immediatamente, tra poco e tra molto tempo. Infine, questi prodotti predittivi vengono scambiati in un nuovo tipo di mercato per le previsioni comportamentali, che io chiamo mercato dei comportamenti futuri. Grazie a tale commercio i capitalisti della sorveglianza si sono arricchiti straordinariamente, dato che sono molte le aziende bisognose di conoscere i nostri comportamenti futuri.”[15]
Il cambiamento importante è quindi che, se in precedenza chi lavorava nell’industria dell’attenzione doveva lavorare in maniera indiretta, non potendo misurare in maniera granulare il risultato del proprio lavoro, ora la tecnologia digitale permette di farlo; e questo è sufficiente a chiudere il cerchio, ovvero a creare un ciclo continuo di interazione, risposta, adattamento, dove lo spazio che ci circonda diventa uno strumento di estrazione del valore automatizzato. Gli spazi algoritmicamente determinati (che Zuboff chiama “architettura computazionale”) si estendono ben oltre la nostra presenza digitale:
“La novità è stata dettata dalla competizione: i processi automatizzati non solo conoscono i nostri comportamenti, ma li formano. Il focus passa dalla conoscenza al potere, e non basta più automatizzare le informazioni che ci riguardano; il nuovo obiettivo è automatizzarci. In questa fase dell’evoluzione del capitalismo della sorveglianza, i mezzi di produzione sono subordinati a “mezzi di modifica del comportamento” sempre più complessi e completi. In tal modo, il capitalismo della sorveglianza dà vita a nuovi tipi di potere che io faccio rientrare nella categoria dell’ideologia strumentalizzante. L’ideologia strumentalizzante conosce e indirizza i comportamenti umani verso nuovi fini. Anziché usare eserciti e armi, impone il proprio potere tramite l’automazione e un’architettura computazionale sempre più presente, fatta di dispositivi, oggetti e spazi smart interconnessi.”[16]
Zuboff ci fa notare che è importante inquadrare questi cambiamenti, seppure siano in linea nel contesto storico del capitalismo estrattivo, come qualcosa di senza precedenti. Se da un lato inquadrare l’economia dell’attenzione digitale nel contesto precedente è importante perché ci aiuta a riconoscerne la natura profonda e storica, dall’altro, se inquadriamo i recenti cambiamenti come semplici “aumento quantitativi” del fenomeno, ci stiamo perdendo dei pezzi fondamentali: in particolare, normalizziamo l’idea che qualsiasi parte di noi, qualsiasi momento, qualsiasi emozione, qualsiasi comunicazione e interazione umana possa essere oggetto di strumentalizzazione, di vendita, di manipolazione; non solo accettiamo come legittima la presente violenza cognitiva su scala globale, ma apriamo la porta alla sua diffusione sempre più a fondo, in maniera sempre più intima ed estesa ad ogni sfera della vita, rendendo di fatto un mercato dell’attenzione non regolamentato il mediatore permanente e privilegiato della nostra capacità cognitiva collettiva; non solo di quello che la nostra società è oggi, ma anche del suo percorso evolutivo futuro, di cosa significa socialità oggi e di cosa significherà domani. Per uno studio più approfondito del concetto di capitalismo della sorveglianza, e di come l’estrattivismo si traduce nei mercati digitali, rimandiamo al libro di Zuboff “Il capitalismo della sorveglianza”; per ora, per rimanere nel quadro di questa lettera e fornire un quadro generale di cosa costituisce la questione digitale, è utile analizzare più da vicino come i social ci presentano la relazioni, cosa ci dicono che esse siano, e come, di fatto, mettono “in scena” la socialità.
Amicizia o “amicizia”? Gli spazi comunitari e l’architettura del potere
Taina Bucher in “If… then” riprende il modello di Foucault dell’architettura del potere per spiegare come gli spazi attorno a noi (digitali o non digitali) siano intenzionalmente strutturati per rendere alcune cose visibili, piuttosto che altre, e visibili in un certo modo, attraverso tecniche specifiche, con scopi specifici che dipendono da chi ha il controllo di quello spazio. Se i media tradizionali hanno un maggiore controllo su quali notizie vengono pubblicate e quali no, e possono quindi manipolare la nostra percezione della realtà sia scegliendo di rappresentare qualcosa, sia scegliendo di non rappresentarlo, il digitale e i social media apparentemente democratizzano questo processo, rendendo la pubblicazione aperta a chiunque. Eppure, anche sui social, i contenuti non “esistono” in maniera neutra, ma sono profondamente regimentati dall’architettura della piattaforma che li ospita, con la conseguenza che, nonostante siano apparentemente gli utenti ad inserire i contenuti che vogliono, sia spesso lo spazio in cui quei contenuti transitano a contare in maniera significativa, a diventare un’architettura del potere che impone una sua particolare forma di normatività sociale.
Comprendere una piattaforma digitale (un lavoro che chi crea contenuti spesso si trova a fare) e i suoi algoritmi è spesso difficile perché siamo davanti a quella che, a prima vista, è una “scatola nera”, un lavoro complesso e oscuro di ingegneria informatica, un oggetto non osservabile nei suoi meccanismi interni, che sono spesso nascosti a chi ne fa uso; questo però non vuole dire che non possiamo usare la deduzione per investigare attentamente le parti con cui interagiamo, come ci invita a fare Bucher[17]. In questo modo, osservando gli spazi digitali che attraversiamo ci accorgeremmo che, nonostante chi gestisce questi spazi dichiari apertamente di averli costruiti per lo scopo di “creare un mondo più connesso” (vedi anche la famosa pubblicità “Le sedie sono come Facebook”), forse dovremmo mettere sotto inchiesta cosa si intenda per “connessione”, e quanto sia diffuso il social-washing, ovvero il tentativo di mascherare scelte economiche facendole passare per emancipazione (“empowerment”) o come un miglioramento della vita.
Ad oggi (agosto 2025) il sito di Meta presenta un’immagine della vita mediata dai dispositivi, dove il futuro della socialità passa dai nuovi dispositivi di realtà aumentata e realtà virtuale. Meta continua a sostenere che il suo principale obiettivo sia connettere le persone. Cosa significa “connettere”?
Immaginiamoci di stare creando un nuovo social, dove le persone devono fornire dei dati, obbligatori per registrarsi: nome, genere, età, hobby preferiti. Già da questa scelta iniziale, le limitazioni sono molteplici: la prima è che abbiamo scelto noi (su che base?) quali siano le informazioni fondamentali che definiscono una persona; la seconda è che abbiamo potere di definire quali siano i valori consentiti da assegnare a queste etichette. Per gli hobby potremmo fornire una lista da cui scegliere; mentre per il campo “genere”, potremmo scegliere di limitarlo a “uomo” o “donna” (non che sia una buona idea, ma ripeto, è un esempio). Perché dovremmo imporre questa limitazione? Magari perché la pensiamo così e, siccome il software è nostro, possiamo farlo, o forse perché la compagnia di marketing alla quale vendiamo pubblicità usa le categorie “uomo” o “donna” per fare pubblicità mirate e non sa che farsene dei dati di chi non si identifica in una delle due.
Si tratta, ovviamente, di un esempio irrealistico ed estremamente semplificato, ma è per dare un’idea della miriade di implicazioni possibili quando si costruisce uno spazio digitale; e di come, nel caso delle piattaforme commerciali, queste scelte siano dettate dall’economia dell’attenzione, dai limiti della programmazione, e da come si è svegliato quel mattino un ingegnere del software in California, il giorno in cui c’era da prendere una decisione in merito. Come fa notare Tristan Harris: “mai prima d’ora nella storia un numero così ridotto di designer - uno sparuto gruppo di ingegneri, giovani, prevalentemente uomini che vivono nella Bay Area in California e che lavorano per una cerchia ristretta di compagnie tecnologiche – ha avuto un potere così grande sui pensieri e sulle scelte di due miliardi di persone” (numero ora cresciuto: Facebook da solo conta tre miliardi di utenti attivi al mese, anche se il numero di utenti non corrisponde alle persone, per via di account business, bot, falsi, ecc.)
Questo vale per qualsiasi parte di un social; un concetto che esemplifica bene queste dinamiche è quello di amicizia. Quando ci iscriviamo a Facebook, la prima cosa che ci viene proposta è di “aggiungere degli amici”, e ben presto gli algoritmi della piattaforma sono in grado di capire chi erano i nostri compagni di scuola, chi potrebbero essere i nostri colleghi, ecc., e a suggerirci di aggiungerli. Non importa chi siano, quali siano stati i nostri rapporti con loro: quello che conta è aggiungerli. Nello spazio-Facebook, qualsiasi connessione è un’amicizia. Certo, è possibile seguire un altro utente, senza aggiungerlo come amicizia; ma Facebook non ci invita a farlo, anzi, mette in atto tanti piccoli ricatti, sotto forma di “suggerimenti” e insinuazioni: ci fa sapere che Facebook è “fatto per le amicizie” e che è bene averne il più possibile, ci avverte immediatamente quando qualsiasi persona che abbia trovato il nostro profilo ci vuole aggiungere come amico; ci ricorda in continuazione di aumentare il nostro pool di “amici”, suggerendoci persone da aggiungere; ci ricorda di interagire con persone con cui non abbiamo interagito da tempo; o ancora, ci presenta (senza che sia stato richiesto), foto del passato per farci ricordare questa o quella amicizia; per non parlare della difficoltà di impedire a Facebook di importare i nostri contatti. Queste funzioni a volte potrebbero essere gradite, ma viene da chiedere: se l’amicizia (vera) richiede impegno e attenzione, il nostro selezionare e il nostro dimenticare non hanno forse un importante senso emotivo? Non dovremmo essere noi a fare uno sforzo conscio per capire quali rapporti è importante coltivare, e quali invece è bene lasciare andare? Perché bisogna necessariamente “avere tante amicizie”, perché necessariamente dobbiamo farlo sapere in giro, e che valori culturali proiettano queste scelte? Perché dovremmo affidare qualcosa di così importante ad un algoritmo di cui non sappiamo niente? Cosa possiamo fare, se vogliamo che l’amicizia rimanga qualcosa di prezioso, e non di qualcosa annacquato in mille “connessioni” di cui nessuna ha veramente significato?
Facendosi un po’ di domande appare abbastanza chiaro come l’amicizia su Facebook non sia l’amicizia a cui siamo abituati, ma una rappresentazione dell’amicizia finalizzata a raccogliere quante più interazioni possibili sulla piattaforma (come già detto: più amicizie, più interazioni, più profitto). Certo, si tratta di opinioni, c’è sicuramente chi gradisce il tipo di socialità proposto dai social, e non c’è niente di male. Chi non ama il social può semplicemente non usarlo, su questo non ci piove. Rimangono però diversi problemi: uno è quello della responsabilità delle grandi aziende, di cui parleremo più sotto. L’altro è quello dell’appropriazione degli spazi comuni. In generale, la mia impressione è che la maggior parte delle persone siano insoddisfatte del modello proposto dai social mainstream, anche se questa insoddisfazione non si è (ancora) tradotta in un abbandono in massa di Facebook o di altre piattaforme. Vuoi perché una volta che un social è diventato un mezzo importante per la nostra socialità è difficile cambiare abitudini, vuoi perché spostarsi altrove è difficile senza che ci sia una massa critica che si muove e decide che troppo è troppo. Molto aneddoticamente, qualcosa che mi capita di sentire spesso, parlando con persone che conosco, è il desiderio di tornare ad essere in controllo della propria sfera sociale, di tutelare quello che è importante, di tornare ad essere più concentrati su quello che (per quella persona) veramente conta, di riuscire a non perdersi in un mondo che ci propone migliaia di opportunità, tutte (apparentemente) di valore. Come abbiamo già visto, né i social media in generale, né Facebook o Meta hanno creato una società della visibilità e della celebrità, né hanno inventato l’economia dell’attenzione. Quello che è certo è che fanno molto per incentivarle il più possibile, e molto poco per concedere alle persone e comunità il controllo degli spazi digitali che abitano quotidianamente.
Per tornare sull’amicizia, quello che mi preme sottolineare è che le piattaforme social, nel tentativo di creare un numero maggiore di interazioni sulla propria piattaforma, stanno modificando il significato stesso di amicizia: da qualcosa di profondo, che va coltivato, a qualcosa di casuale, passeggero, gestibile tranquillamente online con qualche click, dove non dobbiamo preoccuparci perché è l’algoritmo che gestisce per noi i nostri ricordi, le nostre interazioni. Accettare questo è accettare, almeno in parte, l’idea di amicizia, e più in generale l’idea di socialità che lo spazio-Facebook propone. Non si può pensare la socialità digitale rimanga confinata, che sia una semplice estensione di quella “fisica”. Le abitudini che si acquisiscono nel digitale, in quanto rappresentazione del reale, non possono che finire per trasferirsi nel quotidiano quando la rappresentazione acquisisce più valore ed è prevalente rispetto a ciò che viene rappresentato. Per esempio: se gli incontri di persona, che prima avvenivano con lo scopo di… incontrarsi di persona (molto banalmente), ora parte di quegli incontri sono immancabilmente dedicati a documentare, e a diffondere mediaticamente il momento dell’incontro (vedi sondaggio USA sull’uso dei telefoni mentre si socializza). Se questo ci rende felici, perché no? Non serve certo fasciarsi la testa. Serve però rendersi conto quando la tecnologia è subordinata all’incontro, quando serve per creare ricordi, e quando invece la situazione si rovescia, cioè quando è l’incontro che diventa subordinato alla tecnologia, alla creazione del ricordo stesso, alla mediaticità, alla necessità di apparire, alla creazione dello spettacolo; serve rendersi conto quanto progressivamente questo ribaltamento si stia diffondendo negli ambiti più diversi, e anche quanto influisca sulle attività stesse, che diventano desiderabili, non tanto per le loro qualità intrinseche, ma in base a quanto le attività (o meglio: la rappresentazione digitale delle attività) siano compatibili con l’architettura del potere algoritmica, vedi alla voce: “instagrammabile”. Non serve, io credo, parlare con persone esperte di psicologia o sociologia per rendersi conto che queste dinamiche sono già ben avanzate, che il processo di ridefinizione della socialità compiuto dall’architettura del potere digitale ha già ampiamente sconfinato al di fuori dell’ambito digitale, e che questi cambiamenti sono facilmente riconoscibili nel momento in cui la società mette sempre meno valore sulle esperienze vissute, e sempre di più su quelle rappresentate. Ricordiamo però Debord: la tecnologia di per sé non genera queste dinamiche, ma è parte integrante di una società dove l’accumulo dello spettacolo è una modalità totalizzante, resa possibile da un certo tipo di tecnologia, non neutra, che è stata sviluppata di proposito per aumentare le potenzialità dello spettacolo[18].
Definire il senso della nostra socialità, oppure rinunciare?
Torniamo sul tema “chi prende le decisioni”. Anche se la creazione di queste piattaforme fosse ben intenzionata (in buona parte non lo è: vedi sezione “Irresponsabilità”, sotto), dare la gestione della nostra socialità in mano ad una compagnia della Silicon Valley ha dei rischi e delle conseguenze. Finché accettiamo di usare piattaforme “gratuite” e in mano a proprietari privati, la creazione e la gestione del software (e quindi l’architettura degli spazi digitali su cui passiamo così tanto tempo) è interamente fuori dal nostro controllo. L’esempio dell’amicizia è uno dei tantissimi che si potrebbero fare: si potrebbe parlare all’infinito dei meccanismi che regolano il news feed di Facebook, dei consigli di Youtube, degli streak di Snapchat, di ogni singola componente che va a costituire gli spazi della socialità online. Ma al di là di tutte queste discussioni e analisi, che sono sì importanti, c’è un singolo fattore sul quale concentrarsi, ovvero: nonostante le piattaforme social esistano solo grazie ai propri utenti e ai contenuti da essi generati, gli utenti non hanno nessun controllo sulle piattaforme, nè possono influire in maniera significativa sul funzionamento della piattaforma. In altre parole, a fronte di un servizio “gratuito”, stiamo: rinunciando a tutelare le informazioni sulle nostre relazioni, preferenze, abitudini; accettando di frequentare spazi intenzionalmente strutturati per sfruttare le vulnerabilità psicologiche; ma soprattutto stiamo abdicando alla possibilità di avere una voce in capitolo sulla natura degli spazi comunitari. Invece di trattarli come spazi comuni, come beni comuni, forse perché sono “digitali”, lasciamo che vengano privatizzati e gestiti dalla logica degli azionisti, se non, peggio, comprati e stravolti dal primo miliardario che capita (sì, sto parlando di Twitter/X). È come se rimanessimo in silenzio davanti ad una grande multinazionale del giardinaggio che prende il controllo dei giardini pubblici sotto casa dicendoci: “Siamo più grandi esperti di giardinaggio e la nostra mission è migliorare i giardini di tutto il mondo, lascia fare a noi!”, con la scusa che taglieranno il prato gratis, e facendovi firmare un contratto lunghissimo che nessuno capisce; per poi scoprire che questa compagnia ha inserito nel contratto che tutte le conversazioni che avranno luogo nei giardini saranno registrate e che tutte le foto e video in giardino sono di loro proprietà. Ah, e che in giardino si può solo giocare a calcio e non a pallavolo, e che le regole del calcio le decidono loro (eccetera). Sarebbe allora utile ragionare su come gli spazi digitali sono, a tutti gli effetti, un’estensione della socialità di tutti i giorni. Non ci sogneremmo mai di lasciare che una compagnia privata interferisca con le nostre relazioni nella “vita reale”, allora perché dovremmo consentirlo nel digitale? Se la risposta è “la comodità”, è allora utile fare notare che ci sarebbero alternative altrettanto valide (e ne parleremo meglio nella quinta parte): non si tratta di rinunciare alla tecnologia, ma di vedere la tecnologia a servizio della comunità e non la comunità a servizio della tecnologia. Questo cambio di visione è però infattibile se l’idea che abbiamo (collettivamente: non solo chi ci lavora dentro, o ai vertici) della tecnologia rimane così profondamente legata agli imperativi economici, impedendoci non solo di progettare, ma anche solo immaginare l’universo digitale come un grande bene comune.
Il design dei casinò, che abbiamo descritto nella seconda parte, è particolarmente calzante, perché possiamo paragonare la situazione attuale, in cui lo spazio digitale si sta sviluppando, come all’apertura di un cantiere per una grandissima opera pubblica: uno spazio sul quale può affacciarsi il mondo intero. Ma invece di stabilire un processo partecipato per capire cosa ne sarà di questo spazio, come sarà gestito, che attività saranno possibili; invece di fare questo sforzo (ahimé, le cose buone non cadono mai dal cielo), si sta sempre di più appaltando questo spazio in maniera esclusiva a grandi compagnie che, per quanto riguarda la filosofia del design, si ispirano a quella del casinò: spazi che hanno il solo scopo di attirarci, renderci assuefatti e confusi, assorbire tempo e attenzione il più possibile. Non confondiamoci, la possibilità di comunicare su questi spazi esiste: comunicare sui social è possibile, ma è una qualità accidentale delle piattaforme, che sono fatte per assorbire e sfruttare quelle conversazioni e trasformarle, non per migliorarne la qualità. A costo di essere ripetitivo mi sembra importante insistere su questa parte: le piattaforme digitali stanno modificando, sulla base dell’economia dell’attenzione e per la finalità ultima del profitto, il nostro modo di interagire, il nostro concetto di amicizia, il nostro modo di comunicare. La ridefinizione del concetto di amicizia è una delle infinite modalità con cui l’economia dell’attenzione modifica la socialità. Un elenco completo ed esaustivo di questi processi, studiati approfonditamente, sarebbe certo utile. Ma il punto di questa lettera è anche questo: è importante analizzare il fenomeno, ma al tempo stesso non c’è tempo di fermarsi all’analisi, perché comprendere a fondo l’effetto di questi nuovi meccanismi richiede più tempo di quanto non ci metta l’industria digitale a svilupparne di nuovi. Nel momento in cui li avremo compresi “a fondo”, sarà già tardi, e cambiare sarà molto più difficile di quanto non sia ora. Non è necessario aspettare che la psicologia, la sociologia o la medicina ci dicano che cosa fa bene e cosa fa male, perché anche se ce lo potessero dire con assoluta certezza, quello che ancora di più conta è che le strutture algoritmiche del potere, mascherate come socialità, ci avranno già tolto la possibilità di definire cosa è connessione, cosa è relazione, cosa è affetto, quali valori contano e perché. Questo processo è già ben avviato, e più tempo passa più perdiamo l’abitudine di dire: “queste decisioni spettano a noi”. Giorno dopo giorno, una piccola comodità alla volta, un contratto (di termini del servizio) dopo l’altro, concediamo pezzi del mondo digitale all’industria digitale, e sempre più pezzettini della nostra vita. Sul lungo andare, i pezzettini diventano una montagna. Più sono le grandi piattaforme digitali private a mediare il modo in cui le persone si relazionano, più perdiamo la possibilità di fare scelte fondamentali per l’autonomia individuale e delle comunità.
Ci dovrebbe bastare sapere che questi cambiamenti non hanno niente di democratico, capire a chi stiamo affidando la nostra socialità per potere dire che ci sono momenti in cui è bene fermarsi e riflettere. Non sto suggerendo di prendere e buttare tutto dalla finestra: ma ancora una volta, avere la capacità di accettare di doversi fermare, per guardare quello che abbiamo davanti, per prendere il tempo di confrontarci in merito. Lo abbiamo fatto con la pandemia, di fermarci, ma in quegli anni è andata al contrario: noi siamo rimastə fermə, chiusə in casa, mentre la presenza del digitale nelle nostre vite è andata avanti al doppio della velocità. Se abbiamo fatto l’uno, forse possiamo anche fare il contrario: perché c’è qualcosa di troppo prezioso, di troppo importante nelle nostre relazioni per lasciarle in mano a compagnie irresponsabili, peraltro in cambio un servizio sempre più marcio e corrotto.
L’estrattivismo, il digitale, ed il patto sociale
Se abbiamo, da sempre, accettato compromessi che ci permettevano di vivere meglio ma che ci rendevano dipendenti dalla tecnologia, alcuni aspetti della nostra vita, i più privati ed intimi erano rimasti in un mondo relativamente al sicuro: eppure questi sono ora diventati l’oggetto di interesse per un modello economico che non conosce limiti se non quelli che noi, personalmente e politicamente, imponiamo. Nel 2011 27 milioni di italianə hanno, ad esempio, votato affinché l’acqua rimanesse un bene comune, estromesso dalle logiche del mercato, e nonostante ciò, il diritto all’acqua ha subito attacchi continui.
Parlare di estrattivismo nel contesto cognitivo è chiaramente diverso: ma se ancora non abbiamo l’abitudine di ragionare sull’attenzione come risorsa (forse perché non ci piace e sembra vilificare qualcosa di particolarmente intimo), l’industria digitale ha cominciato a farlo da tempo, dimostrando nei fatti (e con miliardi su miliardi di profitti) che l’estrattivismo cognitivo esiste, e funziona eccome. Parlare di estrattivismo serve a collocare l’industria del digitale in una cornice storica e ad illuminare le dinamiche a cui andiamo incontro, dinamiche che sono state già ampiamente esplorate in altri ambiti: l’estrattivismo incontrollato delle risorse naturali ci ha portato ad una crisi ecoclimatica senza precedenti, non perché ci siano stati incidenti di percorso inaspettati, né perché ci sia stato un fallimento dell’estrattivismo o dei suoi agenti (sia pubblici e nazionali, che privati), ma precisamente perché i danni ecologici e sociali sono la conseguenza diretta di come si è scelto di regolamentare (o non regolamentare) il settore, o meglio, la conseguenza diretta del rapporto tra l’estrattivismo ed il potere che dovrebbe limitarlo.
Per descrivere le caratteristiche dell’estrattivismo possiamo usare quelle già delineate nell’ambito degli studi del sud globale, cioè dai paesi che più le hanno subite. Citando Alberto Acosta[19], l’estrattivismo è una modalità di accumulazione del capitale che, circa cinque secoli fa, nel contesto dell’appropriazione coloniale e neocoloniale, ha incominciato ad essere praticata su scala di massa, prevalentemente a favore dello sviluppo industriale del nord globale. Si caratterizza per:
L’estrazione di grandi quantità di materie prime: senza curarsi della sostenibilità o delle conseguenze dell’esaurimento delle risorse.
Prelievo e trasporto: la maggior parte di quello delle risorse estratte non è destinata al consumo locale, ma all’esportazione.
L’impatto negativo locale: le risorse in molti casi non vengono lavorate sul luogo, ma solo estratte. Non si creano lavori specializzati (o se ne creano pochi), ma principalmente lavori sottopagati e precari; la possibilità di derivare valore aggiunto (es. la trasformazione delle materie prime in beni di consumo) avviene spesso altrove. Al contrario, gli effetti negativi sono principalmente locali.
Questa definizione ci interessa perché molti aspetti trovano un parallelo nell’industria digitale: la risorsa-attenzione viene estratta in maniera cospicua, solo curandosi della possibilità di espandersi in nuovi mercati (e non delle conseguenze)[20], viene trasformata dalle grandi compagnie e rivenduta a terzi senza chiedersi per quali scopi (che sia pubblicità o tentativi di interferire nelle elezioni di un paese)[21], il profitto viene accumulato e, in grandissima parte, depositato altrove, contribuendo a costruire profonde disuguaglianze. Bisogna chiedersi se il servizio che l’industria digitale fornisce è proporzionato, non solo al guadagno, ma anche alle conseguenze che comporta. Un parallelo utile è la “maledizione delle risorse”, già descritta in diverse varianti, a partire dal 1977 dall’Economist (“la malattia olandese”) da vari autori tra cui Michael J. Watts[22], Acosta[23] e Amitav Ghosh (“La maledizione della noce moscata”, 2022). A grandi linee, questo fenomeno descrive come la scoperta di risorse naturali preziose in un paese porti ricchezza improvvisa, ma che introduca anche forze, sia interne che esterne, che sono molto difficili da controllare. Vasti ambiti della società e della politica diventando succubi della risorsa e corrotti davanti alle possibilità che essa offre, rendendo impossibile la redistribuzione della ricchezza e più facile la creazione di un sistema di rendite passive e parassitarie. Lo stato diventa, davanti alla potenzialità di guadagno e di sviluppo, troppo invischiato nell’estrazione e gestione della risorsa per potere imporre leggi che tutelino la popolazione nella sua interezza, e spesso questo succede a favore di pochi (che controllano ed effettivamente ricevono il grosso del beneficio) e a discapito delle fasce più deboli o delle minoranze; questo processo può essere accelerato da agenti esterni come le grandi aziende multinazionali, che in diversi casi nella storia hanno avuto un potere diplomatico, legale, tecnologico e finanziario paragonabile se non maggiore a quello della nazione in cui operavano, in particolare nelle ex colonie[24].
Nel caso dell’industria digitale il vantaggio non è tanto un gettito fiscale diretto, ma è la promessa di sviluppo tecnologico (anche in termini di sicurezza e difesa del paese), di digitalizzazione, di consentire al paese di rimanere competitivo su un mercato globale che richiede competenze specializzate (i famosi “lavori del futuro”), e in generale la promessa di collaborazione su innovazione e infrastrutture, oltre ad una semplice questione di prestigio. La maggior parte dei governi sono quindi favorevoli a fare il possibile perché l’industria digitale non solo rimanga, ma abbia meno ostacoli possibili, anche a costo di ridurre le tasse, come nel caso dell’Irlanda o degli Emirati Arabi. Quello che bisognerebbe chiedersi è però quanto questa subordinazione sia veramente a nostro vantaggio (ancora una volta: non siamo qui per suggerire di buttare i computer dalla finestra, ma per invitare una riflessione sull’attuale equilibrio), e quanto rischi di creare dinamiche pericolose per la democrazia. Per questo è utile osservare l’operato delle multinazionali nel dettaglio, perché nella storia dell’estrattivismo hanno avuto un ruolo fondamentale.
Il potere nazionale e statale ha, per secoli, alimentato un sistema legale dove i crimini privati compiuti da attori privati e dalle multinazionali (evasione fiscale internazionale, sfruttamento sul lavoro, disastri industriali, violazioni dei diritti umani su vasta scala), non sono eventi “eccezionali”, ma sono parte di una routine dove quei crimini diventano una semplice voce di spesa nel modello di business delle aziende stesse. Questo è possibile nel momento in cui la maggior parte dei costi e delle esternalità (dalla degradazione degli ecosistemi ai danni alla salute) non vengono conteggiati nel costo dell’estrazione quando avviene, ma vengono violentemente scaricati sulle generazioni future, oppure su gruppi di persone che non hanno capacità di rivalersi su chi ha causato il danno. Questo avviene sia per una semplice discrepanza tra possibilità finanziare (di una grande compagnia contro un gruppo di persone, presumibilmente già in difficoltà per i danni ricevuti, in particolare quando si tratta di danni ecosistemici che minacciano la sussistenza), sia per un sistema legale (quello internazionale in particolare) che attribuisce alle grandi aziende una serie di strumenti, tutele (tra cui la responsabilità limitata) e possibilità[25] che non sono invece disponibili per le comunità e per gli individui che si trovano a dovere difendere i propri diritti fondamentali[26]. In molti casi la prevenzione del danno è molto improbabile, vista la tendenza delle multinazionali ad operare in paesi dove la corruzione è diffusa, dove gli standard legali sono più bassi (che sia per l’estrazione mineraria o per altro) o dove la società civile, se si oppone all’estrattivismo, è repressa con la violenza; ma anche quando avviene, la contesa giuridica dopo gravi incidenti è una battaglia estremamente dura, in particolare quando le istituzioni giuridiche locali sono deboli (o corrotte, a favore della multinazionale), quando la legge internazionale presenta delle lacune e quando manca un forum giuridico internazionale che sia in grado di valutare l’operato delle multinazionali[27]. Questa debolezza del sistema giuridico internazionale persiste ad oggi, nonostante sia già stata evidenziata in diversi casi storici che hanno avuto conseguenze drammatiche per milioni di persone, come ad esempio il disastro di Bophal in India (1984) causato dalla fabbrica chimica della Union Carbide, la catastrofe ambientale nella foresta pluviale in Ecuador ad opera di Texaco-Chevron (dal 1964), la distruzione degli ecosistemi e delle comunità del delta del Niger ad opera di Shell (dal 1956)[28]. Queste date possono sembrare lontane, ma in molti di questi casi la contaminazione del terreno e delle acque è durata per decenni o persiste ad oggi, in molti casi rendendola invivibile; e in alcuni casi, come nel Delta del Niger, dove le battaglie legali e civili hanno portato all’obbligo del governo e delle compagnie coinvolte di bonificare le zone contaminate, i risultati sono ad oggi assolutamente miseri.
Ma perché parlare di disastri ambientali ed estrattivismo qui, se stiamo parlando di tecnologie digitali? Il paragone è utile nel momento in cui l’industria del digitale e in particolare le multinazionali che governano le grandi piattaforme stanno seguendo una rotta simile alle compagnie estrattiviste “tradizionali”, e che quindi è bene rendersi conto come, in assenza di una solida presenza da parte della società civile, in assenza di una giurisprudenza forte e ben rodata (particolarmente a livello internazionale), e in assenza di una politica in grado di dare risposte più lungimiranti e olistiche (visto che al momento il dialogo è fermo a “vietiamo il telefono ai bambini”), rischiamo di ripetere la storia.
Vale la pena ricordare che la definizione di “rinnovabile” e di “sostenibile” vanno re-esaminate alla luce della enorme scala su cui l’estrattivismo contemporaneo avviene[29]: molte risorse tradizionalmente considerate “rinnovabili”, come l’acqua, le foreste e la fertilità del suolo, non sono più rinnovabili se la velocità di estrazione supera la capacità naturale di rigenerazione. In questo senso, se l’economia dell’attenzione mira a creare sempre più connessioni mediate da sistemi digitali, a catturare e saturare sempre più interesse e attenzione, è possibile dire che la nostra capacità cognitiva, la nostra immaginazione e creatività diventino scarse? Seppure queste “risorse” siano apparentemente illimitate e inesauribili, non sono certo estendibili all’infinito. Come già osservato da Herbert Simon nel 1969 (vedi sopra), l’attenzione oggi è limitata, e di fatto, contesa: siamo già da tempo arrivati ad un primo limite di questa risorsa, e ora lo stiamo oltrepassando.
Così come gli ecosistemi degradati perdono la capacità di rigenerarsi in maniera efficace, allo stesso modo, è possibile pensare che un ecosistema della consapevolezza umana, soggetto a continue intrusioni possa faticare a rigenerarsi e a ripristinare le sue funzioni autonome? La quantità di attenzione asservita nei meccanismi dell’estrattivismo globale aumenta pari passo alla capacità tecnologica dell’industria di trovare nuovi modi di catturarla, di scoprire riserve inesplorate, di andare in profondità, di non tralasciare nessun angolo dell’esistenza umana; al pari di come l’estrazione petrolifera, esauriti i giacimenti più facilmente accessibili, ha incominciato a scavare le sabbie bituminose e le profondità oceaniche, rivoltando ogni angolo della terra. Questa invasività dei processi comporta che sempre più ambiti precedentemente incontaminati (sia a livello naturale, che cognitivo) siano sondati, esplorati meccanicamente. La normalizzazione della mentalità dell’estrattivismo ci porta a pensare che, nel nome del progresso, sia un bene che qualsiasi ambiente venga mappato per comprendere nel dettaglio quali risorse è possibile estrarvi, per poi arrivare all’eccesso e ritrovarsi a dovere stabilire riserve naturali, parchi, leggi speciali quando ormai è tardi. Chiaramente, se questa prospettiva viene applicata all’ambito cognitivo umano, e teniamo a mente la velocità a cui si sviluppa l’industria digitale, così come la lentezza con cui comprendiamo questi fenomeni (per non parlare della lentezza della macchina politica), lo scenario si rivela piuttosto inquietante.
Quello che conta nell’estrattivismo non è però solo la quantità estratta o la vastità delle operazioni, ma la natura della risorsa stessa, e cosa è possibile farci: come già discusso, l’attenzione non è semplicemente l’atto di prestare attenzione, ma è fondamentale affinché ogni persona possa decidere cosa è reale e cosa no. L’industria digitale promette una sistematizzazione più efficiente del reale, una categorizzazione specifica e algoritmica che sostituisce la nostra necessità di osservare per conoscere la realtà, con la possibilità di poterla comandare direttamente. Parafrasando William Davies (2018)[30]: invece di dovere studiare comandiamo a Google e ai chatbot di intelligenza artificiale di consegnarci la conoscenza, invece di dovere confrontarci con le persone comandiamo a Facebook di metterci in connessione, invece di sapere orientarci comandiamo a Google Maps oppure a Uber di farci arrivare da qualche parte, invece di pensare a come risolvere un problema con gli strumenti che abbiamo, comandiamo ad Amazon di farci arrivare un oggetto che possa risolverlo. Tutto questo ha un costo: l’industria digitale sta creando l’infrastruttura primaria attraverso la quale percepiamo la realtà, non con l’intenzione di renderci maggiormente indipendenti (perché se lo facesse perderebbe il proprio potere), ma al contrario con lo scopo di fidelizzarci sempre di più su servizi che, apparentemente gratuiti o a basso costo, strumentalizzano e catturano la nostra attenzione. Quando seguiamo la promessa di ricevere il potere di comandare la realtà, di averne il controllo principalmente tramite la tecnologia, perdiamo in realtà la capacità di osservarla in autonomia, e questo accade non tanto per la tecnologia in sé, ma per come si configura il rapporto tra società, tecnologia, potere e crescita infinita: come già faceva notare Ivan Illich nel 1973, c’è un punto in cui la tecnologia smette di essere al nostro servizio, e in cui diventiamo noi a servizio della tecnologia. Dare la colpa alla “tecnologia” è poco utile quando esiste una tendenza (economica, culturale, sociale) a premiare chi usa la tecnologia (digitale o meno) per accentrare il potere invece di redistribuirlo; per ridurre o strumentalizzare l’autonomia e la creatività altrui invece di incentivarle[31]. Tutto questo nonostante ci sia l’impressione di una maggiore libertà e creatività: gli strumenti digitali offrono, senza ombra di dubbio, opportunità creative enormi, ma si tratta di opportunità necessariamente irretite e pilotate da un’economia che le rende strutturali al profitto e al potere, che le trasforma secondo le logiche algoritmiche sottese a questa contesa. Il futuro verso cui l’industria digitale si dirige a tutta velocità, la “corsa agli armamenti” dell’intelligenza artificiale e della fornitura di nuovi ed essenziali strumenti cognitivi è nelle mani di attori fondamentalmente e strutturalmente irresponsabili. Pensare che le persone al vertice dell’industria digitale siano particolarmente responsabili o colpevoli e che basterebbe sostituirle (o sostituire i team di ingegneri del software) è un’illusione: finché esiste un sistema collettivo che premia chi usa la tecnologia digitale per accumulare potere, e finché continuiamo ad accettare gli apparenti vantaggi dell’attuale patto sociale (che è un patto sociale con l’estrattivismo), fino ad allora dovremo fare i conti con le conseguenze, anche se chiaramente le responsabilità di ogni persona coinvolta (da chi usa strumenti digitali, a chi li crea, a chi li finanzia, e così via) non sono sullo stesso piano.
Le conseguenze dell’estrattivismo “classico” si sono, fino ad ora, riversate con particolare violenza su aree specifiche, aree che era più facile ignorare, settori di popolazione più deboli e con meno possibilità di esprimere il proprio dissenso: il sud globale e le aree marginali e di sacrificio, che non sono necessariamente in paesi a basso reddito, ma vanno dalla Foresta Amazzonica alla Terra dei Fuochi, dove lo stato Italiano è stato condannato dalla Corte Europea dei diritti dell’uomo. Diversamente, l’economia dell’attenzione e la colonizzazione della consapevolezza comune hanno conseguenze diverse, perché agiscono su di un numero enorme di persone e di paesi contemporaneamente, a tappeto; è un tipo di estrattivismo che colpisce le persone in maniera differenziata (la capacità di comprendere e adattarsi non è omogenea, vedi l’epidemia di fake news in India), ma comunque a tappeto, senza confini geografici precisi come nel caso dell’industria mineraria, dove spesso le crisi sono traumatiche ma localizzate. Se questo paragone può sembrare eccessivo, vale la pena ricordare che le grandi compagnie tecnologiche, pur avendo una responsabilità enorme verso miliardi di persone, hanno veramente pochi limiti al proprio operato, anche se, almeno in Europa, qualcosa sta cambiando con l’arrivo del Digital Services Act (ne parleremo meglio sotto, assieme alle dark patterns).
Le tutele legali al momento riguardano soprattutto la privacy, come ad esempio il General Data Protection Regulation (GDPR), sempre in Europa, anche se l’effetto di questo regolamento si è fatto sentire altrove. Tuttavia, per quanto il GDPR sia il più ambizioso in materia a livello globale, non risolve tutti i problemi. Sia perché le privacy policy (e i vari meccanismi di conferma o disdetta) che riceviamo quotidianamente sono troppo difficili da comprendere e valutare a fondo, anche per persone con buone competenze digitali; sia perché le compagnie big tech continuano a violare il regolamento (e ad essere multate) e a fare il possibile per aggirarlo, potendo contare su operazioni che non sempre sono trasparenti. Questo avviene sia internamente (nella gestione dei dati), sia studiando e applicando intenzionalmente interfacce digitali che bloccano, redirigono, costringono o (volontariamente) assillano l’utente affinché si comportino in un certo modo, spesso finendo per fare accettare all’utente quello che la compagnia desidera. Ci sono buoni motivi per dire che, davanti a dinamiche di irresponsabilità diffusa, alimentate da un’industria che non sa regolarsi da sola e da una politica che non sa stare al passo, rischiamo di arrivare a situazioni alle quali nessuna multa o risarcimento potrà fare fronte. Per rinforzare questo punto, cioè quanto in mala fede siano molte di queste compagnie, nella prossima sezione faremo un elenco riassuntivo di come i più importanti attori dell’industria digitale hanno affrontato le proprie responsabilità fino ad ora.
Irresponsabilità
Ci spostiamo a parlare di casi concreti di irresponsabilità per chiarire che, come si diceva sopra, gli incidenti di percorso, gli scandali, i “danni collaterali” dell’industria estrattiva in generale, non sono tanto “incidenti di percorso”, ma sono ben conosciuti, in parte prevedibili, ma soprattutto: non sono considerati come degli ostacoli davanti ai quali fermarsi, ma delle incognite finanziarie che le grandi aziende includono nei loro modelli di rischio e di profitto, spesso contando sul fatto che è più conveniente nascondere i rischi, negare le responsabilità, e, se proprio è necessario, pagare le multe o i rimborsi (che spesso sono oggetto di patteggiamento) piuttosto che cambiare il proprio modello di business[32]. Le grandi piattaforme del web esistono da poco più di venti anni, eppure nel giro di poco tempo hanno dimostrato di essersi adattate benissimo a questo modo di fare; con l’ulteriore vantaggio che, operando in un ambito relativamente “inesplorato”, esistono ancora tante aree grige, e pochi enti che siano in grado di giudicare in maniera efficace l’operato dell’industria del digitale.
Cerchiamo di riassumere alcuni dei problemi più salienti, anche se si potrebbero riempire più libri su questo tema. Un tema molto generale, e che è stato riconosciuto e inquadrato di recente è quello delle “dark patterns”, ovvero metodologie di design “oscuro” che, senza che ce ne accorgiamo, ci fanno fare cose che non avremmo fatto, o confondono le acque su quello che effettivamente stiamo facendo, ad esempio: registrarci per una newsletter quando ci iscriviamo da qualche parte, acquistare un prodotto piuttosto che un altro, accettare termini di servizio che non vorremmo accettare. Le strategie per indurre le persone a fare queste cose sono innumerevoli quanto diffuse, e vanno da cose semplici (l’uso scritte piccole a basso contrasto; testi intenzionalmente formulati in maniera poco comprensibile; pulsanti la cui funzione è poco chiara) a complesse (vulnerabilità psicologiche come ad es. creare un falso senso di urgenza durante una vendita) a molto complesse (manipolazione algoritmica, dinamiche che creano dipendenza). Esistono delle risorse che le catalogano e le spiegano in maniera chiara e accessibile, qui e qui (solo in inglese – al momento non conosco risorse esaurienti in italiano). Il Parlamento Europeo, nel Digital Services Act del 2022, mirato a regolamentare le grandi piattaforme digitali, ha riconosciuto l’importanza delle dark patterns, includendo nella definizione anche i rischi sistemici causati da algoritmi potenzialmente manipolativi, come ad esempio quelli che regolano la distribuzione dei contenuti sulle grandi piattaforme. Si tratta di un regolamento ampio e particolarmente innovativo, che non ha un corrispettivo in altri paesi (in particolare non c’è niente di simile negli Stati Uniti, dove molte delle compagnie big tech hanno sede); è ancora da vedere che effetti avrà sul lungo termine, ma già nel 2024 una prima risoluzione è servita a bloccare una funzionalità di TikTok che, secondo la commissione, avrebbe rischiato di creare un effetto dipendenza, in particolare per utenti giovani.
Detto questo, è comunque importante vedere come, fino ad ora, le compagnie hanno reagito ai tentativi di essere regolamentate. Partiamo da Meta, non tanto perché crediamo che meriti di essere criticata più di altre compagnie, ma perché essendo la proprietaria di Facebook, Instagram e Whatsapp, è di gran lunga il “contenitore” di social media con più utenti al mondo. Citando i casi più importanti:
Nel 2011 Facebook ha dovuto rispondere alle accuse della Federal Trade Commission (FTC) per avere mentito sulla riservatezza delle informazioni: molti dati che Facebook diceva fossero privati, in realtà erano pubblici, o erano condivisi con terzi ad insaputa degli utenti[33]. Nello specifico, prima del 2011:
Facebook ha modificato il sito in maniera tale per cui informazioni, che in precedenza erano private (come l’elenco degli amici) sono state rese pubbliche, senza avvertire gli utenti né chiedere il loro consenso.
Ha comunicato agli utenti che le applicazioni esterne che interagivano con Facebook potevano accedere solo alle informazioni necessarie; in realtà, le applicazioni esterne potevano accedere a tutti i dati personali dell’utente.
Le applicazioni esterne potevano accedere non solo ai dati dell’utente, ma ai dati degli amici dell’utente, anche se gli amici dell’utente stavano usando l’opzione “solo amici” per i propri contenuti (NB. Sembra un dettaglio ma è da tenere a mente, vedi caso Cambridge Analytica sotto).
Facebook ha promesso che non avrebbe condiviso i dati con i fornitori di pubblicità, ma poi lo ha fatto.
Facebook ha dichiarato che i contenuti degli utenti disattivati o rimossi non erano accessibili. Lo erano.
Nel 2016 è stato scoperto che una società di consulenza (Cambridge Analytica, CA) aveva usato i dati di più di 50 milioni di utenti, a loro insaputa.[34] CA aveva profilato questi utenti con lo scopo di proporgli pubblicità mirate, e influenzare le elezioni del 2016 negli Stati Uniti. CA non era legalmente in possesso di questi dati: aveva realizzato una app che (dichiaratamente) era per fare sondaggi a scopo accademico, e aveva così ricevuto il consenso del trattamento dei dati da parte di 270.000 persone. Tramite queste 270.000 era però riuscita ad avere accesso ai dati di 87 milioni di persone, la maggior parte delle quali negli Stati Uniti. Facebook era al corrente di questa possibilità nel proprio sistema: era già stata avvertita in merito dall’FTC, come specificato sopra; ed era anche al corrente che CA stava raccogliendo dati su milioni di utenti in maniera sospetta.
L’FTC ha multato Facebook per 5 miliardi di dollari nel 2019, la multa più salata mai imposta per questioni legate alla violazione della privacy. Una multa enorme, ma in prospettiva, relativamente poco: si trattava di un quarto dei profitti di quell’anno per Facebook. Il risultato è che le azioni in borsa sono tornate a salire poco dopo.Diversi informatori hanno dichiarato che Facebook adotta pratiche di sviluppo software aggressive e dannose per le persone, in particolare per bambini e adolescenti, e che nonostante ci sia consapevolezza diffusa di questo problema, non si è mai fatto abbastanza.
L’ intervista del 2017 in cui Sean Parker, il primo presidente di Facebook, dichiarava:
“Il processo che abbiamo seguito per creare questo tipo di applicazioni, di cui Facebook era la prima, era incentrato su di una domanda: ‘Come è possibile consumare la maggior quantità possibile del tuo tempo e della tua attenzione?’ La risposta è che per poterlo fare ti avremmo dovuto dare una piccola dose di dopamina ogni tanto, quando qualcuno metteva un like o commentava una foto o un posto o altro. Così tu avresti creato più contenuti, in modo da ricevere più like e più commenti. È un loop infinito di conferma sociale, esattamente il tipo di cosa che un hacker come me si inventa, per sfruttare le vulnerabilità psicologiche umane. Chi le ha inventate, siamo stati io, Mark [Zuckerberg], Kevin Systrom per Instagram. Sono tutte persone che avevano ben presente quello che stavano facendo. E lo abbiamo fatto lo stesso.”Diversi documenti interni di cui il Wall Street Journal è entrato in possesso nel 2021[35] dimostrano che il team di Meta sapeva degli effetti negativi di Instagram, in particolare sulle ragazze adolescenti, ma che ha sminuto il problema. Vedi anche la Testimonianza di Frances Haugen (l’ex impiegata che ha divulgato i documenti) al Congresso degli Stati Uniti. In seguito alle accuse di Haugen, 33 stati USA hanno fatto causa a Meta, per i suoi ritardi ed inefficienze nella protezione delle persone minorenni, facendo notare che più di metà delle segnalazioni che riguardano utenti minorenni cadono nel vuoto.
Oltre alla salute mentale giovanile, Haugen ha accusato Meta di non stare affrontando in maniera soddisfacente altre problematiche serie e sistemiche, tra cui l’incitamento all’odio, la tratta di esseri umani, la promozione della violenza etnica, il trattamento preferenziale di utenti “VIP”. Meta ammette che sia un problema, ma al di là di alcuni cambiamenti, insiste sulla positività del proprio operato, e non sembra volere cambiare modello di business.
La questione dei VIP è di particolare interesse perché, mentre Meta dichiarava pubblicamente di applicare le regole sul contenuto in maniera uniforme, in realtà la compagnia ha per anni privilegiato una serie di utenti “VIP”, cioè quelli con un seguito mediatico importante (personaggi politici, dello spettacolo, dello sport, ecc.). Per evitare che il contenuto di questi utenti non venga rimosso automaticamente (come succede ad altri utenti), esiste un elenco di “utenti privilegiati”, il cui contenuto è sottoposto ad ulteriori controlli, e quindi rimane visibile per più tempo, se non per sempre. Gli stessi documenti interni di Meta rivelano che questa liste di “privilegiati” ha portato, in totale, a 16 miliardi di visualizzazioni di contenuti che erano in violazione delle norme: parliamo di contenuti violenti, razzismo, hate speech, informazioni false, pornografia non consensuale (revenge porn). Un caso eclatante è stato quello del calciatore Neymar che, accusato di violenza sessuale da una donna, ha mandato un live-stream in cui erano visibili il nome della donna e immagini intime condivise privatamente. Il post è rimasto online e ha ricevuto 50 milioni di visualizzazioni; l’account di Neymar non è stato né bloccato né sospeso, come sarebbe successo ad altre persone (vedi in merito il podcast del Wall Street Journal “The Facebook Files”, prima parte).
Data l’opacità dell’operato delle grandi compagnie digitali, che operano spesso in totale segretezza, è difficile sapere in che misura queste e altre pratiche continuino, ad oggi. Di fatto, senza notizie fatte trapelare da ex-dipendenti, senza indagini giornalistiche o governative (e la pressione legale che creano), è difficile avere un’idea di cosa stia succedendo all’interno di una compagnia come Meta o altre big tech.
Nel corso del tempo Meta-Facebook ha modificato i propri servizi senza informare o coinvolgere adeguatamente la comunità, per esempio rendendo più difficile regolare le impostazioni della privacy o addirittura rimuovendo la possibilità di farlo in alcuni casi, modificando i contenuti che appaiono sul news feed (invece di lasciare agli utenti il controllo su cosa vedono e cosa non vedono), facendo altre modifiche in maniera unilaterale (come ad esempio sostituendo gli indirizzi email degli utenti), e conducendo veri e propri esperimenti psicologici sulle persone a loro insaputa (descritti nel dettaglio più sotto).
Aggiornamento 2 settembre: è trapelato un altro documento interno di Meta, in cui la compagnia dichiara che sia accettabile che i propri chatbot di IA intrattengano conversazioni romantiche o sensuali con bambini e bambine, e che producano contenuti razzisti. Ne parliamo meglio nella sezione “Carewashing“ della quarta parte.
Ci sono poi una serie di questioni specifiche, che nomineremo qui brevemente, senza soffermarci perché ognuna ha le sue complessità, ma è importante almeno nominare alcuni casi, soprattutto quando si tratta dei fallimenti nella protezione dei minori (per ognuno dei casi c’è un link ad una analisi dettagliata, realizzata da After Babel):
Gli enormi problemi di Roblox (un videogioco-piattaforma online) nel proteggere bambinə dall’adescamento online, dai contenuti sessuali, violenti, razzisti e persino dal gioco d’azzardo[36].
Snap Inc, proprietaria di Snapchat, ha per anni ignorato gli usi problematici della piattaforma, nonostante il team di sviluppo ne fosse al corrente, come dimostrano i documenti provenienti dai numerosi casi giudiziari: parliamo di vendita di droghe e armi illegali (negli Stati Uniti), materiale pedopornografico, adescamento, bullismo, aggiramento sistemico del sistema di verifica dell’età.
Un discorso simile vale per Bytedance, proprietaria di TikTok. Parliamo di: uso problematico e compulsivo della piattaforma; depressione ansia e tendenze suicide; contenuti pornografici, violenti e legati all’uso di sostanze; sextortion, pedopornografia, eccesso di contenuti sessualizzati; consapevolezza dell’aggiramento sistemico del proprio sistema del controllo di età. In ognuno di questi campi, è stato dimostrato che Bytedance fosse a conoscenza della severità dei problemi, ma che abbia, volta dopo volta, dimostrato scarsissimo interesse nella protezione dei propri utenti.
Vale la pena anche ricordare, che Google, Microsoft, OpenAI, Palantir e Amazon sono direttamente coinvolte nella fornitura di sistemi informatici (sia infrastrutture cloud che servizi di intelligenza artificiale) ad Israele, non solo per uso civile, ma anche direttamente in uso dalle forze militari, dove l’IA viene usata per individuare i bersagli. Nel 2024, in seguito ad una protesta pacifica organizzata da No Tech for Apartheid, Google ha licenziato 50 impiegatə che vi hanno partecipato, e Microsoft ha licenziato due impiegati, aderenti a No Tech for Apartheid, che avevano organizzato una veglia funebre per le vittime in Palestina dentro al campus Microsoft.
Aggiornamento al 2 settembre: Microsoft ha licenziato altri quattro dipendenti che hanno protestato contro la fornitura di servizi cloud (Azure) ad Israele.
Il gatto “deja vu” in Matrix: accorgersi che è cambiato qualcosa.
“Esperimenti”
Un’altra grossa responsabilità delle piattaforme sono è l’uso di intelligenza artificiale e algoritmi particolarmente complessi nella selezione del contenuto che viene presentato all’utente. Per qualsiasi piattaforma non esiste un singolo algoritmo, ma una serie di algoritmi che, interagendo, definiscono cosa apparirà all’utente. Questi algoritmi sono in perenne evoluzione e costantemente sotto modifica, sia perché i loro risultati cambiano a seconda dei dati raccolti dagli utenti, sia perché le compagnie tecnologiche stesse li aggiornano in continuazione. Per farlo, spesso questi algoritmi vengono sperimentati sulle persone, e questo avviene regolarmente ad insaputa di chi ne fa uso. La metodologia dell’A/B testing è da molto tempo diffusa nel marketing e in altri campi, e anche nell’industria digitale l’uso è pervasivo. Airbnb, Amazon, Booking.com, Facebook, Google, LinkedIn, Lyft, Microsoft, Netflix, Twitter, Uber, Yandex, praticamente chiunque ne fa uso. I test vengono condotti in parallelo: due o più versioni del software operano contemporaneamente, e gli utenti vengono divisi in gruppi; ad ogni gruppo è assegnata una versione diversa. In questo modo è osservabile se e come il comportamento degli utenti cambia, come rispondono ad ogni versione diversa, per poi sceglierne una (a seconda di cosa si sta misurando: le visualizzazioni, gli acquisti, ecc.). Nella maggior parte dei casi gli utenti non sanno di stare usando versioni diverse del software, perché non vengono messe al corrente e non è sempre esplicito (a chi usa il servizio) cosa sta accadendo[37]: l’interfaccia utente potrebbe essere esattamente uguale. Possiamo, in alcuni casi, accorgerci che “qualcosa” è cambiato, ma senza poterlo sapere con certezza, anche perché appunto, il software è comunque in continua evoluzione e, se aggiungiamo che i modelli di IA non sono prevedibili (non da noi, non dagli stessi sviluppatori), allora è molto difficile capire cosa sta cambiando e come. Questo effetto lo ha provato un po’ chiunque abbia usato software che suggeriscono contenuti o prodotti, da Netflix ad Amazon a Youtube.
Di fatto, accettando i termini di servizio delle grandi piattaforme, gli utenti accettano anche di prendere parte a questi esperimenti. Il problema è, tra le altre cose, la natura di questi esperimenti, che potenzialmente possono stravolgere la nostra visione del mondo, e il fatto che milioni (probabilmente miliardi) di persone non sappiano nemmeno di avere accettato di farne parte. Nel 2014 Facebook ha fatto un esperimento su circa 700.000 persone, a loro insaputa, che consisteva nel modificare il news feed delle persone, per poi misurare l’effetto di questo cambiamento osservando i commenti che postavano. Alcuni utenti hanno ricevuto, per un periodo, una quantità maggiore di notizie negative; gli altri, più notizie positive. I risultati ufficiali sono poi stati pubblicati in un paper scientifico[38]. L’altro risultato è stato che molte persone si sono offese (nonostante Facebook avesse diritto, contrattualmente, di farlo), ed è nato un dibattito sulla legittimità di questi esperimenti. Quello che qui vorremmo sottolineare è che questi esperimenti non vengono, molto spesso, fatti per migliorare la vita o l’esperienza di qualcuno. Lo diciamo per l’ennesima volta: Google, Meta e le altre compagnie che possiedono piattaforme digitali derivano la maggior parte dei loro guadagni dalla pubblicità. Quegli esperimenti sono fatti, in ultima istanza, per aumentare i profitti che derivano dalla pubblicità. Anche se l’esperimento è fatto per migliorare la user experience, il motivo ultimo dell’esperimento è migliorare la user experience per attrarre più utenti, in ultima istanza per incrementare il profitto. Visto che non si sta parlando di A/B testing per capire “quale gusto di bevanda frizzante preferisci”, ma di esperimenti che vanno ad influenzare la nostra cognizione della realtà, e visto che una grossa fetta di persone usa i social proprio per informarsi, sarebbe il caso farsi qualche domanda più approfondita per dire se quando questi esperimenti siano etici e quando no[39]; anche in considerazione del fatto che l’A/B testing è regolamentato nel settore della ricerca, ma non nel privato. Oppure forse è chiedersi: se l’eterna modifica e sperimentazione sugli utenti è la prassi diffusa e standardizzata dell’intera industria del digitale, e se il software algoritmico è imprevedibile ed in continua evoluzione, dove inizia e dove finisce l’esperimento?
Ritorniamo un momento sui contratti che regolano i termini di servizio: si tratta di contratti sui quali le aziende esercitano un potere sproporzionato, e sono un altro esempio di irresponsabilità. Le aziende possono modificare in qualsiasi momento i contratti digitali (al contrario di quelli cartacei, che hanno un costo di produzione e distribuzione), facendo modifiche che gli consentono di appropriarsi di benefici a danno degli utenti, modifiche che peraltro non necessariamente vanno a migliorare la qualità del servizio, e che quindi sono interamente a favore dell’azienda. In questo modo i contratti diventano estremamente lunghi e complessi tanto da essere non solo svantaggiosi, ma di essere incomprensibili e non fruibili dai più: nel 2008 “due professori della Carnegie Mellon hanno calcolato che per leggere in modo adeguato tutte le policy sulla privacy che si incontrano in un anno sarebbero necessari 76 giorni lavorativi, con un costo complessivo per la nazione di 781 miliardi di dollari. Oggi questi numeri sarebbero molto più alti.”[40] Nel tempo, l’uso aggressivo di strumenti legali in maniera asimmetrica (cioè quando il potere sta dalla parte dell’azienda) si trasforma, e da un caso isolato diventa un modus operandi diffuso a tutta l’industria che, per competere, adotta tattiche simili, contribuendo ad alimentare una situazione di irresponsabilità diffusa.
La privacy è un ricordo del passato (e prima ci consegnate tutto, meglio è)
Del resto, per quanto riguarda la privacy (che, come abbiamo sottolineato sopra, ha conseguenze ben più importanti del semplice “anonimato”), sembra esserci tutt’ora una corsa al ribasso. Se la storia di Meta è costellata da problemi con la privacy ed il controllo che gli utenti hanno sulla privacy, ad oggi non appaiono segni di cambiamento, visto che le multe relative al regolamento GDPR fioccano: 1,2 miliardi di euro a Meta nel 2023, 746 milioni ad Amazon nel 2021, 405 milioni a Meta nel 2022 (per, ancora una volta, non avere tutelato in maniera adeguata persone minorenni e i loro dati), 390 milioni nel 2025 a Meta, 345 milioni a Tiktok nel 2023 (anche qui per inadeguate tutele verso persone minorenni), e così via… A questo si aggiungono gli enormi investimenti di Meta sugli occhiali smart, dispositivi di realtà aumentata che sono, potenzialmente, un ulteriore problema per la privacy, sia perché possono essere usati in maniera scorretta, sia perché Meta ha già cominciato ad usare i post pubblici di Facebook e Instagram per addestrare la sua IA, e ora userà anche alcune delle foto e dei video realizzati con gli occhiali. La cosa forse che preoccupa di più è l’intenzionalità dietro a tutto ciò, l’idea, promossa a tutti i costi dalle aziende (i Reality Labs di Meta, ad esempio, bruciano miliardi di dollari ogni anno), che questi prodotti siano il futuro, che la privacy sia il passato (vedi Zuckerberg), e chiunque osi lamentarsi è una persona retrograda, nostalgica di valori morti e sepolti.
La questione valoriale non è né banale né scontata, e se osservata con attenzione rivela una narrativa costruita ad arte per fare passare il trinceramento degli interessi privati sotto la guisa di “evoluzione culturale”. Eric Schmidt, ex amministratore delegato di Google, già nel 2010 dichiarava che la vera trasparenza e la totale assenza di anonimato sono il futuro, e non c’è niente che possiamo fare. Visto che la disponibilità in massa delle informazioni migliora la qualità dei servizi (quelli di Google) e permette alla società di combattere meglio comportamenti criminali e anti-sociali (“Se osservo abbastanza a lungo i tuoi messaggi e i tuoi spostamenti, usando l’intelligenza artificiale posso sapere dove andrai la prossima volta”), è inevitabile che queste tecnologie si diffondano, che “i governi le richiedano sempre di più”, e che la sorveglianza tecnologica diventi sempre più una realtà. Quello che dovremmo fare, secondo Schmidt, è semplicemente di adattarci: questo significa anche che se hai qualcosa da nascondere, be’, non dovresti averla, e probabilmente sei un furfante.
Ma, come scrive Zuboff, l’”inevitabilità tecnologica” non esiste, e questo discorso di Schmidt è un classico esempio di distrazione. Schmidt costruisce una narrativa dove le scelte di design che alimentano il modello di profitto dell’industria digitale non vengono presentate come scelte, ma un’evoluzione naturale del mondo tecnologico e di quello sociale, un destino ineluttabile che, secondo i tecnocrati, è ben al di sopra delle nostre opinioni e delle nostre scelte. C’è solo da accettarlo e adeguarsi. Quello che i tecnocrati invece non dicono è che il destino ineluttabile, ovviamente, non si applica alle loro scelte, e che la necessità di “totale trasparenza” non si applica ai loro segreti. Google, su ordine di Schmidt stesso[41], ha speso energie considerevoli per tenere segrete le scoperte sul surplus cognitivo e come sfruttarlo. Inoltre, ad oggi, gli algoritmi di Google (es. quelli che regolano la ricerca) e delle altre grandi piattaforme sono più segreti dei segreti di stato. Il motivo per tutta questa segretezza è, diciamo, “ironico”: mentre il team di Google capiva come trasformare il surplus cognitivo in qualcosa che potesse essere usato per prevedere il comportamento futuro delle persone (per poi venderlo come un prodotto), non poteva certo rivelare la potenza di questo strumento al mondo intero; Google si è quindi limitata ad accennare la potenza di questo strumento quanto bastava, al fine di guadagnarci sopra. Allo stesso tempo, pubblicamente Google sminuiva l’importanza dei dati digitali, descrivendoli come “un rifiuto”, un qualcosa di insignificante e indesiderabile di cui non dovremmo curarci, qualcosa da consegnare all’algoritmo e basta. Rinunciare alla nostra privacy per avere servizi migliori, in questa narrativa, non è che una pura formalità. Si è poi continuato ad abbellire questa visione del mondo con ulteriori perle, utili a costruire un’idea di un mondo tecnologico “responsabile” e capace di auto-regolarsi. Si va dal motto “don’t be evil” alla dichiarazione che, sempre secondo Schmidt, Google “non può essere regolamentata dai governi”, perché i governi si muovono molto più lentamente delle compagnie tecnologiche: il problema sarebbe stato risolto dalla tecnologia stessa. Che i governi siano più lenti dell’evoluzione tecnologica è palese: ma dire che sarà la tecnologia a risolvere i problemi che essa stessa ha creato è tanto illogico e scorretto quanto affermare che il problema degli arsenali nucleari sarà risolto da armi ancora più potenti. È lo stesso vicolo cieco che da decenni paralizza le risoluzioni legate alla crisi climatica: una crisi causata dalla tecnologia, in questa mentalità, può essere risolta solo con un ulteriore eccesso di tecnologia.
Zuboff spiega che non c’è da sorprendersi di questo teatrino, visto che le tecnologie non sono monoliti a sé stanti. Le scelte fatte in materia di tecnologia rappresentano scelte economiche che ci arrivano dai secoli passati con un forte pregiudizio: la tecnologia deve essere messa al servizio del profitto e della crescita economica, e non c’è bisogno di scavare particolarmente a fondo per capirlo. Applicata a dismisura e a qualsiasi dimensione della vita, questa inclinazione alla crescita infinita e al potere assume toni grotteschi, che necessariamente vanno mascherati: altrimenti si dovrebbe ammettere che stiamo creando una società della sorveglianza, non perché lo desideriamo, ma perché è un effetto collaterale della nostra attività economica e della nostra incapacità di smettere di accumulare. Tutto ciò è imbarazzante e, ancora una volta, estremamente irresponsabile, soprattutto quando si costruiscono narrative ad arte per nascondere i propri interessi dietro la facciata del “stiamo costruendo un mondo più connesso e sociale” oppure “stiamo realizzando servizi migliori”, oppure “è inevitabile, andrà così che lo vogliate o no; se non lo facessimo noi, lo farebbe qualcun altro, quindi: tanto vale che vi arrendiate e vi adattiate, e prima è meglio è”. Quello che conta, in particolare, è che attori con un potere comunicativo enorme come le multinazionali, sviluppando questo tipo di narrative, rendono molto più difficile immaginare usi, mercati e possibilità economiche per la tecnologia, diverse e più inclusive di quelle che conosciamo oggi.
In conclusione
Per il momento, ci fermiamo qui, anche se si potrebbe scavare più a fondo: credo che queste considerazioni siano sufficienti per dire che l’irresponsabilità (come caratteristica strutturale delle multinazionali)[42] si applica tanto al settore dell’estrattivismo classico, quanto a quello dell’estrattivismo digitale. Quello che ci interessava sottolineare in questa parte era che:
L’attenzione è una componente fondamentale della consapevolezza umana e la capacità di dirigerla è necessaria per l’autonomia decisionale.
L’economia dell’attenzione e la sua natura estrattivista hanno una storia in cui si inseriscono gli sviluppo tecnologici e metodologici dell’industria digitale.
La raccolta dati e lo sfruttamento del surplus cognitivo non sono “semplicemente” una violazione della privacy, ma un più ampio tentativo di costruire infrastrutture private che interferiscono quotidianamente con la nostra autonomia decisionale.
Gli spazi digitali sono beni comuni, la cui gestione sta venendo sempre più affidata al settore privato. La gestione di questi spazi da parte di attori privati comporta la re-definizione della socialità secondo interessi economici privati.
Le aziende a cui sono affidati questi spazi sono fondamentalmente irresponsabili, al pari di altre aziende che operano secondo modalità estrattiviste in altri settori.
Le dinamiche dell’estrattivismo sono applicabili anche all’industria digitale, nel momento in cui l’attenzione è una risorsa limitata che viene estratta a discapito di chi fa uso dei servizi digitali.
Così come l’estrattivismo classico giustifica il proprio operato attraverso una serie di narrative, così l’industria del digitale ha il suo “socialwashing”, che viene impiegato regolarmente per sviare l’attenzione, accelerare l’estrazionismo, negare le proprie responsabilità, e attribuirsi i meriti dei vantaggi del digitale.
Abbiamo visto come la colonizzazione della socialità umana parte dalla (apparentemente) innocua ridefinizione di “amicizia”, di “connessione”, di “socialità”, di come l’industria spinga sempre di più a farsi mediatrice, tramite i dispositivi e le tecnologie, di qualsiasi cosa, relazione, esperienza umana. L’importante è imbrigliare e tramutare qualsiasi processo umano in una fonte di profitto, poco importa se questo contribuisce alla saturazione e alla degradazione dell’attenzione umana, all’aumento delle disuguaglianze, e non contribuisce per niente alla costruzione dell’ecosistema digitale come un bene comune.
In tutto questo, non abbiamo parlato di alcuni temi importanti, della polarizzazione e delle notizie false (entrambi meriterebbero un loro spazio), e nemmeno dell’intelligenza artificiale in maniera approfondita. Ma l’idea di questa lettera è anche che non serve spingersi a parlare del futuro dell’intelligenza artificiale per capire che il problema inizia ben prima: abbiamo affidato strumenti fondamentali e delicatissimi a compagnie che hanno così poco a cuore la sicurezza dei propri utenti, e che invece fanno di tutto per la propria espansione ed il proprio tornaconto. L’industria del digitale ripete su “terreni” inesplorati la storia dell’estrattivismo, e se le tecniche sono nuove, le scuse e le giustificazioni per arrogarsi il potere e agire al di sopra dei governi le abbiamo già viste. Per questo motivo sarebbe sbagliato indicare l’industria digitale come particolarmente vorace o maligna, e sarebbe invece utile indagare le circostanze generali che portano le società, volta dopo volta, a non riuscire a trovare un equilibrio più sano nei patti sociali che riguardano tecnologie tanto utili quanto potenzialmente distruttive: dal nucleare, alla chimica industriale, al digitale, ai combustibili fossili, e così via. Per indagare questa mancanza di equilibrio c’è un concetto utile, che merita di essere preso in considerazione: la cura.
Continua nella quarta parte.
[1] https://enricia.altervista.org/Versioni/Fedro.htm
[2] Timothy Aylsworth e Clinton Castro, Kantian Ethics and the Attention Economy: Duty and Distraction (Palgrave Macmillan, 2024), 73–74; Georg Franck, Vanity Fairs: Another View of the Economy of Attention (Springer International Publishing, 2020), 4, https://doi.org/10.1007/978-3-030-41532-7.
[3] Sean Lane e Paul Atchley, eds., Human Capacity in the Attention Economy (American Psychological Association, 2021), 15, https://www.jstor.org/stable/j.ctv1chs39c.
[4] Md. Kamrul Hasan, «Digital multitasking and hyperactivity: unveiling the hidden costs to brain health», Annals of Medicine and Surgery 86, fasc. 11 (2024): 6371–73, https://doi.org/10.1097/MS9.0000000000002576.
[5] “Television Delivers People”, Richard Serra, Carlota Fay Schoolman, 1973; https://web.archive.org/web/20180816160913/http://www2.nau.edu/~d-ctel/mediaPlayer/artPlayer/courses/ART300/pov1_ch1/transcript.htm
[6] Jaron Lanier, Ten Arguments for Deleting Your Social Media Accounts Right Now (Henry Holt and Co., 2018), sez. Digitally imposed social numbness.
[7] Peter Doran, A Political Economy of Attention, Mindfulness and Consumerism: Reclaiming the Mindful Commons (Routledge, 2017), Towards a mindful commons.
[8] Franck, Vanity Fairs, 5.
[9] George Monbiot, Riprendere il controllo. Nuove comunità per una nuova politica, trad. da Gianni Pannofino (Treccani, 2019), Alienazione.
[10] Guy Debord, La società dello spettacolo (Massari Editore, 2002), cap. 1.
[11] Erica Chenoweth, Civil Resistance: What Everyone Needs to Know (Oxford University Press, 2021), sez. What are “parallel institutions”?
[12] Tim Wu, The Attention Merchants: The Epic Scramble to Get Inside Our Heads (Knopf, 2016), cap. 1.
[13] Shoshana Zuboff, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, trad. da Paolo Bassotti (Luiss University Press, 2023), La scoperta del surplus comportamentale.
[14] Shoshana Zuboff, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri.
[15] Shoshana Zuboff, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Introduzione.
[16] Shoshana Zuboff, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Introduzione.
[17] Taina Bucher, If...Then: Algorithmic Power and Politics (Oxford University Press, 2018), cap. Neither black nor box.
[18] Debord, La società dello spettacolo, par. 24.
[19] Alberto Acosta, «Extractivism and neoextractivism: two sides of the same curse», in Beyond Development: Alternative Visions from Latin America (Transnational Institute / Rosa Luxemburg Foundation, 2013), 62–63.
[20] Sarah Wynn-Williams, Careless People: A Cautionary Tale of Power, Greed, and Lost Idealism (Flatiron Books, 2025), cap. 8. Running out of road.
[21] Christopher Wylie, Mindf*ck: Cambridge Analytica and the Plot to Break America (Random House, 2019).
[22] Michael J. Watts, Petro-Violence: Some Thoughts on Community, Extraction, and Political Ecology, 24 settembre 1999, https://escholarship.org/uc/item/7zh116zd.
[23] Alberto Acosta, «Extractivism and neoextractivism: two sides of the same curse», 79.
[24] Rhys Jenkins, Transnational Corporations and Uneven Development (RLE International Business): The Internationalization of Capital and the Third World (Routledge, 2013), The significance of the transnational corporation in the world economy.
[25] Steve Tombs e David Whyte, The Corporate Criminal: Why Corporations Must Be Abolished (Routledge, 2015).
[26] Sarah Joseph, Blame it on the WTO?: A Human Rights Critique (OUP Oxford, 2011), sez. C. A closer look at Economic, Social, and Cultural rights; vedi anche Antony Anghie, Imperialism, Sovereignty and the Making of International Law (Cambridge University Press, 2005).
[27] I casi contro le multinazionali sono numerosi, ma si tratta nella maggior parte di casi nazionali, o contro specifici individui ritenuti responsabili. Quello che manca a livello internazionale è un tribunale che abbia l’autorità di perseguire legalmente le aziende multinazionali in qualità di entità legali: “Se i tribunali ritenessero le aziende responsabili, ciò equivarrebbe a riconoscere che tali crimini vanno oltre le decisioni o le omissioni di pochi individui. Si tratta piuttosto del risultato di un intero sistema che trae profitto o consente la commissione di crimini internazionali. Pertanto, la responsabilità penale delle aziende affronta le circostanze di questi crimini in modo più adeguato rispetto alla responsabilità individuale.” (da Just Security). La Corte penale internazionale (International Criminal Court, ICC), in funzione dal 2002, ha storicamente escluso le entità legali dal suo operato, ma è possibile che in futuro questa decisione cambi. Vedi anche nota seguente e Sliedregt, Elies van. «The Future of International Criminal Justice is Corporate». Journal of International Criminal Justice, 16 marzo 2025. https://doi.org/10.1093/jicj/mqaf004. Per una analisi più approfondita del problema della responsabilità individuale e della responsabilità collettiva nel contesto delle aziende multinazionali, vedi Brent Fisse e John Braithwaite, Corporations, Crime and Accountability (Cambridge University Press, 1993).
[28] Maya Steinitz, The Case for an International Court of Civil Justice (Cambridge University Press, 2018), The case of the missing forum.
[29] Alberto Acosta, «Extractivism and neoextractivism: two sides of the same curse», 62.
[30] William Davies, Nervous States: How Feeling Took Over the World (Jonathan Cape Penguin Random House UK, 2018), 7. War of words.
[31] Ivan Illich, La convivialità. Una proposta libertaria per una politica dei limiti allo sviluppo (Red Edizioni, 2013).
[32] Tombs e Whyte, The Corporate Criminal, cap. 4.
[33] https://www.ftc.gov/news-events/news/press-releases/2011/11/facebook-settles-ftc-charges-it-deceived-consumers-failing-keep-privacy-promises
[34] Il fatto Cambridge Analytica è un caso complesso e qui ne diamo un resoconto estremamente stringato. Per approfondire, al di là dei numerosi articoli della stampa, c’è un resoconto, sicuramente parziale ma dettagliato, nel libro di Christopher Wylie, l’informatore che ha fatto partire il caso, “Il mercato del consenso. Come ho creato e poi distrutto Cambridge Analytica”, Longanesi 2020.
[35] I documenti sono reperibili qui, qui e qui.
[36] Roblox è un gioco-piattaforma, che permette alle persone di creare delle aree virtuali e di programmarne l’aspetto e le regole. La varietà di contenuti e di mini-giochi creati dagli utenti è enorme, e ogni gioco, a parte quelli “per tutti”, ha un limite minimo di età. Tuttavia, queste restrizioni non funzionano come dovrebbero, vedi:
[37] Bucher, If...Then, 49.
[38] Adam D. I. Kramer et al., «Experimental evidence of massive-scale emotional contagion through social networks», Proceedings of the National Academy of Sciences 111, fasc. 24 (2014): 8788–90, https://doi.org/10.1073/pnas.1320040111.
[39] Andrea Polonioli et al., «The Ethics of Online Controlled Experiments (A/B Testing)», Minds and Machines 33, fasc. 4 (2023): 667–93, https://doi.org/10.1007/s11023-023-09644-y.
[40] Shoshana Zuboff, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, cap. 2.
[41] Shoshana Zuboff, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, cap. 3.
[42] Tombs e Whyte, The Corporate Criminal.



