Meredith Broussard

I computer non capiscono il mondo

Una guida ironica e profonda ci rivela i limiti e i pregiudizi dell’intelligenza artificiale e sfata, una volta per tutte, il mito ingannevole della febbre tecnologica.

di Marco Morello

Un’intervista dedicata alla fallibilità nel mondo hi-tech non poteva iniziare in maniera più coerente: con un mezzo fallimento tecnico. Meredith Broussard si presenta puntualissima all’appuntamento su Google Meet, alle 18 ora italiana, mezzogiorno di New York. La voce arriva nitida, ma il video non c’è, lo schermo appare desolatamente nero. La si sente trafficare in maniera nervosa con i tasti, staccare e collegare fili, sistemare una webcam: «Ho un piano b», dice intanto frettolosa e spazientita. Passa un minuto, eccola comparire. Non tutta, una mezza sagoma sfocata, un fascio di capelli ricci e un pezzo di fronte pixelato.
Sembra uno scherzo, però l’imbarazzo cresce: «Mi vedi, almeno in parte?», chiede serissima. «Più o meno», rispondo. È allora che lei aggiunge, più sconsolata che incredula: «Il problema è che ora sono io a non vedere te. Fammi provare a sistemare un paio di impostazioni. Uno dei temi del mio libro è che la tecnologia funziona di rado, o male, proprio quando ne abbiamo più bisogno. Questa è l’ennesima riprova».
Il saggio in questione s’intitola Artificial Unintelligence (vedi box a fianco) e si concentra sull’incapacità dei computer di comprendere davvero il mondo. Stempera e smonta l’entusiasmo intorno a concetti sacri, o quasi, come i prodigi del machine learning, l’acutezza “dell’internet delle cose”, l’onnipotenza taumaturgica dell’etichetta smart applicata un po’ dove conviene. La sua autrice, finalmente visibile e udibile in una qualità accettabile, è stata una sviluppatrice di software per alcuni dei più quotati laboratori d’innovazione globali, prima di decidere di cambiare vita: «Lo stipendio era incredibilmente più alto di adesso, ma il razzismo e il sessismo che ho dovuto sopportare erano troppo per me», confida a un certo punto. Così, è diventata una data journalist: scrive di fatti supportati dalle evidenze dei numeri. È professore associato all’Arthur L. Carter Journalism Institute della New York University, direttore di ricerca della NYU Alliance for public interest technology, e soprattutto è una delle più quotate divulgatrici internazionali dei limiti palesi dell’intelligenza artificiale. Una consapevolezza che ha sviluppato sin dall’infanzia: il suo libro si apre con un aneddoto, la storia di un robot che aveva costruito con grande entusiasmo. Ma che, da acceso, rimaneva muto, inerme, immobile: era guasto, come una delle sue webcam.
«Sin da piccola», spiega, «mi era stato descritto un mondo digitale dorato in cui tutto sarebbe filato liscio. A un certo punto, mi sono accorta che avevo trascorso buona parte della mia vita adulta ad ascoltare queste promesse, ma non si realizzavano mai. Allora ho iniziato a studiare, a informarmi, ad approfondire, a tentare di capirne la ragione».
The Good Life: E cosa ha scoperto?
Meredith Broussard: Che la visione del presente e dell’avvenire della tecnologia è frutto di un pregiudizio generale. Di quello che io chiamo “tecnosciovinismo”. È una presunzione di superiorità, la convinzione che i computer siano in grado di risolvere qualunque problema. Io rispondo che invece dovremmo pensare, di volta in volta, a quale sia lo strumento adatto al compito che si vuole svolgere.
TGL: Il suo libro contiene un giudizio di valore, un ribaltamento. Ha un titolo privativo: spoglia l’artificialità dell’intelligenza che gli viene comunemente attribuita. Non è stupida, è non-intelligente.
M.B.: La gente ritiene che una macchina possa aspirare a livelli umani di pensiero, che sappia ragionare come una persona. Non è possibile, l’unico modo per replicare l’intelligenza è concepire un bambino. Siamo stati condizionati da Hollywood, il nostro immaginario è viziato da Terminator, da Star Wars, dai robot assassini. È divertente, affascinante, spaventoso, totalmente inventato. In senso stretto, l’AI è solo matematica. Complicata e intricata matematica. Non avremo mai nient’altro, sarà deludente, però ritengo fondamentale rimanere aderenti alla realtà.
TGL: Questa matematica è intrisa d’umanità, di pregiudizi e preconcetti, come racconta in più di un capitolo. È frutto di una visione, per cominciare, tutta al maschile. D’altronde, meno del 20% degli studenti di materie scientifiche, ancora oggi, è donna.
M.B.: Una delle criticità di far costruire la tecnologia a squadre omogenee di ricercatori è che sviluppano zone d’ombra collettive. Fomentano discriminazioni inconsapevoli. E come si fa a combatterle, se nessuno se ne accorge? Perciò le si trasmette, le si infonde al programma che si sta sviluppando. Non c’è intenzionalità, nessuno vorrebbe realizzare di proposito software razzisti o sessisti, però quasi mai si alzano voci dissonanti, che contestino la problematicità di alcuni processi.
TGL: Le conseguenze sono note, la casistica è variegata nella cronaca recente. Si va dal riconoscimento facciale inadeguato per i volti di nazionalità asiatica o africana, agli uomini bianchi preferiti dagli algoritmi nella ricerca di personale, fino alle persone di colore ritenute più inclini a commettere crimini. Al di là della denuncia di queste storture, come si potrebbero raddrizzare?
M.B.: In ambito giornalistico comincia a nascere una nuova figura, il cosiddetto lettore sensibile. Una persona assunta per controllare il contenuto di un articolo e accertarsi che non presenti passaggi controversi. Non è una revisione, né un fact-checking: è una verifica attiva di merito. Come approdo, per esempio, spinge a ritornare da un intervistato e chiedergli quali sono i pronomi più adatti per descriverlo, prima di presentarlo ai lettori. È uno sforzo che si riflette in un apprendimento per l’autore e per il suo pubblico, l’affinamento di una cura. Ritengo che una procedura simile possa essere applicata ai dati che nutrono l’intelligenza artificiale.
TGL: A prescindere dalle prospettive, l’ostacolo è vecchio, il tema rimane radicato e noto. Com’è possibile che non siano stati fatti passi in avanti?
M.B.: La narrazione classica intorno alla tecnologia è che sia frenetica, cambi rapidamente, evolva in tutta fretta. Tale idea esercita un grande fascino. La realtà è che la tecnologia odierna discende dai primi scienziati informatici che istruirono i computer negli Anni 50 e 60. Erano un’élite accademica, si portavano addosso pregiudizi vecchi di centinaia d’anni. Un’eredità riversata nelle macchine, un bagaglio strutturale ineludibile. Non dimentichiamo che la conoscenza procede per accumulazione. Soluzioni nuove come il riconoscimento facciale sono costruite su altre più rudimentali di machine vision.
TGL: Così non sembra esserci una via d’uscita.
M.B.: L’intelligenza artificiale è nutrita dai dati, è figlia delle rappresentazioni scolpite al loro interno. Le sue predizioni partono da quelle fondamenta. Se il modello di riferimento resta il mondo nel quale viviamo, ne verranno replicati i problemi sociali. Direi che non è questa la direzione giusta, in grado di farci raggiungere un cambiamento sociale positivo.
TGL: Come riorienterebbe la bussola?
M.B.: L’opinione pubblica trova parecchio scomodo il concetto di non usare affatto la tecnologia in determinati ambiti, di escluderla o regolamentarla molto di più di quanto facciamo adesso. Per lungo tempo, è stata portata avanti l’idea che la Silicon Valley si sarebbe governata da sola. Ne ha avuto la possibilità, ha fallito, ha dimostrato di essere guidata da mero interesse. Non basta ribellarsi: andarsene da Facebook o utilizzarlo con parsimonia, nemmeno girare con un ombrello aperto per le città per ingannare le telecamere e i software di riconoscimento facciale. C’è bisogno di leggi, di norme adatte a proteggere le persone.
TGL: Nel suo libro propone un ulteriore metodo risolutivo: lo “human in the loop”. Suggerisce di affiancare un decisore in carne e ossa a una macchina. È l’opposto della direzione tipica dell’AI, che marginalizza il ruolo dell’uomo fino a escluderlo. Se è impensabile spegnere la tecnologia, si può tentare di sorvegliarla a dovere?
M.B.: Mi viene in mente un film di Charlie Chaplin, in cui un uomo viene nutrito da una macchina così non deve smettere di lavorare nemmeno per mangiare. Funziona davvero male, è esilarante e inquietante. È anche una metafora potente della deriva dell’automazione. Non si può impostare un meccanismo e lasciarlo andare, dimenticarsene per sempre. Specie per incarichi delicati come la costruzione di un modello che stabilisca a chi concedere un mutuo per comprare una casa e a chi no. Senza un essere umano nel circuito che prenda decisioni coerenti con i valori sociali di oggi, sosterremmo gli effetti di secoli di segregazione razziale in Europa, gli espropri della proprietà privata e altre iniquità impresse nei dati.
TGL: La sua è un’indagine che non si ferma, sarà il tema al centro del suo prossimo libro?
M.B.: Dovrebbe essere pronto nel 2022, s’intitolerà More than a glitch. Cercherà di spiegare tutto ciò: come arrivare a un’Ai che sia antirazzista, accessibile e utile a tutti.
TGL: In Oriente, in particolare in Cina, l’intelligenza artificiale viene usata per la sorveglianza di massa. In Occidente, perlopiù al fine di perpetrare e rafforzare il modello capitalistico: per mostrare inserzioni pubblicitarie personalizzate a ogni utente o per indurlo a cadere nei vizi verso i quali è predisposto. Nel documentario Coded Bias, in cui anche lei è tra i protagonisti, si mostra come l’Ai sappia riconoscere i comportamenti tipici di un potenziale giocatore d’azzardo e, diciamo così, indurlo in tentazione mostrandogli banner e siti ad hoc.
M.B.: Sul punto ho un’opinione molto sintetica. La pubblicità online è una frode. Implica uno spreco di miliardi di dollari, ha forti impatti ambientali legati alla costruzione di computer dedicati a questo scopo. Ed è, per giunta, facilmente manipolabile: si può far credere agli investitori che il pubblico stia guardando le loro inserzioni, quando invece non è vero.
TGL: Qual è stato l’impatto della pandemia? Come ha cambiato la percezione verso la tecnologia? L’impressione è che l’abbia esaltata ancora di più, che il tecnosciovinismo abbia guadagnato consensi e proseliti.
M.B.: Il tempo che verrà sarà tutto da riscrivere, da ridefinire. Spero la smetteremo di comportarci come stiamo facendo ora. All’inizio sentivo ragazzi affermare di non volere mai più tornare a scuola di persona, lavoratori sostenere che le videoconferenze siano l’unico domani possibile. Mi auguro sapremo non cadere nell’eccesso e mantenere il buono. Un auspicio sensato è che non sarà più necessario fare viaggi Oltreoceano per una riunione di un’ora. In generale, è innegabile che la gente voglia stare insieme, che ne abbia bisogno. Abbiamo vissuto in un mondo alla Ready Player One, in cui qualunque interazione si riduce all’online, la spesa arriva alla nostra porta, sempre se abbiamo abbastanza soldi per potercelo permettere, e abitiamo in grandi centri urbani. Mantenere in piedi questo futuro è una visione che, semplicemente, fa schifo. La tecnologia va costruita su altri presupposti, può essere di sostegno a un modo di vivere in cui tutti possiamo interagire anche di persona, pacificamente, senza conflitti.
TGL: Nonostante tutti gli ostacoli, le difficoltà, le disuguaglianze, le tare ineliminabili perché costitutive dell’intelligenza artificiale che ha raccontato fin qui, riesce ancora a essere possibilista?
M.B.: Vorrei che le persone approcciassero la tecnologia in maniera responsabile, che non ne fossero intimidite o sopraffatte. Se un distretto scolastico propone di usare il riconoscimento facciale negli istituti, è necessario dire di no, evidenziare che è una pessima idea. Se la polizia dichiara di voler spendere centinaia di migliaia di dollari per comprare cani robot, la gente deve esprimere il suo disappunto, protestare, denunciare lo spreco di denaro pubblico. Il progresso non è qualcosa che accade, non è un evento da subire. Bisogna fare propria la consapevolezza di avere sempre voce in capitolo.