Ogni qual volta ci si trova di fronte a titoli come “La tecnologia sta prendendo il controllo” oppure “I robot ci rubano il lavoro” si può essere sicuri che i proclami sconclusionati supereranno l’analisi approfondita. Provare a capire è complicato: nei dettagli, talvolta, ci si perde. E bisogna ricominciare tutto daccapo. È per questo motivo che vincono le semplificazioni. Anche se sbagliate.

Tuttavia, almeno questa volta vorrei prendermi il rischio di fare una semplificazione. Ed è la seguente: i sistemi di riconoscimento facciale rappresentano una minaccia ancora sottovalutata per le libertà individuali e per la privacy. Potrebbero rappresentare la ciliegina sulla torta dell’impianto di controllo che ci siamo costruiti attorno a colpi di veloci approvazioni di termini di servizio, che nessuno si prende mai la briga di leggere. Il futuro sta scivolando verso un crinale distopico e sono convinto che lo sviluppo di tecnologie come quelle finalizzate alla facial recognition siano il modo perfetto di portarci velocemente proprio laddove non vorremmo andare. Sarà che ho letto moltissima fantascienza, un genere che sulle conseguenze negative della tecnologia ci ha speculato fin dagli albori, ma intendo queste righe come un onesto e sincero avvertimento.

In gran parte la responsabilità è delle persone e non delle invenzioni. Eppure, ci siamo affidati alla cieca a sistemi e piattaforme che alla fine sono solo aziende che fanno gli interessi degli investitori. In un contesto come quello attuale, Google o Facebook sono entità che rendono effettivamente la vita più facile a miliardi di persone, una cifra che si fa fatica pure a immaginare. Un governo non può manipolare direttamente Google o Facebook. Ma se un governo autoritario disposto all’uso della forza volesse utilizzarli a proprio vantaggio, potrebbe in qualche modo obbligarli? Sembra assurdo chiederselo, ma almeno in alcune parti del mondo succede già qualcosa di analogo, seppur con le dovute differenze.

RINCORRERE LA CINA NEL FUTURO SBAGLIATO
Nell’articolo “Il futuro distopico della Cina”, avevo provato ad analizzare alcune specificità cinesi e la fuga della più popolosa nazione del mondo verso una particolare direzione di progetto tecnologico. Nel paese del Dragone, la censura del governo nei social network è una realtà accettata con cui la maggioranza delle persone convive tranquillamente, se così si può dire. Pensare che da noi non potrà essere mai e poi mai possibile è da ingenui. Provare a figurarsi il worst case scenario è un buon modo per evitarlo.

La Cina si sta indubbiamente muovendo verso il futuro con idee più chiare rispetto ai vecchi e arrugginiti USA ed Europa. In Cina fanno piani di decenni, in Italia è difficile vedere più in là di qualche mese. Se esiste uno svantaggio competitivo è questo. Non voglio dare giudizi di valore sul modello-Cina. Non sono un sinologo. Né mi interessa decidere chi è messo peggio o messo meglio tra Europa e Stati Uniti, nell’acchiappare le opportunità del futuro, schivandone i rischi e i tiri mancini. Voglio concentrarmi sul ruolo del riconoscimento facciale, che è pericoloso per tutti gli attori in gioco.

Scuole, edifici pubblici, luoghi che ospitano eventi e concerti, per non dire le aziende private dove molti di noi lavorano, sono sottoposti a un regime tecnologico sconosciuto al passato. In parte ciò è auspicabile per ragioni di sicurezza e comodo per ragioni di praticità, ma non è ben chiara l’entità di ciò che stiamo scambiando. Il nostro atteggiamento nei confronti della tecnologia è, a tratti, disarmante. Le piazze reali e quelle virtuali e gli spazi comuni, anche a livello metaforico e simbolico, sono stati erosi. Negli spazi pubblici ormai ci muoviamo come se fossero privati: fino a pochi anni fa il fatto di essere potenzialmente sorvegliati da strumenti di controllo che in un millisecondo confrontano il nostro volto con database di persone sospette sembrava pura fantascienza, oggi siamo sul punto di accettarlo con una scrollata di spalle.

LA REALTÀ VA PIÙ VELOCE DELLA FANTASCIENZA
La complessità della tecnologia informatica contemporanea nel senso ingegneristico del termine non è una scusa per non riflettere sulle conseguenze sociali della tecnologia. A fare ipotesi sul futuro si rischia di essere meno affidabili dell’oroscopo, ma da qualche parte si dovrà pur cominciare a immaginarselo, questo maledetto futuro. A partire da quello che c’è: per capire dove è bene andare e quali invece possano essere le traiettorie più pericolose. A partire dai dati a nostra disposizione.

Quasi 1,5 miliardi di smartphone sono stati venduti agli utenti nel 2016, con un aumento da meno di 300 milioni di unità nel 2010. Significa che già nel 2017 un terzo della popolazione mondiale aveva a disposizione uno strumento in grado di connettersi al web. Vuol dire che sempre più persone hanno degli account mail, bancari, sui social network. Legare tutte queste informazioni a una geolocalizzazione precisa e a un volto univoco che può essere ricercato non in un database, ma mentre passeggia nel mondo reale, è qualcosa dalle conseguenze inimmaginabili.
Concediamo pezzi delle nostre vite ad aziende private estere attraverso informazioni su di noi, i nostri gusti, il nostro network, i nostri spostamenti che mai e poi mai concederemmo a qualche ente statale come, per fare qualche esempio, un database della polizia o l’agenzia delle entrate. Ci fidiamo così tanto o ci stiamo facendo fregare?

UN SOFWARE PERICOLOSO

Amazon è tra le aziende più all’avanguardia in fatto di riconoscimento facciale. Tra i suoi prodotti B2B, ovvero quelli destinati alle altre aziende, c’è Amazon Rekognition. Il software serve per «l’analisi intelligente di immagini e di video per applicazioni». È presente sul mercato dal 2016 ed è stato utilizzato dai dipartimenti di polizia in Florida e Oregon.
Rekognition utilizza il deep learning, ovvero una tecnica di intelligenza artificiale per la ricerca di modelli (pattern) nei dati, per identificare oggetti come alberi, biciclette, giraffe o volti sia in immagini statiche sia da una sorgente video. Potrebbe essere usato per scansionare le facce delle persone che entrano in un tribunale in tempo reale per vedere se si trovano in un database di individui sospetti.

Gli stessi azionisti e investitori di Amazon stanno sollecitando la società a sospendere le vendite del suo software di riconoscimento facciale alle agenzie governative per timore che la tecnologia possa essere utilizzata per violare i diritti delle persone.

Un gruppo di azionisti di Amazon, coordinato da Open MIC, un’organizzazione no-profit che incoraggia l’attivismo da parte degli investitori nelle società di tecnologia e media, ha presentato a gennaio 2019 una risoluzione chiamata Risks of Sales of Facial Recognition Software. In essa il gruppo di azionisti ha chiesto al consiglio di amministrazione di Amazon di smettere di vendere Rekognition ai governi finché una valutazione indipendente certifichi che la tecnologia non violi nei fatti o potenzialmente diritti civili e diritti umani.

Da sottolineare, per completezza di informazione, che Amazon non utilizza sistemi di riconoscimento facciale nei suoi avveniristici negozi senza cassa, Amazon Go. In questi punti vendita fisici verrebbe, infatti, utilizzata una combinazione di intelligenza artificiale, visione artificiale e dati estratti da centinaia di telecamere e sensori sparsi per il negozio per fare in modo che i clienti paghino solo per le cose che prendono dagli scaffali e che portano via. Le telecamere seguono i clienti senza perderli mai di vista per tutto il negozio, ma li identificano in quanto loggati via applicazione scaricabile su smartphone e non perché ne riconoscono le fattezze.

MICROSOFT CHIEDE PIÙ REGOLAMENTAZIONE
Microsoft ha colto la palla al balzo a livello di PR e richiede una maggiore regolamentazione nel campo dei sistemi per il riconoscimento facciale. Durante l’ultimo Forum economico mondiale tenutosi a Davos, il CEO di Microsoft Satya Nadella ha richiamato nel suo intervento più attenzione verso la privacy, dicendo ai partecipanti che gli Stati Uniti hanno bisogno della propria versione della GDPR europea. È stato anche particolarmente esplicito riguardo alla tecnologia di riconoscimento facciale definendola molto preoccupante la mancanza di regolamentazioni e normative.

Oltre al riconoscimento facciale, molte altre organizzazioni hanno iniziato ad avere dubbi su come trattare le proprie ricerche in ambito di Intelligenza Artificiale e Machine Learning. Non si tratta ormai solo di sospetti da complottisti, ma di veri e propri dilemmi etici che i ricercatori non si sentono né in diritto né in grado di risolvere. OpenAI, la no-profit fondata da Elon Musk per limitare gli effetti negativi dell’Intelligenza Artificiale, ha iniziato a dubitare se continuare a pubblicare le proprie ricerche come fatto fino a poco tempo fa. Cresce, infatti, la preoccupazione per le implicazioni etiche dei progressi della tecnologia.

Anche Google ha deciso che non è più appropriato pubblicare così alla leggera nuovi risultati e codice di programmazione opensource per ogni ricerca sull’AI. I limiti alla libera circolazione di informazioni sono dunque causati dai sempre più crescenti timori di un uso improprio. Come già fatto da Microsoft, Google ha aggiunto ai suoi dettagliati report finanziari anche alcune considerazioni che avvertono gli investitori che i software che utilizzano l’Intelligenza Artificiale potrebbero per propria natura sollevare preoccupazioni etiche con possibili ripercussioni a livello di business.

Intanto, sempre grazie all’AI, attraverso il sito thispersondoesnotexist.com è possibile generare volti realistici che non appartengono a nessuna persona reale attraverso un click. Per malintenzionati e truffatori, non diventa neanche più necessario rubare volti a utenti in carne e ossa, è sufficiente generare copie senza originale, ma comunque verosimili per gli standard di bassa definizione di alcuni utilizzi della rete.

Comments are closed.

Questo sito utilizza cookie propri e di terze parti, questi ultimi per fornire ulteriori funzionalità agli utenti, quali social plugin e anche per inviare pubblicità personalizzata. Cliccando su (Accetto), oppure navigando il sito acconsenti all’uso dei cookie. Per negare il consenso o saperne di più
Leggi informativa privacy