L’Europa sull’intelligenza artificiale non sta facendo abbastanza
Il 21 Aprile 2021 la Commissione Europea ha presentato una bozza di regolamentazione per l’utilizzo dei sistemi di intelligenza artificiale (AI). La proposta è fresca e sebbene le intelligenze artificiali sono già in mezzo, passeranno un paio d’anni prima che il progetto venga approvato dal Parlamento Europeo e da tutti gli stati membri. Nel frattempo, la proposta indica e mette a fuoco tutti gli usi consentiti e proibiti delle AI. Si tratta fino a qui di un’opera mastodontica e molto attesa all’interno del contesto europeo perché parla di un settore in piena espansione ma dai caratteri ancora sfumati e limiti non chiari. I nuovi dispositivi e la ricercatezza tecnologica avanzano senza sosta, dai filtri contro le email indesiderate ai sistemi di prenotazione e assistenza online, fino all’ambito sterminato degli algoritmi, delle previsioni digitali, della guida autonoma dei veicoli e dei dispositivi medici-intelligenti.
Il regolamento proposto da Margrethe Vestager – commissaria europea per l’Agenda Digitale -, identifica diversi livelli di rischio in cui le aziende e chiunque usufruisca dei servizi di intelligenza artificiale possono incappare, e segnala quali comportamenti e strategie bisogna adottare per evitare di incorrere in multe e sanzioni per mancato rispetto della privacy. Questa bozza di 108 pagine, insieme ai progetti legislativi Digital Services Act e Digital Markets Act, completa un tentativo di garantire “l’eticità” della tecnologia e di preservare la competitività delle imprese. L’obiettivo è quello di garantire in qualche modo i valori dei consumatori, ma anche usare le tecnologie nella sanità, nell’energia pulita, nei trasporti, nell’agricoltura, nel turismo e nella cyber-sicurezza.
Sotto alcuni aspetti, questo documento limita molto il libero arbitrio in termini di controllo di massa, pratica che invece già viene predisposta e incoraggiata dai governi stessi attraverso le AI (basti pensare al “social credit system” adottato in Cina). La Commissione si oppone ai modelli di sorveglianza di massa e nella bozza si schiera contraria anche al riconoscimento facciale ma, nella realtà, contiene molti punti dove non mancano deroghe ed eccezioni. Si ipotizza infatti che il riconoscimento dei volti sia consentito quando si tratta di sicurezza nazionale. Su chi o che cosa venga però considerato di sicurezza per le singole nazioni, la Commissione non si dilunga.
Le tecnologie intelligenti vengono già usate da diversi paesi nelle più disparate situazioni, dai sistemi di informazione territoriale al controllo delle situazioni di disordine. L’ingegneria biometrica già collabora con le forze di polizia, monitora e prevede gli spostamenti della folla durante le manifestazioni.
Si muovono infatti le prime critiche dei parlamentari europei che vedono in questo progetto troppa affinità con la vigilanza e un ampio margine di movimento per i governi, a discapito invece delle aziende che, se dovessero sottostare al documento, si vedrebbero pesantemente svantaggiate rispetto ai competitors cinesi e statunitensi le cui intelligenze artificiali operano già da anni, oltretutto senza un rigoroso diktat che preserva l’integrità e l’etica della tecnologia.
Nella sostanza, l’ambizione della Commissione Europea di vietare le pratiche da Grande Fratello, ma che in qualche modo le lascia passare attraverso la pratica del silenzio-assenso: le linee guida appaiono assertive ma traboccanti di contraddizioni e le polemiche non tarderanno ad arrivare.