Riconoscimento facciale ed etica digitale
Trovare foto di una persona online è sempre più semplice: basta digitare il nome desiderato nella barra di ricerca Google per accorgersi che molte immagini “private” sono in realtà di dominio pubblico. Se da un lato i social network sono utili alle persone che vogliono entrare in contatto, dall’altro possono essere un pericolo per la privacy. Quando gli utenti decidono di iscriversi a un social network gli cedono, nella stragrande maggioranza dei casi, inconsapevolmente i propri dati, tra cui le foto. Ciò avviene perché gli utenti, spesso, accettano le condizioni contrattuali senza leggerle con attenzione, ma sappiamo davvero dove finiscono le nostre immagini? Una tecnica diffusa e che suscita perplessità nell’opinione pubblica, proprio per i rischi di violazione della privacy e dei diritti dei cittadini, è quella del riconoscimento facciale online. Si tratta di una tecnologia di intelligenza artificiale capace di identificare una persona a partire da foto estratte dai social network e dal Web.
Riconoscimento facciale per motivi di sicurezza: il caso Clearview
Il riconoscimento facciale viene utilizzato anche dalle forze dell’ordine a fini investigativi laddove occorra individuare il colpevole di un reato. A tal proposito si può citare il caso della discussa società statunitense Clearview, specializzata nella produzione di software di riconoscimento facciale, che ha raccolto miliardi di foto estratte dai siti, inclusi Facebook e Twitter, per le forze dell’ordine. Grazie all’uso di questo database la polizia statunitense, ad esempio, è stata in grado di identificare i fautori dell’assalto a Capitol Hill dello scorso 6 gennaio. Ma questa tecnologia ha suscitato diverse polemiche per l’azione invasiva e la mancanza di rispetto per la privacy degli individui. Inoltre, si richiede che i social network facciano di più per proteggere gli utenti da queste tecniche.
Rischi del riconoscimento facciale
Ma quanto sono compatibili questi sistemi con la tutela dei diritti degli individui? Il riconoscimento facciale si scontra con il diritto all’immagine e alla dignità umana. L’uso dell’intelligenza artificiale in questi termini risulta, però, alquanto inquietante in quanto presenta problematiche per la riservatezza delle persone e proietta la società in una dimensione di “videosorveglianza” continua, profetizzata già da Orwell nel 1949 con l’introduzione del Big Brother, nel suo celebre romanzo 1984, che sorvegliava ogni angolo della città. Oggi anziché avere enormi teleschermi, abbiamo piccoli schermi che ci accompagnano e ci controllano. È questo che vogliamo davvero?
Costruire un’etica digitale
L’intelligenza artificiale fornisce supporto alla gestione dell’ordine pubblico, ma fino a che punto questa può essere utile se viola la privacy dei cittadini? Il gioco vale la candela? Siamo davvero consci delle norme digitali e dei nostri diritti? Queste sono domande che tutti gli utenti dovrebbero porsi e su cui dovrebbero riflettere leggendo e informandosi da enti competenti. Anche gli stati devono fare la propria parte. Ad esempio, il 6 ottobre il Parlamento Europeo ha chiesto alla Commissione Europea di vietare il riconoscimento facciale generalizzato, ma di usarlo esclusivamente per soggetti già sospettati di un crimine. In conclusione, è necessaria sia una supervisione umana di queste tecnologie, sia una collaborazione tra tutti gli organi pubblici e privati, al fine di fornire una condotta comune e rendere tutti più consapevoli riguardo agli eventuali rischi.
A cura di
Oriana D’Agostino
FONTI:
CREDITS: