L’intelligenza artificiale è un superpotere. Un’IA responsabile è un dovere
L’intelligenza artificiale (IA) è, come tutte le grandi invenzioni, un’arma a doppio taglio. E la sua implementazione è sempre più accelerata e intensa, in tutti i settori e per molte imprese.
Ma cosa implica tutto ciò? E cosa significa responsabilità nel campo dell’IA e degli analytics?
Dalla demonizzazione alla visione collaborativa dell’IA
Per comprendere questo concetto, facciamo un passo indietro.
Nel mondo ci sono oltre 7 miliardi di persone sparse in quasi 200 nazioni, ognuna con la propria cultura e conoscenza. Nonostante questi numeri e questa varietà, possiamo assumere che la maggior parte delle persone sceglierebbe di fare del bene piuttosto che fare del male; e mantenendo questo “beneficio del dubbio”, possiamo supporre che la maggior parte dei problemi, anche quelli determinati dall’intelligenza artificiale, abbia la propria radice in un errore involontario.
In altri termini, dobbiamo innanzitutto riconoscere che le persone che sviluppano e impiegano l’IA sono esseri umani, che in quanto tali sono soggetti alla possibilità di sbagliare.
Questo, però, non deve diventare una scusa per una mancata responsabilità e trasparenza, ma è importante per contestualizzare i pregiudizi dell’intelligenza artificiale che ricadono sulla nostra società.
Una parte molto ampia della popolazione ha infatti ancora bisogno di fare proprie conoscenze di base nel campo dell’intelligenza artificiale, e distinguere cosa è e cosa non è. La consapevolezza è alla base dell’adozione.
L’intelligenza artificiale che evita i pregiudizi
Un primo elemento di consapevolezza è rappresentato dall’assunto che l’IA possa essere distorta. I pregiudizi sono in noi e intorno a noi e, dato che il processo di apprendimento dell’intelligenza artificiale parte dai dati provenienti dal nostro mondo, è inevitabile che i preconcetti si riflettano nei risultati dell’IA. In pratica, i luoghi comuni sono parte del nostro essere e ci aiutano a prendere decisioni efficienti. Il problema sta nel fatto che questa tendenza ha originato strutture sociali discriminatorie e offensive. Le discussioni sui pregiudizi dell’intelligenza artificiale sono spesso incentrate su questo aspetto. Tuttavia, c’è un punto di vista alternativo che dovremmo considerare: l’iniezione di stereotipi positivi nell’AI potrebbe contribuire a creare un mondo più equo in cui tutti vorremmo vivere?
Riconoscere che abbiamo “incorporato” pregiudizi storici che influenzano le nostre nazioni, organizzazioni e comunità è un primo passo importante. Sviluppare un’intelligenza artificiale in grado di rilevare preventivamente e attenuare i pregiudizi che hanno un impatto negativo, soprattutto su coloro che sono storicamente emarginati, è il passo successivo fondamentale. Anticipare e rimediare i danni subiti dai più vulnerabili è essenziale per assicurarsi la fiducia necessaria per progredire senza ripetere i gravi errori del passato.
La consapevolezza dell’IA per il bene comune
Come già accennato, la consapevolezza consente l’adozione. Ma come possiamo iniziare a sviluppare e condividere un livello diffuso di conoscenza comune sull’IA? Possiamo cominciare riconoscendo che l’intelligenza artificiale è già intorno a noi, nei sistemi di raccomandazione online, negli assistenti vocali e nel rilevamento delle frodi e che non è, quindi, quello che si vede nei film di fantascienza.
Supponiamo che le persone siano ancora spaventate e rifiutino l’adozione dell’IA, nonostante le pervasive applicazioni di back-office. In questo caso, i malintenzionati saranno ancora più propensi a sfruttare l’IA. Lo possiamo vedere già ora nella diffusione della disinformazione, dei deep fake, dei social bot e delle frodi automatizzate. Un mezzo per proteggerci da questi abusi è la conoscenza comune basata sui fatti.
La demistificazione dell’IA ne aumenterà la fiducia e ciò è possibile con l’utilizzo di un linguaggio chiaro e comprensibile, che incoraggi la consapevolezza delle persone a livello globale. Affinché ci sia spazio per il progresso, dobbiamo accettare che l’intenzione degli esperti di IA sia di portare benefici alla nostra società, riconoscendo e rimediando agli effetti negativi e impegnandosi per migliorare il mondo, per tutti noi.
L’imprescindibilità della data quality
I dati sono alla base dell’IA: se i dati sono “cattivi”, lo sarà anche l’IA. Ecco perché è così importante assicurarsi che i dati siano raccolti, archiviati e utilizzati in modo etico.
Raccogliere dati in modo etico significa essere trasparenti su quali dati vengono raccolti e su come verranno utilizzati. Significa anche ottenere il consenso delle persone di cui si raccolgono i dati, conservarli in modo sicuro e proteggerli da accessi non autorizzati. Infine, un uso etico dei dati rispetta la privacy delle persone e non le discrimina.
Tuttavia, la qualità di un dato viene spesso determinata in funzione della domanda che viene posta. Come i dati raccolti, anche le domande poste devono essere intese come parziali, perché ovunque ci siano degli esseri umani, esistono dei pregiudizi. Se questi preconcetti riducono la qualità dei dati, dipende dal motivo per cui i dati vengono raccolti, da chi e in quale momento.
La data quality si può pertanto definire come il grado di accuratezza, completezza e pertinenza dei dati rispetto allo scopo per cui vengono utilizzati, trovando un temibile nemico nel pregiudizio di conferma, ovvero la tendenza a cercare, interpretare, favorire e ricordare le informazioni in modo da confermare le proprie convinzioni o ipotesi preesistenti. In altre parole, la data quality riguarda la qualità dei dati stessi, mentre il pregiudizio di conferma riguarda il modo in cui interpretiamo i dati.
Ma cosa succede quando i dati raccontano una storia che non vi piace? Significa che i dati sono di scarsa qualità o che si è in presenza di un bias di conferma? Sono domande importanti da considerare, perché le risposte possono portare a sistemi di intelligenza artificiale che perpetuano e amplificano i pregiudizi nei confronti di alcuni gruppi di persone, con conseguenze anche gravi.