come garantire trasparenza e protezione dei dati
Secondo IDC, la spesa europea per l’intelligenza artificiale raggiungerà i 144,6 miliardi di dollari entro il 2028, con un tasso di crescita annuale composto del 30,3%. Tuttavia, nonostante il 66% delle persone in tutto il mondo usi regolarmente sistemi di AI, solo il 46% se ne fida pienamente. Infatti, senza una stretta supervisione, gli stessi strumenti destinati a promuovere il progresso possono distorcere i risultati e aggravare la presenza di informazioni pregiudizievoli, allontanandosi così dai principi che ne sono idealmente alla base: equità, trasparenza e responsabilità.
La responsabilità come punto di partenza
La responsabilità costituisce il pilastro fondamentale di un’implementazione etica dell’intelligenza artificiale. Ad esempio, una banca potrebbe utilizzare l’AI per determinare se approvare o negare una richiesta di prestito. Se il richiedente riceve una notifica di “storico creditizio insufficiente” e la banca nega il prestito, l’istituzione bancaria si assume la responsabilità della decisione dell’AI di giungere a questa conclusione.
Quando le azioni o le decisioni prese dall’AI non vengono comunicate apertamente, come nel caso della notifica della banca, ecco che la fiducia e la trasparenza tra le parti coinvolte è compromessa. Per questo motivo è vitale assicurare che gli agenti umani che creano il ciclo di vita dell’AI – progettisti, sviluppatori e attuatori del sistema – siano ritenuti responsabili della sua corretta implementazione, definendo chiaramente compiti e ruoli e fornendo a ciascuna figura coinvolta gli strumenti per giustificare le decisioni supportate dagli algoritmi.
Le organizzazioni sono quindi chiamate a sviluppare un approccio di “Responsabilità-by-Design” dell’AI, volto a realizzare sistemi basati su principi di progettazione etica fin dall’inizio. Non solo, al fine di essere conformi all’evoluzione degli standard sono necessarie frequenti valutazioni degli output dell’AI, in uno sforzo continuo per evitare pregiudizi, abusi e problematiche non previste in fase di progettazione.
Affrontare i pregiudizi e promuovere l’equità
Dal software di riconoscimento facciale che identifica erroneamente particolari demografie, agli strumenti di reclutamento che discriminano in base al genere o all’etnia, i sistemi di AI hanno ripetutamente dimostrato l’urgente necessità di tecnologie più eque e trasparenti.
Source link




