Sfida

Come garantire l'uso responsabile, sicuro ed equo degli algoritmi di intelligenza artificiale che applichiamo ai servizi governativi digitali e ottenere la fiducia degli utenti

Problema e contesto attuale

L'intelligenza artificiale (AI) è diventata parte integrante della nostra vita quotidiana. I governi lo utilizzano per migliorare l'accessibilità e l'esperienza dei servizi pubblici, ottimizzare i processi o gestire lo spazio pubblico, ad esempio.

Gli algoritmi sono il fondamento dei sistemi di intelligenza artificiale e spesso agiscono come "scatole nere" per le persone che li usano e li influenzano. Per evitare che ciò accada, è essenziale che gli algoritmi possano essere compresi dagli utenti, che possano capire come si è arrivati ​​a una certa decisione e perché questa decisione è stata presa. Tanto più nel caso del governo, che può funzionare solo quando c'è fiducia tra esso e il pubblico. Una buona amministrazione deve permettere a tutti i cittadini di comprendere le ragioni delle decisioni e di avere la possibilità di impugnarle.

Nei governi democratici, la fiducia è garantita da numerose tutele legali. Per quanto riguarda l'obbligo di rendere trasparenti gli algoritmi di IA utilizzati nei servizi digitali della Pubblica Amministrazione, la legge sancisce il diritto degli individui di ottenere una spiegazione delle decisioni automatizzate (RGPD) e prevede la creazione di "meccanismi" affinché gli algoritmi coinvolti nella decisione -tenendo conto dei criteri di trasparenza e spiegabilità (Legge Integrale 5/2023 per la parità di trattamento e la non discriminazione), ma non stabilisce alcun meccanismo specifico o strumento giuridico per farlo- Fornisce solo raccomandazioni e lascia alle organizzazioni il compito di trovare lo strumento più adatto per:

  • fornire informazioni significative sulla logica degli algoritmi utilizzati nonché sulle conseguenze previste, che siano chiare e utilizzino un linguaggio comprensibile,
  • consentire alle persone di capire perché un algoritmo ha dato un determinato risultato, nonché indicare l'organo davanti al quale possono appellarsi alle loro decisioni particolari o contestarne il funzionamento generale,
  • aprire gli algoritmi al controllo democratico.

In considerazione della mancanza di meccanismi, tecniche o metodi concreti per raggiungere la trasparenza algoritmica, l'AOC ha effettuato uno studio al fine di ricercare forme standardizzate di trasparenza e dare priorità alla comprensione degli algoritmi che applichiamo ai nostri servizi di amministrazione digitale

Da qui nasce l'iniziativa di trasparenza algoritmica che presentiamo.

La soluzione proposta 

La trasparenza nello sviluppo e nell'uso dell'intelligenza artificiale (AI) è una questione cruciale per garantire che questa tecnologia sia responsabile ed equa nei confronti della società.

Come mezzo per raggiungere la trasparenza algoritmica, l'AOC propone il pubblicazione sul Portale della Trasparenza di token comprensibili per ciascun algoritmo AI impiegati nei servizi di amministrazione digitale.

Questa iniziativa vuole essere uno strumento per:

  • aiutare le persone a capire come funzionano gli algoritmi utilizzati nel governo locale e qual è il loro scopo,
  • fornire una trasparenza significativa in modo standardizzato e consentire il confronto tra diversi algoritmi,
  • rendere facile per tutti esprimere la propria opinione e partecipare alla creazione di algoritmi incentrati sull'uomo.

Contenuto del file

Ciascuna scheda di trasparenza algoritmica contiene:

  • il problema da risolvere con l’algoritmo AI in questione,
  • la spiegazione delle caratteristiche dell'algoritmo nonché del suo funzionamento,
  • i gruppi che potrebbero essere interessati dall’algoritmo,
  • l'analisi dei rischi o la valutazione dell'impatto sulla protezione dei dati effettuata (a seconda dei casi) per determinare i possibili errori discriminatori dell'algoritmo,
  • l'analisi dei rischi per la sicurezza del sistema effettuata per identificare le possibili contingenze di disponibilità e sicurezza del sistema che contiene l'algoritmo,
  • la gestione del rischio effettuate e le misure applicate garantire il rispetto dei diritti fondamentali
  • l'organo davanti al quale è possibile ricorrere contro le decisioni particolari dell'algoritmo o contestare il suo funzionamento generale,
  • i dati di contatto del responsabile e del fornitore dell'algoritmo.

→ Consulta il modello di foglio di trasparenza algoritmica AOC (Pdf)

Come è stato determinato il contenuto del file

Per determinare il contenuto dei file di trasparenza algoritmica, il team Innovazione e dati con il supporto dei servizi legali dell'AOC, ha effettuato uno studio che include:  

  1. Un analisi della normativa vigente che affronta il tema della trasparenza delle decisioni automatizzate prese dagli algoritmi di AI, prestando particolare attenzione a:  
  • Regolamento europeo sulla protezione dei dati (RGPD) 
  • Proposta di regolamento sull'uso dell'intelligenza artificiale del Consiglio d'Europa 
  • Legge 15/2022, del 12 luglio, completa per la parità di trattamento e la non discriminazione 
  1. Documenti che forniscono linee guida e indicazioni per ottenere un'IA sicura e affidabile. Dovrebbe essere notato: 
  • Linee guida etiche per un'IA affidabile, del gruppo di esperti ad alto livello sull'IA della Commissione europea (aprile 2019) 
  • Rapporto "Unboxing Artificial Intelligence: 10 Steps to Protect Human Rights" del Commissario per i diritti umani del Consiglio d'Europa (maggio 2019)
  • Rapporto APDCAT "Decisioni automatizzate in Catalogna" (gennaio 2020)  
  • Dichiarazione europea sui diritti digitali e principi per il decennio digitale (gennaio 2023)
  1. Sono stati anche esplorati iniziative di trasparenza algoritmica di diverse amministrazioni, che sono in fase di sviluppo. Dovrebbe essere notato: 
  • Registro degli algoritmi della città di Amsterdam – implementato
  • Registro dell'intelligenza artificiale della città di Helsinki – implementato
  • Standard algoritmico del Regno Unito – implementato
  • Registro degli algoritmi municipali del Comune di Barcellona 
  • Registro degli Algoritmi della ICT Social Health Foundation 
  • Radar degli algoritmi AI della Tavola delle entità del Terzo Settore Sociale della Catalogna
  • Proposta per un quadro di lavoro etico per gli algoritmi della Generalitat de Catalunya

Conclusioni dello studio

Gli stati membri dell'Unione Europea si impegnano, attraverso la Dichiarazione Europea sui Diritti Digitali e Principi per il Decennio Digitale, a garantire un adeguato livello di trasparenza nell'uso degli algoritmi e dell'intelligenza artificiale e perché le persone siano informate e formate all'utilizzo degli stessi quando interagire con loro.

Al fine di ottemperare al requisito di trasparenza dei sistemi di IA delle pubbliche amministrazioni, la normativa oggi esistente NON prevede alcun meccanismo, forma standardizzata o strumento giuridico “concreto” in tal senso; Sebbene:

  • il Regolamento AI che è in corso di elaborazione da parte del Consiglio d'Europa indica, come prima azione raccomandata, quella di “registrare e documentare” i sistemi di AI utilizzati dalle organizzazioni che possono essere soggette a tale regolamento;
  • l'articolo 23 della legge organica 15/2022 per la parità di trattamento e la non discriminazione parla di favorire l'attuazione di "meccanismi" affinché gli algoritmi coinvolti nel processo decisionale tengano conto di criteri di minimizzazione dei pregiudizi, trasparenza e responsabilità;
  • alcune ordinanze comunali stabiliscono l'obbligo di pubblicare sul sito l'elenco degli atti amministrativi automatizzati - che possono comportare o meno l'utilizzo di algoritmi di IA -, con indicazioni sulle regole applicate e sul loro funzionamento.

Abbiamo esplorato diverse iniziative che vengono promosse dai governi locali e regionali europei, al fine di trovare un "modo standardizzato" che ci consenta di rispettare il requisito di trasparenza degli algoritmi di intelligenza artificiale che applichiamo ai nostri servizi di governo digitale.

Tra tutte le iniziative esplorate e in conformità con gli obblighi di legge in vigore, siamo giunti alla conclusione che il pubblicazione dei file di trasparenza algoritmica sul Portale Trasparenza è un soluzione semplice e veloce che facilita il rispetto dell'obbligo di trasparenza previsto dalla normativa i permette di guadagnare la fiducia degli utenti nei sistemi di AI delle pubbliche amministrazioni.

Lo studio ci ha anche permesso di determinare quali sono le informazioni rilevanti che devono essere fornite sui servizi pubblici basati sull’intelligenza artificiale in modo che gli utenti possano capire come gli algoritmi prendono decisioni e come queste decisioni vengono verificate. Altrimenti, abbiamo approfondito l'identificazione e l'analisi dei rischi più probabili legati all'uso degli algoritmi di intelligenza artificiale in relazione a diritti fondamentali, e li abbiamo collegati alle misure che devono essere applicate in ciascun caso per garantire il rispetto di questi diritti. (Vedi la sezione Risk Management dei Fogli di Trasparenza Algoritmica).

FILE PUBBLICATI:

Stato del progetto

In produzione. Sono stati pubblicati i primi tre fogli di trasparenza algoritmica.

Maggiori informazioni

Casi pratici implementati:

Casi in fase di sviluppo:

Riferimenti bibliografici:

Obblighi di legge:

quadro europeo

  • Regolamento (UE) 2016/679 del Parlamento Europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e con il quale abroga la direttiva 95 /46/CE (“RGPD"). collegamento
  • Linee guida in materia di decisioni individuali automatizzate e profilazione ai fini del Regolamento 2016/679. Adottato il 3 ottobre 2017 e riveduto per l'ultima volta e adottato il 6 febbraio 2018. Gruppo di lavoro sulla protezione dei dati Articolo 29 della direttiva 95/46/CE. collegamento
  • Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce norme armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e che modifica alcuni atti legislativi dell'Unione. 21 aprile 2021. Commissione Europea. COM(2021) 206 definitivo. collegamento / Allegato I della proposta di Regolamento AI della Commissione Europea (2021)

Quadro statale

  • Legge organica 3/2018, del 5 dicembre, sulla protezione dei dati personali e la garanzia dei diritti digitali (“LOPDGDD"). collegamento
  • Conformità al RGPD dei trattamenti che incorporano l'Intelligenza Artificiale. Un introduzione Febbraio 2020. AEPD. collegamento
  • Legge 15/2022, del 12 luglio, integrale per la parità di trattamento e la non discriminazione. collegamento

quadro catalano

  • Legge 19/2014, del 29 dicembre, sulla trasparenza, l'accesso alle informazioni pubbliche e il buon governo. collegamento
  • Decreto 76/2020, del 4 agosto, sull'Amministrazione Digitale. collegamento