Herausforderung

Wie wir den verantwortungsvollen, sicheren und fairen Einsatz von Algorithmen der künstlichen Intelligenz, die wir auf digitale Regierungsdienste anwenden, sicherstellen und das Vertrauen der Benutzer gewinnen können

Problem und aktueller Kontext

Künstliche Intelligenz (KI) ist aus unserem Alltag nicht mehr wegzudenken. Regierungen nutzen es beispielsweise, um die Zugänglichkeit und das Erlebnis öffentlicher Dienste zu verbessern, Prozesse zu optimieren oder den öffentlichen Raum zu verwalten.

Algorithmen sind die Grundlage von KI-Systemen und wirken für die Menschen, die sie nutzen und beeinflussen, oft wie „Black Boxes“. Um dies zu verhindern, Es ist wichtig, dass die Algorithmen für die Benutzer verständlich sind, dass sie nachvollziehen können, wie eine bestimmte Entscheidung getroffen wurde und warum diese Entscheidung getroffen wird. Dies gilt umso mehr für die Regierung, die nur funktionieren kann, wenn Vertrauen zwischen ihr und der Öffentlichkeit besteht. Eine gute Verwaltung muss es allen Bürgern ermöglichen, die Gründe für Entscheidungen nachzuvollziehen und die Möglichkeit zu haben, diese anzufechten.

In demokratischen Regierungen wird Vertrauen durch zahlreiche rechtliche Absicherungen gewährleistet. Was die Verpflichtung zur Transparenz der in digitalen Regierungsdiensten eingesetzten KI-Algorithmen anbelangt, begründet das Gesetz das Recht des Einzelnen auf Erklärung automatisierter Entscheidungen (RGPD) und sieht die Schaffung von „Mechanismen“ vor, damit die an der Entscheidung beteiligten Algorithmen Dabei werden Transparenz- und Erklärbarkeitskriterien berücksichtigt (Umfassendes Gesetz 5/2023 für Gleichbehandlung und Nichtdiskriminierung), es werden jedoch keine spezifischen Mechanismen oder Rechtsinstrumente dafür festgelegt Es gibt lediglich Empfehlungen und überlässt es den Organisationen, das am besten geeignete Tool zu finden für:

  • aussagekräftige Informationen über die Logik der verwendeten Algorithmen sowie die erwarteten Konsequenzen liefern, die klar und verständlich sind,
  • den Menschen zu ermöglichen, zu verstehen, warum ein Algorithmus ein bestimmtes Ergebnis geliefert hat, und die Stelle anzugeben, bei der sie gegen ihre jeweiligen Entscheidungen Berufung einlegen oder seine allgemeine Funktionsweise anfechten können,
  • Öffnen Sie die Algorithmen der demokratischen Kontrolle.

Angesichts des Mangels an konkreten Mechanismen, Techniken oder Methoden zur Erreichung algorithmischer Transparenz hat das AOC eine Studie durchgeführt, um nach standardisierten Formen der Transparenz zu suchen und dem Verständnis der Algorithmen, die wir auf unsere digitalen Verwaltungsdienste anwenden, Vorrang einzuräumen

Daher kommt die von uns vorgestellte Initiative zur algorithmischen Transparenz.

Vorgeschlagene Lösung 

Transparenz bei der Entwicklung und Nutzung künstlicher Intelligenz (KI) ist ein entscheidendes Thema, um sicherzustellen, dass diese Technologie verantwortungsvoll und fair gegenüber der Gesellschaft ist.

Als Mittel zur Erreichung algorithmischer Transparenz schlägt das AOC Folgendes vor: Veröffentlichung nachvollziehbarer Token für jeden KI-Algorithmus auf dem Transparenzportal in der digitalen Verwaltung tätig.

Diese Initiative soll ein Instrument sein für:

  • den Menschen helfen zu verstehen, wie die in der Kommunalverwaltung verwendeten Algorithmen funktionieren und welchen Zweck sie haben,
  • sorgen auf standardisierte Weise für erhebliche Transparenz und ermöglichen den Vergleich zwischen verschiedenen Algorithmen,
  • Machen Sie es jedem leicht, seine Meinung zu äußern und sich an der Entwicklung menschenzentrierter Algorithmen zu beteiligen.

Inhalt der Datei

Jede Registerkarte für algorithmische Transparenz enthält:

  • das durch den jeweiligen KI-Algorithmus zu lösende Problem,
  • die Erläuterung der Eigenschaften des Algorithmus sowie seiner Funktionsweise,
  • die Gruppen, die vom Algorithmus betroffen sein können,
  • die durchgeführte Risikoanalyse bzw. Datenschutz-Folgenabschätzung (sofern zutreffend) zur Feststellung möglicher diskriminierender Verzerrungen des Algorithmus,
  • die Sicherheitsrisikoanalyse des Systems, die durchgeführt wurde, um mögliche Eventualitäten der Verfügbarkeit und Sicherheit des Systems zu ermitteln, das den Algorithmus enthält,
  • la Risikomanagement vorgenommen und die Maßnahmen angewendet die Einhaltung der Grundrechte zu gewährleisten
  • die Stelle, bei der man gegen bestimmte Entscheidungen des Algorithmus Berufung einlegen oder seine allgemeine Funktionsweise anfechten kann,
  • die Kontaktdaten des Verantwortlichen und des Anbieters des Algorithmus.

→ Siehe die Modell AOC algorithmisches Transparenzblatt (Pdf)

Wie der Inhalt der Datei bestimmt wurde

Um den Inhalt der algorithmischen Transparenzdateien zu bestimmen, hat das Innovations- und Datenteam mit Unterstützung der Rechtsabteilung des AOC eine Studie durchgeführt, die Folgendes umfasst:  

  1. Eine Analyse bestehender Vorschriften Es befasst sich mit der Frage der Transparenz automatisierter Entscheidungen, die von KI-Algorithmen getroffen werden, und legt dabei besonderes Augenmerk auf Folgendes:  
  • Europäische Datenschutzverordnung (RGPD) 
  • Vorschlag für eine Verordnung zum Einsatz künstlicher Intelligenz des Europarats 
  • Gesetz 15/2022 vom 12. Juli, umfassend für Gleichbehandlung und Nichtdiskriminierung 
  1. Dokumente, die Richtlinien und Anleitungen bieten um eine sichere und zuverlässige KI zu erreichen. Es sollte notiert werden: 
  • Ethische Leitlinien für vertrauenswürdige KI, von der hochrangigen Expertengruppe für KI der Europäischen Kommission (April 2019) 
  • Bericht „Unboxing Artificial Intelligence: 10 Schritte zum Schutz der Menschenrechte“ des Menschenrechtskommissars des Europarats (Mai 2019)
  • APDCAT-Bericht „Automatisierte Entscheidungen in Katalonien“ (Januar 2020)  
  • Europäische Erklärung zu digitalen Rechten und Grundsätzen für das digitale Jahrzehnt (Januar 2023)
  1. Sie wurden auch erforscht algorithmische Transparenzinitiativen verschiedener Verwaltungen, die sich in der Entwicklungsphase befinden. Es sollte notiert werden: 
  • Algorithmenregister der Stadt Amsterdam – implementiert
  • Register für Künstliche Intelligenz der Stadt Helsinki – umgesetzt
  • Britischer Algorithmusstandard – implementiert
  • Register der kommunalen Algorithmen des Stadtrats von Barcelona 
  • Register der Algorithmen der ICT Social Health Foundation 
  • Radar der KI-Algorithmen der Entitätstabelle des Dritten Sozialsektors Kataloniens
  • Vorschlag für einen ethischen Arbeitsrahmen für die Algorithmen der Generalitat de Catalunya

Schlussfolgerungen der Studie

Die Mitgliedsstaaten der Europäischen Union verpflichten sich mit der Europäischen Erklärung zu digitalen Rechten und Grundsätzen für das digitale Jahrzehnt, für ein angemessenes Maß an Transparenz beim Einsatz von Algorithmen und künstlicher Intelligenz zu sorgen und die Menschen darüber zu informieren und zu schulen, diese zu nutzen, wenn sie diese nutzen mit ihnen interagieren.

Um dem Erfordernis der Transparenz von KI-Systemen öffentlicher Verwaltungen nachzukommen, sehen die heute bestehenden Vorschriften KEINEN Mechanismus, keine standardisierte Form oder „konkrete“ Rechtsinstrumente dafür vor; Obwohl:

  • In der KI-Verordnung, die derzeit vom Europarat ausgearbeitet wird, wird als erste empfohlene Maßnahme die „Registrierung und Dokumentation“ der KI-Systeme genannt, die von Organisationen verwendet werden, die möglicherweise dieser Verordnung unterliegen.
  • Artikel 23 des umfassenden Gesetzes 15/2022 für Gleichbehandlung und Nichtdiskriminierung spricht von der Förderung der Implementierung von „Mechanismen“, damit die an der Entscheidungsfindung beteiligten Algorithmen Kriterien zur Voreingenommenheitsminimierung, Transparenz und Rechenschaftspflicht berücksichtigen;
  • Einige kommunale Verordnungen sehen die Verpflichtung vor, auf der Website die Liste der automatisierten Verwaltungsmaßnahmen – die möglicherweise den Einsatz von KI-Algorithmen beinhalten oder nicht – mit Informationen zu den angewandten Regeln und ihrer Funktionsweise zu veröffentlichen.

Wir haben verschiedene Initiativen untersucht, die von europäischen Kommunal- und Regionalverwaltungen gefördert werden, um einen „standardisierten Weg“ zu finden, der es uns ermöglicht, die Anforderung der Transparenz der KI-Algorithmen zu erfüllen, die wir auf unsere digitalen Regierungsdienste anwenden.

Unter all den untersuchten Initiativen und in Übereinstimmung mit den geltenden rechtlichen Verpflichtungen sind wir zu dem Schluss gekommen, dass die Veröffentlichung algorithmischer Transparenzdateien auf dem Transparenzportal es ist ein schnelle und einfache Lösung dass erleichtert die Einhaltung der in den Verordnungen festgelegten Transparenzanforderungen i ermöglicht es, das Vertrauen der Benutzer zu gewinnen in den KI-Systemen öffentlicher Verwaltungen.

Die Studie ermöglichte es uns auch zu ermitteln, welche relevanten Informationen über KI-basierte öffentliche Dienste bereitgestellt werden müssen, damit Benutzer verstehen können, wie Algorithmen Entscheidungen treffen und wie diese Entscheidungen überprüft werden. Ansonsten haben wir uns mit der Identifizierung und Analyse der wahrscheinlichsten Risiken befasst, die mit der Verwendung von KI-Algorithmen in Bezug auf verbunden sind Grundrechteund wir haben sie mit den Maßnahmen verbunden, die jeweils anzuwenden sind, um die Einhaltung dieser Rechte zu gewährleisten. (Siehe den Abschnitt „Risikomanagement“ der Algorithmic Transparency Sheets).

VERÖFFENTLICHTE DATEIEN:

Projekt-Status

In Produktion. Die ersten drei algorithmischen Transparenzblätter wurden veröffentlicht.

Mehr Informationen

Umgesetzte Praxisfälle:

Fälle in der Entwicklungsphase:

Bibliographische Hinweise:

Gesetzliche Verpflichtungen:

Europäischer Rahmen

  • Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten und zum freien Datenverkehr, mit der die Richtlinie 95 aufgehoben wird /46/EG („RGPD"). Verknüpfung
  • Leitlinien zu automatisierten Einzelentscheidungen und Profiling im Sinne der Verordnung 2016/679. Verabschiedet am 3. Oktober 2017 und letztmals überarbeitet und verabschiedet am 6. Februar 2018. Arbeitsgruppe Datenschutz Artikel 29 der Richtlinie 95/46/EG. Verknüpfung
  • Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Regeln für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union. 21. April 2021. Europäische Kommission. KOM (2021) 206 endgültig. Verknüpfung / Anhang I des KI-Verordnungsvorschlags der Europäischen Kommission (2021)

Staatlicher Rahmen

  • Organgesetz 3/2018 vom 5. Dezember zum Schutz personenbezogener Daten und zur Gewährleistung digitaler Rechte („LOPDGDD"). Verknüpfung
  • Einhaltung der DSGVO von Behandlungen, die künstliche Intelligenz beinhalten. Eine Einleitung Februar 2020. AEPD. Verknüpfung
  • Gesetz 15/2022 vom 12. Juli, umfassend für Gleichbehandlung und Nichtdiskriminierung. Verknüpfung

Katalanischer Rahmen

  • Gesetz 19/2014 vom 29. Dezember über Transparenz, Zugang zu öffentlichen Informationen und gute Regierungsführung. Verknüpfung
  • Dekret 76/2020 vom 4. August über die digitale Verwaltung. Verknüpfung