Вызов

Как обеспечить ответственное, безопасное и добросовестное использование алгоритмов искусственного интеллекта, которые мы применяем к цифровым государственным услугам, и завоевать доверие пользователей

Проблема и текущий контекст

Искусственный интеллект (ИИ) стал неотъемлемой частью нашей повседневной жизни. Правительства используют его, например, для улучшения доступности и качества государственных услуг, оптимизации процессов или управления общественным пространством.

Алгоритмы являются основой систем искусственного интеллекта и часто действуют как «черные ящики» для людей, которые их используют и влияют на них. Чтобы этого не произошло, важно, чтобы алгоритмы были понятны пользователям, чтобы они могли понять, как было достигнуто определенное решение и почему это решение принято. Тем более в случае правительства, которое может функционировать только тогда, когда между ним и обществом существует доверие. Хорошая администрация должна позволять всем гражданам понимать причины решений и иметь возможность оспаривать их.

В демократических правительствах доверие гарантируется многочисленными правовыми гарантиями. Что касается обязательства сделать прозрачными алгоритмы ИИ, используемые в цифровых государственных услугах, то закон устанавливает право физических лиц на получение разъяснений по автоматизированным решениям (РГПД) и предусматривает создание «механизмов», чтобы алгоритмы, участвующие в принятии решений - принятие во внимание критериев прозрачности и объяснимости (Всеобъемлющий закон 5/2023 о равном обращении и недискриминации), но не устанавливает для этого какого-либо конкретного механизма или правового инструмента. Он только дает рекомендации и оставляет организациям возможность найти наиболее подходящий инструмент для:

  • предоставлять содержательную информацию о логике используемых алгоритмов, а также об ожидаемых последствиях, которая должна быть четкой и с использованием понятного языка,
  • позволить людям понять, почему алгоритм дал определенный результат, а также указать орган, в котором они могут обжаловать свои конкретные решения или оспорить его общую работу,
  • открыть алгоритмы для демократического контроля.

Ввиду отсутствия конкретных механизмов, методов или методов достижения алгоритмической прозрачности, AOC провел исследование с целью поиска стандартизированных форм прозрачности и уделения приоритетного внимания пониманию алгоритмов, которые мы применяем к нашим цифровым административным услугам.

Вот откуда исходит инициатива алгоритмической прозрачности, которую мы представляем.

Предложенное решение 

Прозрачность в разработке и использовании искусственного интеллекта (ИИ) является важнейшим вопросом для обеспечения того, чтобы эта технология была ответственной и справедливой по отношению к обществу.

В качестве средства достижения алгоритмической прозрачности AOC предлагает публикация на Портале прозрачности понятных токенов для каждого алгоритма ИИ заняты в цифровом администрировании.

Эта инициатива призвана стать инструментом для:

  • помочь людям понять, как работают алгоритмы, используемые в местном самоуправлении, и какова их цель,
  • обеспечить значительную прозрачность стандартизированным способом и позволить сравнивать различные алгоритмы,
  • облегчить каждому возможность высказать свое мнение и участвовать в создании человеко-ориентированных алгоритмов.

Содержимое файла

Каждая вкладка алгоритмической прозрачности содержит:

  • проблема, которую должен решить рассматриваемый алгоритм ИИ,
  • объяснение характеристик алгоритма, а также его работы,
  • группы, на которые может повлиять алгоритм,
  • анализ рисков или оценка воздействия на защиту данных, которая была проведена (если применимо) для определения возможных дискриминационных искажений алгоритма,
  • анализ рисков безопасности системы, который был выполнен для выявления возможных непредвиденных обстоятельств доступности и безопасности системы, содержащей алгоритм,
  • la управление рисками принятые меры и принятые меры гарантировать соблюдение основных прав
  • орган, перед которым можно обжаловать отдельные решения алгоритма или оспорить его общую работу,
  • контактные данные ответственного лица и поставщика алгоритма.

→ Посмотреть лист алгоритмической прозрачности модели AOC (PDF)

Как было определено содержимое файла

Чтобы определить содержание файлов алгоритмической прозрачности, группа инноваций и данных при поддержке юридических служб AOC провела исследование, которое включает:  

  1. Una анализ существующих правил в котором рассматривается вопрос прозрачности автоматизированных решений, принимаемых алгоритмами ИИ, с особым вниманием к:  
  • Европейский регламент защиты данных (RGPD) 
  • Предложение по Регламенту использования искусственного интеллекта Совета Европы 
  • Закон 15/2022 от 12 июля, всеобъемлющий о равном обращении и недискриминации 
  1. Документы, содержащие руководящие принципы и рекомендации для достижения безопасного и надежного ИИ. Следует отметить: 
  • Этические рекомендации для надежного ИИ от Экспертной группы высокого уровня Европейской комиссии по ИИ (апрель 2019 г.) 
  • Доклад Комиссара Совета Европы по правам человека «Распаковка искусственного интеллекта: 10 шагов к защите прав человека» (май 2019 г.)
  • Отчет APDCAT «Автоматизированные решения в Каталонии» (январь 2020 г.)  
  • Европейская декларация о цифровых правах и принципах цифрового десятилетия (январь 2023 г.)
  1. Они также были исследованы инициативы по алгоритмической прозрачности различных администраций, которые находятся в стадии разработки. Следует отметить: 
  • Реестр алгоритмов города Амстердама – реализовано
  • Реестр искусственного интеллекта города Хельсинки – реализован
  • Алгоритмический стандарт Великобритании – реализован
  • Реестр муниципальных алгоритмов городского совета Барселоны 
  • Реестр алгоритмов фонда ICT Social Health Foundation 
  • Радар алгоритмов ИИ Таблицы субъектов Третьего социального сектора Каталонии
  • Предложение по основам этической работы для алгоритмов Женералитата Каталонии

Выводы исследования

Государства-члены Европейского Союза обязуются через Европейскую декларацию о цифровых правах и принципах цифрового десятилетия обеспечить надлежащий уровень прозрачности в использовании алгоритмов и искусственного интеллекта, а также информирование и подготовку людей для их использования, когда они взаимодействовать с ними.

Чтобы соответствовать требованию прозрачности систем ИИ государственного управления, существующие на сегодняшний день правила НЕ устанавливают для этого какой-либо механизм, стандартизированную форму или «конкретный» правовой инструмент; хотя:

  • Регламент ИИ, который готовится Советом Европы, указывает в качестве первого рекомендуемого действия «регистрировать и документировать» системы ИИ, используемые организациями, которые могут подпадать под действие этого регламента;
  • статья 23 всеобъемлющего Закона 15/2022 о равном обращении и недискриминации говорит о содействии внедрению «механизмов», чтобы алгоритмы, участвующие в принятии решений, учитывали критерии минимизации предвзятости, прозрачности и подотчетности;
  • некоторые муниципальные постановления устанавливают обязательство публиковать на веб-сайте список автоматизированных административных действий, которые могут включать или не включать использование алгоритмов ИИ, с информацией о применяемых правилах и о том, как они работают.

Мы изучили различные инициативы, продвигаемые европейскими местными и региональными органами власти, чтобы найти «стандартную форму», которая позволит нам соблюдать требование прозрачности алгоритмов ИИ, которые мы применяем к нашим цифровым государственным услугам.

Среди всех изученных инициатив и в соответствии с действующими юридическими обязательствами мы пришли к выводу, что публикация файлов алгоритмической прозрачности на Портале прозрачности это быстрое и простое решение что облегчает соблюдение требования прозрачности, установленного в правилах i позволяет завоевать доверие пользователей в системах ИИ государственного управления.

Исследование также позволило нам определить, какую важную информацию необходимо предоставить о государственных услугах на основе ИИ, чтобы пользователи могли понять, как алгоритмы принимают решения и как эти решения проверяются. В противном случае мы углубились в выявление и анализ наиболее вероятных рисков, связанных с использованием алгоритмов ИИ в отношении основные права, и мы связали их с мерами, которые необходимо применять в каждом конкретном случае, чтобы гарантировать соблюдение этих прав. (См. раздел «Управление рисками» в таблицах прозрачности алгоритмов).

ПУБЛИКОВАННЫЕ ФАЙЛЫ:

Статус проекта

В производстве. Опубликованы первые три листа алгоритмической прозрачности.

Дополнительная информация

Реализованные практические кейсы:

Кейсы на стадии разработки:

Библиографические ссылки:

Правовые обязательства:

Европейская структура

  • Регламент (ЕС) 2016/679 Европейского парламента и Совета от 27 апреля 2016 г., касающийся защиты физических лиц в отношении обработки персональных данных и свободного обращения таких данных, которым отменяется Директива 95. /46/ЕС («RGPD"). Ссылка
  • Руководство по автоматизированным индивидуальным решениям и профилированию для целей Регламента 2016/679. Принято 3 октября 2017 г. и в последний раз пересмотрено и принято 6 февраля 2018 г. Рабочая группа по защите данных, статья 29 Директивы 95/46/ЕС. Ссылка
  • Предложение по Регламенту Европейского парламента и Совета, устанавливающему гармонизированные правила в области искусственного интеллекта (Закон об искусственном интеллекте) и вносящее поправки в некоторые законодательные акты Союза. 21 апреля 2021. Европейская комиссия. КОМ (2021) 206 финал. Ссылка / Приложение I к предложению о Регламенте AI Европейской комиссии (2021 г.)

Государственная структура

  • Органический закон 3/2018 от 5 декабря о защите персональных данных и гарантии цифровых прав («ЛОПДГДД"). Ссылка
  • Соблюдение RGPD процедур, включающих искусственный интеллект. Введение Февраль 2020. АЭПД. Ссылка
  • Закон 15/2022 от 12 июля, всеобъемлющий о равном обращении и недискриминации. Ссылка

Каталонский каркас

  • Закон 19/2014 от 29 декабря о прозрачности, доступе к публичной информации и надлежащем управлении. Ссылка
  • Указ 76/2020 от 4 августа о цифровом управлении. Ссылка