Вызов

Как добиться доверия пользователей к цифровым государственным услугам, использующим данные и алгоритмы искусственного интеллекта, обеспечивая при этом их ответственное, безопасное и справедливое использование. 

Проблема и текущий контекст

Искусственный интеллект (ИИ) стал неотъемлемой частью нашей повседневной жизни. Правительства используют его, например, для улучшения доступности и качества государственных услуг, оптимизации процессов или управления общественным пространством.

Алгоритмы являются основой систем искусственного интеллекта и часто действуют как «черные ящики» для людей, которые их используют и влияют на них. Чтобы этого не произошло, важно, чтобы алгоритмы были понятны пользователям, чтобы они могли понять, как было достигнуто определенное решение и почему это решение принято. Тем более в случае правительства, которое может функционировать только тогда, когда между ним и обществом существует доверие. Хорошая администрация должна позволять всем гражданам понимать причины решений и иметь возможность оспаривать их.

В демократических правительствах доверие гарантируется многочисленными правовыми гарантиями. Что касается обязательства сделать прозрачными алгоритмы ИИ, используемые в цифровых государственных услугах, то закон устанавливает право физических лиц на получение разъяснений по автоматизированным решениям (РГПД) и предусматривает создание «механизмов», чтобы алгоритмы, участвующие в принятии решений - принятие во внимание критериев прозрачности и объяснимости (Всеобъемлющий закон 15/2022 о равном обращении и недискриминации), но не устанавливает для этого какого-либо конкретного механизма или правового инструмента. Он только дает рекомендации и оставляет организациям возможность найти наиболее подходящий инструмент для:

  • предоставлять содержательную информацию о логике используемых алгоритмов, а также об ожидаемых последствиях, которая должна быть четкой и с использованием понятного языка,
  • позволить людям понять, почему алгоритм дал определенный результат, а также указать орган, в котором они могут обжаловать свои конкретные решения или оспорить его общую работу,
  • открыть алгоритмы для демократического контроля.

Ввиду отсутствия конкретных механизмов, методов или методов достижения алгоритмической прозрачности, AOC провел исследование с целью поиска стандартизированных форм прозрачности и уделения приоритетного внимания пониманию алгоритмов, которые мы применяем к нашим цифровым административным услугам.

Вот откуда исходит инициатива алгоритмической прозрачности, которую мы представляем.

Предложенное решение 

Прозрачность в разработке и использовании ИИ является важнейшим вопросом для обеспечения ответственного и справедливого использования этой технологии по отношению к обществу.

В качестве средства достижения алгоритмической прозрачности AOC предлагает публикация на Портале прозрачности понятных отчетов по каждому алгоритму применяется к услугам цифрового администрирования.

Эта инициатива призвана стать инструментом для:

  • помочь людям понять, как работают алгоритмы, используемые в местном самоуправлении, и какова их цель,
  • обеспечить значительную прозрачность стандартизированным способом и позволить сравнивать различные алгоритмы,
  • облегчить каждому возможность высказать свое мнение и участвовать в создании человеко-ориентированных алгоритмов.

Кроме того, хотя инициатива в основном сосредоточена на системах искусственного интеллекта, также включает отчеты о прозрачности для детерминированных алгоритмов в чувствительных случаях использования, такие как сложные системы автоматизации для широкомасштабной социальной помощи, следуя критерию, что они также могут оказывать соответствующее воздействие на людей.

Содержимое файла

Каждая вкладка алгоритмической прозрачности содержит:

  • проблема, которую необходимо решить с помощью рассматриваемого алгоритма,
  • объяснение характеристик алгоритма, а также его работы,
  • группы, на которые может повлиять алгоритм,
  • анализ рисков или оценка воздействия на защиту данных, которая была проведена (если применимо) для определения возможных дискриминационных искажений алгоритма,
  • анализ рисков безопасности системы, который был выполнен для выявления возможных непредвиденных обстоятельств доступности и безопасности системы, содержащей алгоритм,
  • la управление рисками принятые меры и принятые меры гарантировать соблюдение основных прав
  • орган, в котором можно обжаловать отдельные решения алгоритма или оспорить его общую работу, когда этого требует закон,
  • контактные данные ответственного лица и поставщика алгоритма.

→ Посмотреть лист алгоритмической прозрачности модели AOC (PDF)

Как было определено содержимое файла

Чтобы определить содержание файлов алгоритмической прозрачности, группа инноваций и данных при поддержке юридических служб AOC провела исследование, которое включает:  

  1. Una анализ существующих правил в котором рассматривается вопрос прозрачности автоматизированных решений, принимаемых алгоритмами ИИ, с особым вниманием к:  
  • Европейский регламент защиты данных (RGPD)
  • Регламент Совета Европы об использовании искусственного интеллекта (Закон об искусственном интеллекте)
  • Закон 40/2015 о правовом режиме государственного сектора (LRJSP) и Правила функционирования государственного сектора с помощью электронных средств (RD 203/2021)
  • Комплексный закон 15/2022 о равном обращении и недискриминации 
  1. Документы, содержащие руководящие принципы и рекомендации для достижения безопасного и надежного ИИ. Следует отметить: 
  • Этические рекомендации для надежного ИИ от Экспертной группы высокого уровня Европейской комиссии по ИИ (апрель 2019 г.) 
  • Доклад Комиссара Совета Европы по правам человека «Распаковка искусственного интеллекта: 10 шагов к защите прав человека» (май 2019 г.)
  • Принципы ответственного управления доверенным искусственным интеллектом из Рекомендации Совета по искусственному интеллекту ОЭСР (май 2019 г.)
  • Отчет APDCAT «Автоматизированные решения в Каталонии» (январь 2020 г.)  
  • Европейская декларация о цифровых правах и принципах цифрового десятилетия (январь 2023 г.)
  • Инструмент NIST для управления рисками в области искусственного интеллекта (январь 2023 г.)
  1. Они также были исследованы инициативы по алгоритмической прозрачности различных администраций, которые находятся в стадии разработки. Следует отметить: 
  • Реестр алгоритмов города Амстердама – реализовано
  • Реестр искусственного интеллекта города Хельсинки – реализован
  • Стандарт алгоритмической прозрачности Eurocities, основанный на стандарте Великобритании – реализован
  • Реестр муниципальных алгоритмов городского совета Барселоны 
  • Реестр алгоритмов фонда ICT Social Health Foundation 
  • Радар алгоритмов ИИ Таблицы субъектов Третьего социального сектора Каталонии
  • Предложение по основам этической работы для алгоритмов Женералитата Каталонии

Выводы исследования

Государства-члены Европейского Союза обязуются через Европейскую декларацию о цифровых правах и принципах цифрового десятилетия обеспечить надлежащий уровень прозрачности в использовании алгоритмов и искусственного интеллекта, а также информирование и подготовку людей для их использования, когда они взаимодействовать с ними.

В целях соблюдения требования прозрачности систем искусственного интеллекта органов государственного управления в действующих правилах указана информация, которая должна предоставляться в зависимости от случая. [1], но не определяет «конкретный» механизм, стандартизированный формат или юридический инструмент для этого; хотя: 

  • Регламент ИИ устанавливает требование вести учет всей соответствующей информации о системах ИИ высокого риска (ст. 17);
  • всеобъемлющий Закон 15/2022 о равном обращении и недискриминации говорит о поддержке внедрения «механизмов», чтобы алгоритмы принятия решений учитывали критерии минимизации предвзятости, прозрачности и сдачи счетов (статья 23);
  • Положение о функционировании государственного сектора с помощью электронных средств устанавливает обязанность публиковать на своем веб-сайте список автоматизированных административных действий (ААА), которые могут включать или не включать использование алгоритмов ИИ, и сопровождать каждое ААА описание его конструкции и работы (ст. 11). 

Мы изучили различные инициативы, продвигаемые европейскими местными и региональными органами власти, чтобы найти стандартизированный способ, который позволит нам соблюдать требования прозрачности алгоритмов искусственного интеллекта, которые мы применяем к нашим цифровым государственным услугам.

Среди всех изученных инициатив и в соответствии с действующими юридическими обязательствами мы пришли к выводу, что Публикация отчетов о прозрачности алгоритмов на Портале прозрачности это быстрое и простое решение что облегчает соблюдение требования прозрачности, установленного в правилах i позволяет завоевать доверие пользователей в системах ИИ государственного управления.

Исследование также позволило нам определить, какую соответствующую информацию необходимо предоставить о государственных услугах на основе ИИ, чтобы пользователи могли понять, как алгоритмы принимают решения и как эти решения проверяются. С другой стороны, исследование привело нас к разработке гибкой и практичной методологии для выявления и анализа наиболее вероятных рисков, связанных с использованием алгоритмов ИИ в отношении основные права, и связать их с мерами, которые необходимо будет применять в каждом конкретном случае, чтобы гарантировать соблюдение этих прав.

Методология управления рисками, ориентированная на защиту основных прав

Чтобы гарантировать надежный, этичный и безопасный ИИ в государственных службах, AOC разработала собственную методологию управления рисками. Эта методология, ориентированная на защиту основных прав, рассматривает возможные риски, которые могут повлиять на граждан, и подробно описывает, как их можно смягчить или свести к минимуму. Методология состоит из трех основных этапов, каждый из которых имеет прочную основу в международных правилах и руководствах.

  • Шаг 1: Определение основополагающих принципов и прав, подлежащих защите
    Чтобы гарантировать, что ИИ уважает демократические ценности, мы опираемся на Хартию основных прав Европейского Союза, которая помогает нам определить основные группы прав и принципов, на которые может повлиять ИИ. Это:

    • А) Равенство и недискриминация
    • Б) Защита данных и конфиденциальность
    • В) Безопасность и надежность.
    • Г) Прозрачность и объяснимость
    • E) Хранение счетов и возможность проверки
    • F) Устойчивое развитие и солидарность
  • Шаг 2: Идентификация сопутствующих рисков и их связи с принципами и правами, подлежащими защите.
    Чтобы выявить наиболее распространенные риски при использовании ИИ, AOC принялСтруктура управления рисками искусственного интеллекта (AI RMF 1.0) от NIST, который связывает потенциальные риски с вышеупомянутыми принципами и правами. Этот подход позволяет определить, какие риски могут поставить под угрозу каждую из групп основных прав, тем самым помогая предвидеть и решать такие проблемы, как дискриминация, конфиденциальность или безопасность.

  • Шаг 3: Определение мер по управлению рисками
    Чтобы определить механизмы и гарантии, которые могут быть более подходящими и эффективными в каждом конкретном случае во избежание нарушения основополагающих принципов и прав, мы опирались на главу II Этические рекомендации для доверенного ИИ Европейской комиссии, а также в недавно утвержденном Регламенте ИИ (обязательное применение с 2 февраля 8 г.), чтобы механизмы определялись на основе уровня риска системы ИИ и для определенных систем или моделей ИИ. Например:
    • высокий риск: при условии соблюдения особых требований безопасности и прозрачности, а также обязательства провести оценку воздействия, связанного с основными правами, перед развертыванием системы (статья 27).
    • Ограниченный риск: Обязательства по минимальной прозрачности, позволяющие пользователям принимать обоснованные решения и быть осведомленными при взаимодействии с ИИ.

Эта методология помогает нам поддерживать прозрачную, безопасную и ориентированную на защиту фундаментальных прав систему искусственного интеллекта.

→ В презентация (PPT, 7) вы можете увидеть сводную таблицу трех этапов методологии управления рисками AOC.

ОПУБЛИКОВАННЫЕ ОТЧЕТЫ:

Статус проекта

В производстве. Было опубликовано четыре отчета о прозрачности алгоритмов.

Дополнительная информация

Реализованные практические кейсы:

Кейсы на стадии разработки:

Библиографические ссылки:

Правовые обязательства:

Европейская структура

  • Регламент (ЕС) 2016/679 Европейского парламента и Совета от 27 апреля 2016 г., касающийся защиты физических лиц в отношении обработки персональных данных и свободного обращения таких данных, которым отменяется Директива 95. /46/ЕС («RGPD»). Ссылка
  • Руководство по автоматизированным индивидуальным решениям и профилированию для целей Регламента 2016/679. Принято 3 октября 2017 г. и в последний раз пересмотрено и принято 6 февраля 2018 г. Рабочая группа по защите данных, статья 29 Директивы 95/46/ЕС. Ссылка
  • Постановление Европейского парламента и Совета, устанавливающее гармонизированные правила в области искусственного интеллекта (Закон об ИИ) и вносятся изменения в некоторые законодательные акты Союза. 12. Ссылка 

Государственная структура

  • Органический закон 3/2018 от 5 декабря о защите персональных данных и гарантии цифровых прав («ЛОПДГДД»). Ссылка
  • Соблюдение RGPD процедур, включающих искусственный интеллект. Введение Февраль 2020. АЭПД. Ссылка
  • Закон 15/2022 от 12 июля, всеобъемлющий о равном обращении и недискриминации. Ссылка

Каталонский каркас

  • Закон 19/2014 от 29 декабря о прозрачности, доступе к публичной информации и надлежащем управлении. Ссылка
  • Указ 76/2020 от 4 августа о цифровом управлении. Ссылка

[1] Например, Положение об искусственном интеллекте определяет информацию, которая должна быть предоставлена ​​в отношении определенных систем искусственного интеллекта (статья 50); РГПД определяет информацию, которая должна быть предоставлена ​​заинтересованному лицу при принятии автоматизированных решений (ст. 13); а LRJSP устанавливает обязанность сообщать об органе, ответственном за автоматизированное административное действие, в электронном штабе для целей апелляции (статья 41).