Вызов
Как добиться доверия пользователей к цифровым государственным услугам, использующим данные и алгоритмы искусственного интеллекта, обеспечивая при этом их ответственное, безопасное и справедливое использование.
Проблема и текущий контекст
Искусственный интеллект (ИИ) стал неотъемлемой частью нашей повседневной жизни. Правительства используют его, например, для улучшения доступности и качества государственных услуг, оптимизации процессов или управления общественным пространством.
Алгоритмы являются основой систем искусственного интеллекта и часто действуют как «черные ящики» для людей, которые их используют и влияют на них. Чтобы этого не произошло, важно, чтобы алгоритмы были понятны пользователям, чтобы они могли понять, как было достигнуто определенное решение и почему это решение принято. Тем более в случае правительства, которое может функционировать только тогда, когда между ним и обществом существует доверие. Хорошая администрация должна позволять всем гражданам понимать причины решений и иметь возможность оспаривать их.
В демократических правительствах доверие гарантируется многочисленными правовыми гарантиями. Что касается обязательства сделать прозрачными алгоритмы ИИ, используемые в цифровых государственных услугах, то закон устанавливает право физических лиц на получение разъяснений по автоматизированным решениям (РГПД) и предусматривает создание «механизмов», чтобы алгоритмы, участвующие в принятии решений - принятие во внимание критериев прозрачности и объяснимости (Всеобъемлющий закон 15/2022 о равном обращении и недискриминации), но не устанавливает для этого какого-либо конкретного механизма или правового инструмента. Он только дает рекомендации и оставляет организациям возможность найти наиболее подходящий инструмент для:
- предоставлять содержательную информацию о логике используемых алгоритмов, а также об ожидаемых последствиях, которая должна быть четкой и с использованием понятного языка,
- позволить людям понять, почему алгоритм дал определенный результат, а также указать орган, в котором они могут обжаловать свои конкретные решения или оспорить его общую работу,
- открыть алгоритмы для демократического контроля.
Ввиду отсутствия конкретных механизмов, методов или методов достижения алгоритмической прозрачности, AOC провел исследование с целью поиска стандартизированных форм прозрачности и уделения приоритетного внимания пониманию алгоритмов, которые мы применяем к нашим цифровым административным услугам.
Вот откуда исходит инициатива алгоритмической прозрачности, которую мы представляем.
Предложенное решение
Прозрачность в разработке и использовании ИИ является важнейшим вопросом для обеспечения ответственного и справедливого использования этой технологии по отношению к обществу.
В качестве средства достижения алгоритмической прозрачности AOC предлагает публикация на Портале прозрачности понятных отчетов по каждому алгоритму применяется к услугам цифрового администрирования.
Эта инициатива призвана стать инструментом для:
- помочь людям понять, как работают алгоритмы, используемые в местном самоуправлении, и какова их цель,
- обеспечить значительную прозрачность стандартизированным способом и позволить сравнивать различные алгоритмы,
- облегчить каждому возможность высказать свое мнение и участвовать в создании человеко-ориентированных алгоритмов.
Кроме того, хотя инициатива в основном сосредоточена на системах искусственного интеллекта, также включает отчеты о прозрачности для детерминированных алгоритмов в чувствительных случаях использования, такие как сложные системы автоматизации для широкомасштабной социальной помощи, следуя критерию, что они также могут оказывать соответствующее воздействие на людей.
Содержимое файла
Каждая вкладка алгоритмической прозрачности содержит:
- проблема, которую необходимо решить с помощью рассматриваемого алгоритма,
- объяснение характеристик алгоритма, а также его работы,
- группы, на которые может повлиять алгоритм,
- анализ рисков или оценка воздействия на защиту данных, которая была проведена (если применимо) для определения возможных дискриминационных искажений алгоритма,
- анализ рисков безопасности системы, который был выполнен для выявления возможных непредвиденных обстоятельств доступности и безопасности системы, содержащей алгоритм,
- la управление рисками принятые меры и принятые меры гарантировать соблюдение основных прав,
- орган, в котором можно обжаловать отдельные решения алгоритма или оспорить его общую работу, когда этого требует закон,
- контактные данные ответственного лица и поставщика алгоритма.
→ Посмотреть лист алгоритмической прозрачности модели AOC (PDF)
Как было определено содержимое файла
Чтобы определить содержание файлов алгоритмической прозрачности, группа инноваций и данных при поддержке юридических служб AOC провела исследование, которое включает:
- Una анализ существующих правил в котором рассматривается вопрос прозрачности автоматизированных решений, принимаемых алгоритмами ИИ, с особым вниманием к:
- Европейский регламент защиты данных (RGPD)
- Регламент Совета Европы об использовании искусственного интеллекта (Закон об искусственном интеллекте)
- Закон 40/2015 о правовом режиме государственного сектора (LRJSP) и Правила функционирования государственного сектора с помощью электронных средств (RD 203/2021)
- Комплексный закон 15/2022 о равном обращении и недискриминации
- Документы, содержащие руководящие принципы и рекомендации для достижения безопасного и надежного ИИ. Следует отметить:
- Этические рекомендации для надежного ИИ от Экспертной группы высокого уровня Европейской комиссии по ИИ (апрель 2019 г.)
- Доклад Комиссара Совета Европы по правам человека «Распаковка искусственного интеллекта: 10 шагов к защите прав человека» (май 2019 г.)
- Принципы ответственного управления доверенным искусственным интеллектом из Рекомендации Совета по искусственному интеллекту ОЭСР (май 2019 г.)
- Отчет APDCAT «Автоматизированные решения в Каталонии» (январь 2020 г.)
- Европейская декларация о цифровых правах и принципах цифрового десятилетия (январь 2023 г.)
- Инструмент NIST для управления рисками в области искусственного интеллекта (январь 2023 г.)
- Они также были исследованы инициативы по алгоритмической прозрачности различных администраций, которые находятся в стадии разработки. Следует отметить:
- Реестр алгоритмов города Амстердама – реализовано
- Реестр искусственного интеллекта города Хельсинки – реализован
- Стандарт алгоритмической прозрачности Eurocities, основанный на стандарте Великобритании – реализован
- Реестр муниципальных алгоритмов городского совета Барселоны
- Реестр алгоритмов фонда ICT Social Health Foundation
- Радар алгоритмов ИИ Таблицы субъектов Третьего социального сектора Каталонии
- Предложение по основам этической работы для алгоритмов Женералитата Каталонии
Выводы исследования
Государства-члены Европейского Союза обязуются через Европейскую декларацию о цифровых правах и принципах цифрового десятилетия обеспечить надлежащий уровень прозрачности в использовании алгоритмов и искусственного интеллекта, а также информирование и подготовку людей для их использования, когда они взаимодействовать с ними.
В целях соблюдения требования прозрачности систем искусственного интеллекта органов государственного управления в действующих правилах указана информация, которая должна предоставляться в зависимости от случая. [1], но не определяет «конкретный» механизм, стандартизированный формат или юридический инструмент для этого; хотя:
- Регламент ИИ устанавливает требование вести учет всей соответствующей информации о системах ИИ высокого риска (ст. 17);
- всеобъемлющий Закон 15/2022 о равном обращении и недискриминации говорит о поддержке внедрения «механизмов», чтобы алгоритмы принятия решений учитывали критерии минимизации предвзятости, прозрачности и сдачи счетов (статья 23);
- Положение о функционировании государственного сектора с помощью электронных средств устанавливает обязанность публиковать на своем веб-сайте список автоматизированных административных действий (ААА), которые могут включать или не включать использование алгоритмов ИИ, и сопровождать каждое ААА описание его конструкции и работы (ст. 11).
Мы изучили различные инициативы, продвигаемые европейскими местными и региональными органами власти, чтобы найти стандартизированный способ, который позволит нам соблюдать требования прозрачности алгоритмов искусственного интеллекта, которые мы применяем к нашим цифровым государственным услугам.
Среди всех изученных инициатив и в соответствии с действующими юридическими обязательствами мы пришли к выводу, что Публикация отчетов о прозрачности алгоритмов на Портале прозрачности это быстрое и простое решение что облегчает соблюдение требования прозрачности, установленного в правилах i позволяет завоевать доверие пользователей в системах ИИ государственного управления.
Исследование также позволило нам определить, какую соответствующую информацию необходимо предоставить о государственных услугах на основе ИИ, чтобы пользователи могли понять, как алгоритмы принимают решения и как эти решения проверяются. С другой стороны, исследование привело нас к разработке гибкой и практичной методологии для выявления и анализа наиболее вероятных рисков, связанных с использованием алгоритмов ИИ в отношении основные права, и связать их с мерами, которые необходимо будет применять в каждом конкретном случае, чтобы гарантировать соблюдение этих прав.
Методология управления рисками, ориентированная на защиту основных прав
Чтобы гарантировать надежный, этичный и безопасный ИИ в государственных службах, AOC разработала собственную методологию управления рисками. Эта методология, ориентированная на защиту основных прав, рассматривает возможные риски, которые могут повлиять на граждан, и подробно описывает, как их можно смягчить или свести к минимуму. Методология состоит из трех основных этапов, каждый из которых имеет прочную основу в международных правилах и руководствах.
-
Шаг 1: Определение основополагающих принципов и прав, подлежащих защите
Чтобы гарантировать, что ИИ уважает демократические ценности, мы опираемся на Хартию основных прав Европейского Союза, которая помогает нам определить основные группы прав и принципов, на которые может повлиять ИИ. Это:- А) Равенство и недискриминация
- Б) Защита данных и конфиденциальность
- В) Безопасность и надежность.
- Г) Прозрачность и объяснимость
- E) Хранение счетов и возможность проверки
- F) Устойчивое развитие и солидарность
-
Шаг 2: Идентификация сопутствующих рисков и их связи с принципами и правами, подлежащими защите.
Чтобы выявить наиболее распространенные риски при использовании ИИ, AOC принялСтруктура управления рисками искусственного интеллекта (AI RMF 1.0) от NIST, который связывает потенциальные риски с вышеупомянутыми принципами и правами. Этот подход позволяет определить, какие риски могут поставить под угрозу каждую из групп основных прав, тем самым помогая предвидеть и решать такие проблемы, как дискриминация, конфиденциальность или безопасность. - Шаг 3: Определение мер по управлению рисками
Чтобы определить механизмы и гарантии, которые могут быть более подходящими и эффективными в каждом конкретном случае во избежание нарушения основополагающих принципов и прав, мы опирались на главу II Этические рекомендации для доверенного ИИ Европейской комиссии, а также в недавно утвержденном Регламенте ИИ (обязательное применение с 2 февраля 8 г.), чтобы механизмы определялись на основе уровня риска системы ИИ и для определенных систем или моделей ИИ. Например:- высокий риск: при условии соблюдения особых требований безопасности и прозрачности, а также обязательства провести оценку воздействия, связанного с основными правами, перед развертыванием системы (статья 27).
- Ограниченный риск: Обязательства по минимальной прозрачности, позволяющие пользователям принимать обоснованные решения и быть осведомленными при взаимодействии с ИИ.
Эта методология помогает нам поддерживать прозрачную, безопасную и ориентированную на защиту фундаментальных прав систему искусственного интеллекта.
→ В презентация (PPT, 7) вы можете увидеть сводную таблицу трех этапов методологии управления рисками AOC.
ОПУБЛИКОВАННЫЕ ОТЧЕТЫ:
- Диалоговые чат-боты AOC – опубликовано на портале прозрачности AOC (26 мая 5 г.)
- Видеоидентификация для получения Mobile idCat (2)
- Автоматизация отчета об энергетической бедности (5 мая 2 г.) (Этот алгоритм не включает в себя ИИ, но отчет о прозрачности был подготовлен, поскольку это деликатный случай использования с потенциальным воздействием на людей, в соответствии с критериями, применяемыми к другим сложным системам автоматизации)
- Чат-боты с генеративным искусственным интеллектом от AOC – опубликовано на портале прозрачности AOC (26 мая 11 г.)
Статус проекта
В производстве. Было опубликовано четыре отчета о прозрачности алгоритмов.
Дополнительная информация
Реализованные практические кейсы:
- Реестр алгоритмов города Амстердама – Амстердамский алгоритм регистрации
- Реестр искусственного интеллекта города Хельсинки – Реестр искусственного интеллекта города Хельсинки
- Алгоритмический стандарт Великобритании – Отчеты об алгоритмической прозрачности
- Реестр алгоритмов искусственного интеллекта городского совета Таррагоны
Кейсы на стадии разработки:
- Регистрация муниципальных алгоритмов городского совета Барселоны
- Журнал инструментов AI (инвентарь) Фонда социального здоровья TIC
- Радар с алгоритмом искусственного интеллекта изТаблица субъектов третьего социального сектора Каталонии
- Предложение Рабочая основа этики алгоритмов, из DGAD - Женералитата Каталонии
Библиографические ссылки:
- Документ "Определение ИИ: основные возможности и дисциплины” Экспертной группы высокого уровня Европейской комиссии по ИИ (апрель 2019 г.)
- Этические принципы для надежного ИИ, от Экспертной группы высокого уровня Европейской комиссии по ИИ (апрель 2019 г.)
- Рекомендация Совета по искусственному интеллекту ОЭСР (май 2019 г.)
- Отчет Распаковка искусственного интеллекта: 10 шагов к защите прав человека Комиссара по правам человека Совета Европы (май 2019 г.)
- Отчет "ИИ в госуслугах” AI Watch, CE (2020)
- Отчет "Автоматизированные решения в Каталонии» APDCAT (январь 2020 г.)
- Руководство по внедрению искусственного интеллекта и самооценке для организаций (ISAGO) из Сингапура (январь 2020 г.)
- Информационный документ Публичные регистры ИИ, из городов Амстердам, Хельсинки и Saidot Ltd (сентябрь 2020 г.)
- Государственная мера муниципальной стратегии алгоритмов и данных для этического импульса ИИ, от городского совета Барселоны (апрель 2021 г.)
- Оценка воздействия фундаментальных прав и алгоритмов (FRAIA) из Нидерландов (июль 2021 г.)
- Закон 1/2022 от 13 апреля о прозрачности и надлежащем управлении Валенсийского сообщества (статья 16 Информация, имеющая юридическое значение) Ссылка
- Отчет Искусственный интеллект в государственном секторе изОЭСР-OPSI (июль 2022 г.)
- Руководство по объяснимости в искусственном интеллекте, от Социального фонда ТИЦ «Салют» (декабрь 2022 г.)]
- Система управления рисками ИИ из НИСТ (январь 2023 г.)
- Инструмент алгоритмической оценки воздействия Канады (апрель 2023 г.)
- Модель самооценки PIO Обсерватории этики Каталонии (OEIAC)
- Том 9 Сборник «Открытое правительство»: Алгоритмическая прозрачность в государственном секторе Женералитата Каталонии (март 2023 г.)
Правовые обязательства:
Европейская структура
- Регламент (ЕС) 2016/679 Европейского парламента и Совета от 27 апреля 2016 г., касающийся защиты физических лиц в отношении обработки персональных данных и свободного обращения таких данных, которым отменяется Директива 95. /46/ЕС («RGPD»). Ссылка
- Руководство по автоматизированным индивидуальным решениям и профилированию для целей Регламента 2016/679. Принято 3 октября 2017 г. и в последний раз пересмотрено и принято 6 февраля 2018 г. Рабочая группа по защите данных, статья 29 Директивы 95/46/ЕС. Ссылка
- Постановление Европейского парламента и Совета, устанавливающее гармонизированные правила в области искусственного интеллекта (Закон об ИИ) и вносятся изменения в некоторые законодательные акты Союза. 12. Ссылка
Государственная структура
- Органический закон 3/2018 от 5 декабря о защите персональных данных и гарантии цифровых прав («ЛОПДГДД»). Ссылка
- Соблюдение RGPD процедур, включающих искусственный интеллект. Введение Февраль 2020. АЭПД. Ссылка
- Закон 15/2022 от 12 июля, всеобъемлющий о равном обращении и недискриминации. Ссылка
Каталонский каркас
- Закон 19/2014 от 29 декабря о прозрачности, доступе к публичной информации и надлежащем управлении. Ссылка
- Указ 76/2020 от 4 августа о цифровом управлении. Ссылка
[1] Например, Положение об искусственном интеллекте определяет информацию, которая должна быть предоставлена в отношении определенных систем искусственного интеллекта (статья 50); РГПД определяет информацию, которая должна быть предоставлена заинтересованному лицу при принятии автоматизированных решений (ст. 13); а LRJSP устанавливает обязанность сообщать об органе, ответственном за автоматизированное административное действие, в электронном штабе для целей апелляции (статья 41).