Вызов
Как обеспечить ответственное, безопасное и добросовестное использование алгоритмов искусственного интеллекта, которые мы применяем к цифровым государственным услугам, и завоевать доверие пользователей
Проблема и текущий контекст
Искусственный интеллект (ИИ) стал неотъемлемой частью нашей повседневной жизни. Правительства используют его, например, для улучшения доступности и качества государственных услуг, оптимизации процессов или управления общественным пространством.
Алгоритмы являются основой систем искусственного интеллекта и часто действуют как «черные ящики» для людей, которые их используют и влияют на них. Чтобы этого не произошло, важно, чтобы алгоритмы были понятны пользователям, чтобы они могли понять, как было достигнуто определенное решение и почему это решение принято. Тем более в случае правительства, которое может функционировать только тогда, когда между ним и обществом существует доверие. Хорошая администрация должна позволять всем гражданам понимать причины решений и иметь возможность оспаривать их.
В демократических правительствах доверие гарантируется многочисленными правовыми гарантиями. Что касается обязательства сделать прозрачными алгоритмы ИИ, используемые в цифровых государственных услугах, то закон устанавливает право физических лиц на получение разъяснений по автоматизированным решениям (РГПД) и предусматривает создание «механизмов», чтобы алгоритмы, участвующие в принятии решений - принятие во внимание критериев прозрачности и объяснимости (Всеобъемлющий закон 5/2023 о равном обращении и недискриминации), но не устанавливает для этого какого-либо конкретного механизма или правового инструмента. Он только дает рекомендации и оставляет организациям возможность найти наиболее подходящий инструмент для:
- предоставлять содержательную информацию о логике используемых алгоритмов, а также об ожидаемых последствиях, которая должна быть четкой и с использованием понятного языка,
- позволить людям понять, почему алгоритм дал определенный результат, а также указать орган, в котором они могут обжаловать свои конкретные решения или оспорить его общую работу,
- открыть алгоритмы для демократического контроля.
Ввиду отсутствия конкретных механизмов, методов или методов достижения алгоритмической прозрачности, AOC провел исследование с целью поиска стандартизированных форм прозрачности и уделения приоритетного внимания пониманию алгоритмов, которые мы применяем к нашим цифровым административным услугам.
Вот откуда исходит инициатива алгоритмической прозрачности, которую мы представляем.
Предложенное решение
Прозрачность в разработке и использовании искусственного интеллекта (ИИ) является важнейшим вопросом для обеспечения того, чтобы эта технология была ответственной и справедливой по отношению к обществу.
В качестве средства достижения алгоритмической прозрачности AOC предлагает публикация на Портале прозрачности понятных токенов для каждого алгоритма ИИ заняты в цифровом администрировании.
Эта инициатива призвана стать инструментом для:
- помочь людям понять, как работают алгоритмы, используемые в местном самоуправлении, и какова их цель,
- обеспечить значительную прозрачность стандартизированным способом и позволить сравнивать различные алгоритмы,
- облегчить каждому возможность высказать свое мнение и участвовать в создании человеко-ориентированных алгоритмов.
Содержимое файла
Каждая вкладка алгоритмической прозрачности содержит:
- проблема, которую должен решить рассматриваемый алгоритм ИИ,
- объяснение характеристик алгоритма, а также его работы,
- группы, на которые может повлиять алгоритм,
- анализ рисков или оценка воздействия на защиту данных, которая была проведена (если применимо) для определения возможных дискриминационных искажений алгоритма,
- анализ рисков безопасности системы, который был выполнен для выявления возможных непредвиденных обстоятельств доступности и безопасности системы, содержащей алгоритм,
- la управление рисками принятые меры и принятые меры гарантировать соблюдение основных прав,
- орган, перед которым можно обжаловать отдельные решения алгоритма или оспорить его общую работу,
- контактные данные ответственного лица и поставщика алгоритма.
→ Посмотреть лист алгоритмической прозрачности модели AOC (PDF)
Как было определено содержимое файла
Чтобы определить содержание файлов алгоритмической прозрачности, группа инноваций и данных при поддержке юридических служб AOC провела исследование, которое включает:
- Una анализ существующих правил в котором рассматривается вопрос прозрачности автоматизированных решений, принимаемых алгоритмами ИИ, с особым вниманием к:
- Европейский регламент защиты данных (RGPD)
- Предложение по Регламенту использования искусственного интеллекта Совета Европы
- Закон 15/2022 от 12 июля, всеобъемлющий о равном обращении и недискриминации
- Документы, содержащие руководящие принципы и рекомендации для достижения безопасного и надежного ИИ. Следует отметить:
- Этические рекомендации для надежного ИИ от Экспертной группы высокого уровня Европейской комиссии по ИИ (апрель 2019 г.)
- Доклад Комиссара Совета Европы по правам человека «Распаковка искусственного интеллекта: 10 шагов к защите прав человека» (май 2019 г.)
- Отчет APDCAT «Автоматизированные решения в Каталонии» (январь 2020 г.)
- Европейская декларация о цифровых правах и принципах цифрового десятилетия (январь 2023 г.)
- Они также были исследованы инициативы по алгоритмической прозрачности различных администраций, которые находятся в стадии разработки. Следует отметить:
- Реестр алгоритмов города Амстердама – реализовано
- Реестр искусственного интеллекта города Хельсинки – реализован
- Алгоритмический стандарт Великобритании – реализован
- Реестр муниципальных алгоритмов городского совета Барселоны
- Реестр алгоритмов фонда ICT Social Health Foundation
- Радар алгоритмов ИИ Таблицы субъектов Третьего социального сектора Каталонии
- Предложение по основам этической работы для алгоритмов Женералитата Каталонии
Выводы исследования
Государства-члены Европейского Союза обязуются через Европейскую декларацию о цифровых правах и принципах цифрового десятилетия обеспечить надлежащий уровень прозрачности в использовании алгоритмов и искусственного интеллекта, а также информирование и подготовку людей для их использования, когда они взаимодействовать с ними.
Чтобы соответствовать требованию прозрачности систем ИИ государственного управления, существующие на сегодняшний день правила НЕ устанавливают для этого какой-либо механизм, стандартизированную форму или «конкретный» правовой инструмент; хотя:
- Регламент ИИ, который готовится Советом Европы, указывает в качестве первого рекомендуемого действия «регистрировать и документировать» системы ИИ, используемые организациями, которые могут подпадать под действие этого регламента;
- статья 23 всеобъемлющего Закона 15/2022 о равном обращении и недискриминации говорит о содействии внедрению «механизмов», чтобы алгоритмы, участвующие в принятии решений, учитывали критерии минимизации предвзятости, прозрачности и подотчетности;
- некоторые муниципальные постановления устанавливают обязательство публиковать на веб-сайте список автоматизированных административных действий, которые могут включать или не включать использование алгоритмов ИИ, с информацией о применяемых правилах и о том, как они работают.
Мы изучили различные инициативы, продвигаемые европейскими местными и региональными органами власти, чтобы найти «стандартную форму», которая позволит нам соблюдать требование прозрачности алгоритмов ИИ, которые мы применяем к нашим цифровым государственным услугам.
Среди всех изученных инициатив и в соответствии с действующими юридическими обязательствами мы пришли к выводу, что публикация файлов алгоритмической прозрачности на Портале прозрачности это быстрое и простое решение что облегчает соблюдение требования прозрачности, установленного в правилах i позволяет завоевать доверие пользователей в системах ИИ государственного управления.
Исследование также позволило нам определить, какую важную информацию необходимо предоставить о государственных услугах на основе ИИ, чтобы пользователи могли понять, как алгоритмы принимают решения и как эти решения проверяются. В противном случае мы углубились в выявление и анализ наиболее вероятных рисков, связанных с использованием алгоритмов ИИ в отношении основные права, и мы связали их с мерами, которые необходимо применять в каждом конкретном случае, чтобы гарантировать соблюдение этих прав. (См. раздел «Управление рисками» в таблицах прозрачности алгоритмов).
ПУБЛИКОВАННЫЕ ФАЙЛЫ:
- Диалоговые чат-боты AOC – опубликовано на портале прозрачности AOC (26 мая 5 г.)
- Видеоидентификация для получения Mobile idCat (2)
- Автоматизация отчета об энергетической бедности (5 мая 2 г.)
Статус проекта
В производстве. Опубликованы первые три листа алгоритмической прозрачности.
Дополнительная информация
Реализованные практические кейсы:
- Реестр алгоритмов города Амстердама – Амстердамский алгоритм регистрации
- Реестр искусственного интеллекта города Хельсинки – Реестр искусственного интеллекта города Хельсинки
- Алгоритмический стандарт Великобритании – Отчеты об алгоритмической прозрачности
Кейсы на стадии разработки:
- Регистрация муниципальных алгоритмов городского совета Барселоны
- Регистрация инструментов ИИ Фонда социального здоровья TIC
- Радар с алгоритмом искусственного интеллекта изТаблица субъектов третьего социального сектора Каталонии
- Предложение Рабочая основа этики алгоритмов, из DGAD - Женералитата Каталонии
Библиографические ссылки:
- Документ "Определение ИИ: основные возможности и дисциплины” Экспертной группы высокого уровня Европейской комиссии по ИИ (апрель 2019 г.)
- Этические принципы для надежного ИИ, от Экспертной группы высокого уровня Европейской комиссии по ИИ (апрель 2019 г.)
- Рекомендация Совета по искусственному интеллекту ОЭСР (май 2019 г.)
- Отчет Распаковка искусственного интеллекта: 10 шагов к защите прав человека Комиссара по правам человека Совета Европы (май 2019 г.)
- Отчет "ИИ в госуслугах” AI Watch, CE (2020)
- Отчет "Автоматизированные решения в Каталонии» APDCAT (январь 2020 г.)
- Руководство по внедрению искусственного интеллекта и самооценке для организаций (ISAGO) из Сингапура (январь 2020 г.)
- Информационный документ Публичные регистры ИИ, из городов Амстердам, Хельсинки и Saidot Ltd (сентябрь 2020 г.)
- Государственная мера муниципальной стратегии алгоритмов и данных для этического импульса ИИ, от городского совета Барселоны (апрель 2021 г.)
- Оценка воздействия фундаментальных прав и алгоритмов (FRAIA) из Нидерландов (июль 2021 г.)
- Закон 1/2022 от 13 апреля о прозрачности и надлежащем управлении Валенсийского сообщества (статья 16 Информация, имеющая юридическое значение) Ссылка
- Отчет Искусственный интеллект в государственном секторе изОЭСР-OPSI (июль 2022 г.)
- Руководство по объяснимости в искусственном интеллекте, от Социального фонда ТИЦ «Салют» (декабрь 2022 г.)]
- Система управления рисками ИИ из НИСТ (январь 2023 г.)
- Инструмент алгоритмической оценки воздействия Канады (апрель 2023 г.)
- Модель самооценки PIO Обсерватории этики Каталонии (OEIAC)
- Том 9 Сборник «Открытое правительство»: Алгоритмическая прозрачность в государственном секторе Женералитата Каталонии (март 2023 г.)
Правовые обязательства:
Европейская структура
- Регламент (ЕС) 2016/679 Европейского парламента и Совета от 27 апреля 2016 г., касающийся защиты физических лиц в отношении обработки персональных данных и свободного обращения таких данных, которым отменяется Директива 95. /46/ЕС («RGPD"). Ссылка
- Руководство по автоматизированным индивидуальным решениям и профилированию для целей Регламента 2016/679. Принято 3 октября 2017 г. и в последний раз пересмотрено и принято 6 февраля 2018 г. Рабочая группа по защите данных, статья 29 Директивы 95/46/ЕС. Ссылка
- Предложение по Регламенту Европейского парламента и Совета, устанавливающему гармонизированные правила в области искусственного интеллекта (Закон об искусственном интеллекте) и вносящее поправки в некоторые законодательные акты Союза. 21 апреля 2021. Европейская комиссия. КОМ (2021) 206 финал. Ссылка / Приложение I к предложению о Регламенте AI Европейской комиссии (2021 г.)
Государственная структура
- Органический закон 3/2018 от 5 декабря о защите персональных данных и гарантии цифровых прав («ЛОПДГДД"). Ссылка
- Соблюдение RGPD процедур, включающих искусственный интеллект. Введение Февраль 2020. АЭПД. Ссылка
- Закон 15/2022 от 12 июля, всеобъемлющий о равном обращении и недискриминации. Ссылка
Каталонский каркас