Вызов
Как добиться доверия пользователей к цифровым государственным услугам, использующим данные и алгоритмы искусственного интеллекта, обеспечивая при этом их ответственное, безопасное и справедливое использование.
Предлагаемое решение: каждый цифровой сервис должен включать на своей главной странице и на Портале Transparència От ответственного органа должен быть предоставлен понятный отчет о работе системы и о том, какое влияние она может оказать на людей.
→ Посмотреть шаблон отчета в формате PDF transparència алгоритм AOC (обновлено 11.07.2025)
Проблема и текущий контекст
Искусственный интеллект (ИИ) стал неотъемлемой частью нашей повседневной жизни. Правительства используют его, например, для улучшения доступности и качества государственных услуг, оптимизации процессов или управления общественным пространством.
Алгоритмы являются основой систем искусственного интеллекта и часто действуют как «черные ящики» для людей, которые их используют и влияют на них. Чтобы этого не произошло, важно, чтобы алгоритмы были понятны пользователям, чтобы они могли понять, как было достигнуто определенное решение и почему это решение принято. Тем более в случае правительства, которое может функционировать только тогда, когда между ним и обществом существует доверие. Хорошая администрация должна позволять всем гражданам понимать причины решений и иметь возможность оспаривать их.
В демократических государствах доверие гарантируется многочисленными правовыми гарантиями. Что касается обязанности обеспечивать прозрачность алгоритмов ИИ, используемых в цифровых государственных услугах, закон устанавливает право граждан на получение объяснения автоматизированных решений (GDPR) и предусматривает создание «механизмов», позволяющих алгоритмам, участвующим в принятии решений, учитывать критерии transparència и объяснимости (Всеобъемлющий закон 15/2022 о равном обращении и недискриминации), но не устанавливает какого-либо конкретного механизма или правового инструмента для этого. Он лишь дает рекомендации и оставляет организациям право по своему усмотрению выбирать наиболее подходящий инструмент для:
- предоставлять содержательную информацию о логике используемых алгоритмов, а также об ожидаемых последствиях, которая должна быть четкой и с использованием понятного языка,
- позволить людям понять, почему алгоритм дал определенный результат, а также указать орган, в котором они могут обжаловать свои конкретные решения или оспорить его общую работу,
- открыть алгоритмы для демократического контроля.
Ввиду отсутствия конкретных механизмов, методов или способов достижения transparència В 2023 году AOC провела исследование с целью поиска стандартизированных форм алгоритмического подхода. transparència и уделять первостепенное внимание пониманию алгоритмов, которые мы применяем в наших сервисах цифрового администрирования.
Именно здесь проявляется инициатива transparència алгоритм, который мы представляем.
Предложенное решение
La transparència Разработка и использование ИИ является важнейшим вопросом, обеспечивающим ответственное и справедливое применение этой технологии по отношению к обществу.
В качестве средства достижения transparència алгоритмический, AOC предлагает, чтобы каждый цифровой сервис включал на своей главной странице и на портале следующую информацию: Transparència От ответственного органа — понятный отчет о работе системы и используемых ею алгоритмах..
Эта инициатива призвана стать инструментом для:
- помочь людям понять, как работают алгоритмы, используемые в органах местного самоуправления, какова их цель и как они могут на них влиять,
- обеспечить transparència имеют смысл, представлены в стандартизированном виде и позволяют сравнивать различные алгоритмы.
- облегчить каждому возможность высказать свое мнение и участвовать в создании человеко-ориентированных алгоритмов.
Кроме того, хотя инициатива в основном сосредоточена на системах искусственного интеллекта, также включает отчеты о transparència для детерминированных алгоритмов в ответственных сценариях использования, такие как сложные системы автоматизации для широкомасштабной социальной помощи, следуя критерию, что они также могут оказывать соответствующее воздействие на людей.
→ Посмотреть шаблон отчета в формате PDF transparència алгоритм AOC (обновлено 11.07.2025)
Содержание отчета
Каждый отчет о transparència Алгоритм содержит:
- проблема, которую необходимо решить с помощью рассматриваемого алгоритма,
- объяснение характеристик алгоритма, а также его работы,
- группы, на которые может повлиять алгоритм,
- Оценка уровня риска алгоритмической системы на основе:
- проведенный анализ рисков или оценка воздействия на основные права (в зависимости от ситуации) для определения возможных дискриминационных предубеждений алгоритма.
- анализ рисков безопасности системы, который был выполнен для выявления возможных непредвиденных обстоятельств доступности и безопасности системы, содержащей алгоритм,
- la управление рисками принятые меры и принятые меры гарантировать соблюдение основных прав,
- орган, в котором можно обжаловать отдельные решения алгоритма или оспорить его общую работу, когда этого требует закон,
- контактные данные ответственного лица и поставщика алгоритма.
Как определялось содержание отчета
Для определения содержания отчетов transparència В 2023 году команда по инновациям и данным AOC при поддержке юридической службы провела исследование, включавшее в себя:
- Una анализ существующих на тот момент правил в котором предмет transparència автоматизированных решений, принимаемых алгоритмами ИИ, с особым вниманием к следующим правилам:
- Европейский регламент защиты данных (RGPD)
- Предложение о Регламенте Совета Европы об использовании искусственного интеллекта (Закон об ИИ)
- Закон 40/2015 о правовом режиме государственного сектора (LRJSP) и Правила функционирования государственного сектора с помощью электронных средств (RD 203/2021)
- Комплексный закон 15/2022 о равном обращении и недискриминации
- Документы, предлагающие рекомендации и руководства для достижения безопасного и надежного ИИ. Следует отметить:
- Этические рекомендации для надежного ИИ от Экспертной группы высокого уровня Европейской комиссии по ИИ (апрель 2019 г.)
- Доклад Комиссара Совета Европы по правам человека «Распаковка искусственного интеллекта: 10 шагов к защите прав человека» (май 2019 г.)
- Принципы ответственного управления доверенным искусственным интеллектом из Рекомендации Совета по искусственному интеллекту ОЭСР (май 2019 г.)
- Отчет APDCAT «Автоматизированные решения в Каталонии» (январь 2020 г.)
- Европейская декларация о цифровых правах и принципах цифрового десятилетия (январь 2023 г.)
- Инструмент NIST для управления рисками в области искусственного интеллекта (январь 2023 г.)
- Они также были исследованы инициативы transparència алгоритмический подход различных администраций, которые находились в стадии разработки или были недавно реализованы. Стоит отметить:
- Реестр искусственного интеллекта городов Хельсинки и Амстердам – внедрен
- Стандарт transparència Внедрен алгоритм Eurocities, основанный на британском стандарте.
- Предложение по рамочной программе этической работы для алгоритмов Женералитата Каталонии (май 2021 г.)
- Модель регистрации по муниципальному алгоритму, разработанная городским советом Барселоны, основана на стандарте transparència Из Eurocities (январь 2023 г.)
- Коллекция алгоритмов ИИ из Каталонской системы здравоохранения (SISCAT) и исследовательских центров Каталонии в рамках Обсерватории ИИ в здравоохранении Фонда TIC Salut Social (декабрь 2022 г.)
- Радар алгоритмов ИИ Таблицы субъектов Третьего социального сектора Каталонии (январь 2024 г.)
Выводы исследования
В рамках Европейской декларации о цифровых правах и принципах цифрового десятилетия государства-члены Европейского союза обязуются обеспечить адекватный уровень transparència в использовании алгоритмов и искусственного интеллекта, а также для того, чтобы люди были информированы и обучены их использованию при взаимодействии с ними.
Для соблюдения требования transparència В системах искусственного интеллекта государственных администраций действующие правила определяют информацию, которая должна предоставляться в зависимости от конкретного случая. [1], но не определяет «конкретный» механизм, стандартизированный формат или юридический инструмент для этого; хотя:
- Регламент ИИ устанавливает требование вести учет всей соответствующей информации о системах ИИ высокого риска (ст. 17);
- Закон 15/2022 о равном обращении и недискриминации говорит о содействии внедрению «механизмов», позволяющих алгоритмам, участвующим в принятии решений, учитывать критерии минимизации предвзятости. transparència и подотчетность (статья 23);
- Положение о функционировании государственного сектора с помощью электронных средств устанавливает обязанность публиковать на своем веб-сайте список автоматизированных административных действий (ААА), которые могут включать или не включать использование алгоритмов ИИ, и сопровождать каждое ААА описание его конструкции и работы (ст. 11).
Мы изучили различные инициативы, продвигаемые европейскими местными и региональными органами власти, чтобы найти стандартизированный способ, позволяющий нам соответствовать требованиям. transparència алгоритмов искусственного интеллекта, которые мы применяем в наших сервисах цифрового администрирования.
Среди всех изученных инициатив и в соответствии с действующими юридическими обязательствами мы пришли к выводу, что публикация отчетов transparència алгоритмический на Портале Transparència это быстрое и простое решение что способствует соблюдению требований transparència установлено в правилах i позволяет завоевать доверие пользователей в системах ИИ государственного управления.
Исследование также позволило нам определить, какую соответствующую информацию необходимо предоставить о государственных услугах на основе ИИ, чтобы пользователи могли понять, как алгоритмы принимают решения и как эти решения проверяются. С другой стороны, исследование привело нас к разработке гибкой и практичной методологии для выявления и анализа наиболее вероятных рисков, связанных с использованием алгоритмов ИИ в отношении основные права, и связать их с мерами, которые необходимо будет применять в каждом конкретном случае, чтобы гарантировать соблюдение этих прав.
Методология управления рисками, ориентированная на защиту основных прав
Чтобы гарантировать надежный, этичный и безопасный ИИ в государственных службах, AOC разработала собственную методологию управления рисками. Эта методология, ориентированная на защиту основных прав, рассматривает возможные риски, которые могут повлиять на граждан, и подробно описывает, как их можно смягчить или свести к минимуму. Методология состоит из трех основных этапов, каждый из которых имеет прочную основу в международных правилах и руководствах.
-
Шаг 1: Определение основополагающих принципов и прав, подлежащих защите
Чтобы гарантировать, что ИИ уважает демократические ценности, мы опираемся на Хартию основных прав Европейского Союза, которая помогает нам определить основные группы прав и принципов, на которые может повлиять ИИ. Это:- А) Равенство и недискриминация
- Б) Защита данных и конфиденциальность
- В) Безопасность и надежность.
- D) Transparència и объяснимость
- E) Хранение счетов и возможность проверки
- F) Устойчивое развитие и солидарность
-
Шаг 2: Идентификация сопутствующих рисков и их связи с принципами и правами, подлежащими защите.
Чтобы выявить наиболее распространенные риски при использовании ИИ, AOC принялСтруктура управления рисками искусственного интеллекта (AI RMF 1.0) от NIST, который связывает потенциальные риски с вышеупомянутыми принципами и правами. Этот подход позволяет определить, какие риски могут поставить под угрозу каждую из групп основных прав, тем самым помогая предвидеть и решать такие проблемы, как дискриминация, конфиденциальность или безопасность. - Шаг 3: Определение мер по управлению рисками
Чтобы определить механизмы и гарантии, которые могут быть более подходящими и эффективными в каждом конкретном случае во избежание нарушения основополагающих принципов и прав, мы опирались на главу II Этические рекомендации для доверенного ИИ Европейской комиссии, а также в недавно утвержденном Регламенте ИИ (обязательное применение с 2 февраля 8 г.), чтобы механизмы определялись на основе уровня риска системы ИИ и для определенных систем или моделей ИИ. Например:- высокий риск: при соблюдении определенных требований безопасности и охраны transparènciaа также обязанность провести оценку воздействия на основные права до развертывания системы (статья 27).
- Ограниченный рискминимальные обязательства transparència это позволит пользователям принимать обоснованные решения и быть внимательными при взаимодействии с ИИ.
Эта методология помогает нам поддерживать прозрачную, безопасную и ориентированную на защиту фундаментальных прав систему искусственного интеллекта.
→ Для получения более подробной информации вы можете ознакомиться с полным текстом документа: Методология управления рисками в системах искусственного интеллекта AOC (PDF)
→ В презентация (PPT, 7) вы можете увидеть сводную таблицу трех этапов методологии управления рисками AOC.
Опубликованные отчеты:
- Диалоговые чат-боты AOC (26) – опубликовано на Портале Transparència АОС
- Видеоидентификация для полученияidCat Мобильная версия (02.02.2024)
- Автоматизация отчета об энергетической бедности (5 мая 2 г.) (Данная услуга не использует искусственный интеллект, но отчет подготовлен) transparència Поскольку это деликатный сценарий использования RPA (роботизированной автоматизации процессов), потенциально оказывающий прямое воздействие на людей, считается целесообразным гарантировать максимальную эффективность. transparència(понимание и доверие к производительности алгоритмов, независимо от того, основаны они на искусственном интеллекте или нет)
- Чат-боты с генеративным ИИ от AOC (26.11.2024) – опубликовано на Портале Transparència Доступ к AOC осуществляется с главной страницы каждого чат-бота.
Статус проекта
В производствеБыло опубликовано четыре отчета. transparència алгоритмический.
Дополнительная информация
Реализованные практические кейсы:
- Реестр искусственного интеллекта города Хельсинки – Реестр искусственного интеллекта города Хельсинки
- Алгоритмический стандарт Великобритании – Отчеты об алгоритмической прозрачности
- Реестр алгоритмов искусственного интеллекта городского совета Таррагоны
Кейсы на стадии разработки:
- Модель регистрации муниципального алгоритма от городского совета Барселоны (январь 2023 г.)
Библиографические ссылки:
- Документ "Определение ИИ: основные возможности и дисциплины” Экспертной группы высокого уровня Европейской комиссии по ИИ (апрель 2019 г.)
- Этические принципы для надежного ИИ, от Экспертной группы высокого уровня Европейской комиссии по ИИ (апрель 2019 г.)
- Рекомендация Совета по искусственному интеллекту ОЭСР (май 2019 г.)
- Отчет Распаковка искусственного интеллекта: 10 шагов к защите прав человека от Комиссара по правам человека Совета Европы (май 2019 г. – ошибка)
- Отчет "ИИ в госуслугах” AI Watch, CE (2020)
- Отчет "Автоматизированные решения в Каталонии» APDCAT (январь 2020 г.)
- Руководство по внедрению искусственного интеллекта и самооценке для организаций (ISAGO) из Сингапура (январь 2020 г.)
- Информационный документ Публичные регистры ИИиз городов Амстердам и Хельсинки, Saidot Ltd (сентябрь 2020 г.)
- Государственная мера муниципальной стратегии алгоритмов и данных для этического импульса ИИ, от городского совета Барселоны (апрель 2021 г. – ошибка)
- Оценка воздействия фундаментальных прав и алгоритмов (FRAIA) из Нидерландов (июль 2021 г.)
- Закон 1/2022 от 13 апреля Transparència и надлежащее управление Валенсийским сообществом (статья 16 Информация, имеющая юридическую значимость). Ссылка
- Отчет Искусственный интеллект в государственном секторе изОЭСР-OPSI (июль 2022 г. – ошибка)
- Руководство по объяснимости в искусственном интеллекте, от Социального фонда ТИЦ «Салют» (декабрь 2022 г.)]
- Система управления рисками ИИ из NIST (январь 2023 г. – ошибка)
- Инструмент алгоритмической оценки воздействия Канады (апрель 2023 г.)
- Модель самооценки PIO Обсерватории этики Каталонии (OEIAC)
- Том 9. Сборник материалов по теме «Открытое правительство»: Transparència алгоритмические в государственном секторе Женералитата Каталонии (март 2023 г.)
- Я изучал Радар с алгоритмом искусственного интеллекта изТаблица организаций третьего социального сектора Каталонии (январь 2024 г.)
Правовые обязательства:
Европейская структура
- Регламент (ЕС) 2016/679 Европейского парламента и Совета от 27 апреля 2016 г., касающийся защиты физических лиц в отношении обработки персональных данных и свободного обращения таких данных, которым отменяется Директива 95. /46/ЕС («RGPD»). Ссылка
- Руководство по автоматизированным индивидуальным решениям и профилированию для целей Регламента 2016/679. Принято 3 октября 2017 г. и в последний раз пересмотрено и принято 6 февраля 2018 г. Рабочая группа по защите данных, статья 29 Директивы 95/46/ЕС. Ссылка
- Постановление Европейского парламента и Совета, устанавливающее гармонизированные правила в области искусственного интеллекта (Закон об ИИ) и вносятся изменения в некоторые законодательные акты Союза. 12. Ссылка
Государственная структура
- Органический закон 3/2018 от 5 декабря о защите персональных данных и гарантии цифровых прав («ЛОПДГДД»). Ссылка
- Соблюдение RGPD процедур, включающих искусственный интеллект. Введение Февраль 2020. АЭПД. Ссылка
- Закон 15/2022 от 12 июля, всеобъемлющий о равном обращении и недискриминации. Ссылка
Каталонский каркас
- Закон 19/2014 от 29 декабря transparènciaдоступ к общедоступной информации и надлежащее управление. Ссылка
- Указ 76/2020 от 4 августа о цифровом управлении. Ссылка
[1] Например, Регламент об искусственном интеллекте определяет информацию, которая должна предоставляться в отношении определенных систем ИИ (статья 50); GDPR определяет информацию, которая должна предоставляться субъекту данных.eresкогда принимаются автоматизированные решения (статья 13); и LRJSP устанавливает обязанность информировать орган, ответственный за автоматизированное административное действие в электронном офисе, для целей обжалования (статья 41).