تحد
كيفية تحقيق ثقة المستخدمين في الخدمات الحكومية الرقمية التي تستخدم البيانات وخوارزميات الذكاء الاصطناعي، مع ضمان استخدامها المسؤول والآمن والعادل.
المشكلة والسياق الحالي
أصبح الذكاء الاصطناعي (AI) جزءًا لا يتجزأ من حياتنا اليومية. تستخدمه الحكومات لتحسين إمكانية الوصول إلى الخدمات العامة وتجربتها ، أو تحسين العمليات أو إدارة الأماكن العامة ، على سبيل المثال.
تعد الخوارزميات أساس أنظمة الذكاء الاصطناعي وغالبًا ما تعمل مثل "الصناديق السوداء" للأشخاص الذين يستخدمونها ويؤثرون عليها. لمنع حدوث ذلك ، من الضروري أن يفهم المستخدمون الخوارزميات ، وأن يفهموا كيف تم التوصل إلى قرار معين ولماذا يتم اتخاذ هذا القرار. أكثر من ذلك في حالة الحكومة ، التي لا يمكن أن تعمل إلا عندما تكون هناك ثقة بينها وبين الجمهور. يجب أن تسمح الإدارة الجيدة لجميع المواطنين بفهم أسباب القرارات وإمكانية الطعن فيها.
في الحكومات الديمقراطية ، يتم ضمان الثقة من خلال العديد من الضمانات القانونية. فيما يتعلق بالالتزام بجعل خوارزميات الذكاء الاصطناعي المستخدمة في الخدمات الحكومية الرقمية شفافة ، ينص القانون على حق الأفراد في الحصول على تفسير للقرارات الآلية (RGPD) وينص على إنشاء "آليات" بحيث يمكن للخوارزميات المشاركة في اتخاذ القرار - مراعاة معايير الشفافية وقابلية التفسير (القانون الشامل 15/2022 للمساواة في المعاملة وعدم التمييز) ، لكنه لا ينشئ أي آلية محددة أو أداة قانونية للقيام بذلك - إنه يعطي توصيات فقط ويترك الأمر للمنظمات للعثور على الأداة الأنسب لـ:
- توفير معلومات مفيدة حول منطق الخوارزميات المستخدمة وكذلك النتائج المتوقعة ، والتي تكون واضحة وتستخدم لغة مفهومة ،
- السماح للأشخاص بفهم سبب إعطاء الخوارزمية نتيجة معينة، بالإضافة إلى الإشارة إلى الهيئة التي يمكنهم من خلالها استئناف قراراتهم الخاصة أو الاعتراض على عملها العام،
- فتح الخوارزميات للسيطرة الديمقراطية.
نظرًا لعدم وجود آليات أو تقنيات أو طرق ملموسة لتحقيق الشفافية الخوارزمية ، أجرت AOC دراسة من أجل البحث عن أشكال موحدة للشفافية وإعطاء الأولوية لفهم الخوارزميات التي نطبقها على خدماتنا الإدارية الرقمية.
هذا هو المكان الذي تأتي منه مبادرة الشفافية الحسابية التي نقدمها.
الحل المقترح
تعد الشفافية في تطوير واستخدام الذكاء الاصطناعي مسألة حاسمة لضمان استخدام هذه التكنولوجيا بشكل مسؤول وعادل تجاه المجتمع.
كوسيلة لتحقيق الشفافية الحسابية ، تقترح AOC نشر تقارير مفهومة لكل خوارزمية على بوابة الشفافية تطبق على خدمات الإدارة الرقمية.
تهدف هذه المبادرة إلى أن تكون أداة من أجل:
- مساعدة الأشخاص على فهم كيفية عمل الخوارزميات المستخدمة في الحكومة المحلية والغرض منها،
- توفير شفافية كبيرة بطريقة موحدة والسماح بإجراء مقارنة بين الخوارزميات المختلفة،
- تجعل من السهل على الجميع إبداء آرائهم والمشاركة في إنشاء خوارزميات تتمحور حول الإنسان.
وعلاوة على ذلك، على الرغم من أن المبادرة تركز بشكل أساسي على أنظمة الذكاء الاصطناعي، يتضمن أيضًا تقارير الشفافية للخوارزميات الحتمية في حالات الاستخدام الحساسة، مثل أنظمة الأتمتة المعقدة للمساعدات الاجتماعية واسعة النطاق، وفقًا للمعيار الذي يجعلها قادرة أيضًا على إحداث تأثير ذي صلة على الناس.
محتوى الملف
تحتوي كل علامة تبويب شفافية خوارزمية على:
- المشكلة التي يجب حلها باستخدام الخوارزمية المعنية،
- شرح خصائص الخوارزمية وكذلك عملها،
- المجموعات التي قد تتأثر بالخوارزمية،
- تحليل المخاطر أو تقييم تأثير حماية البيانات الذي تم إجراؤه (حسب الاقتضاء) لتحديد التحيزات التمييزية المحتملة للخوارزمية،
- تحليل المخاطر الأمنية للنظام الذي تم إجراؤه لتحديد الحالات الطارئة المحتملة لتوافر وأمن النظام الذي يحتوي على الخوارزمية،
- la إدارة المخاطر المتخذة والتدابير المطبقة لضمان الامتثال للحقوق الأساسية,
- الهيئة التي يمكن أمامها الاستئناف ضد قرارات معينة للخوارزمية أو الاعتراض على عملها العام عندما يتطلب القانون ذلك،
- تفاصيل الاتصال بالشخص المسؤول ومورد الخوارزمية.
→ انظر نموذج ورقة الشفافية الخوارزمية AOC (قوات الدفاع الشعبي)
كيف تم تحديد محتوى الملف
لتحديد محتوى ملفات الشفافية الخوارزمية ، أجرى فريق الابتكار والبيانات ، بدعم من الخدمات القانونية في AOC ، دراسة تشمل:
- ل تحليل اللوائح الحالية التي تتناول مسألة شفافية القرارات الآلية التي تتخذها خوارزميات الذكاء الاصطناعي ، مع إيلاء اهتمام خاص لما يلي:
- لائحة حماية البيانات الأوروبية (RGPD)
- لائحة استخدام الذكاء الاصطناعي لمجلس أوروبا (قانون الذكاء الاصطناعي)
- القانون رقم 40/2015 بشأن النظام القانوني للقطاع العام (LRJSP) ولوائح أداء وتشغيل القطاع العام بالوسائل الإلكترونية (RD 203/2021)
- القانون الشامل 15/2022 للمساواة في المعاملة وعدم التمييز
- المستندات التي توفر إرشادات وإرشادات لتحقيق ذكاء اصطناعي آمن وموثوق. يجب ملاحظة ذلك:
- المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي الموثوق به ، من فريق الخبراء رفيعي المستوى التابع للمفوضية الأوروبية بشأن الذكاء الاصطناعي (أبريل 2019)
- تقرير "فتح علبة الذكاء الاصطناعي: 10 خطوات لحماية حقوق الإنسان" من قبل مفوض حقوق الإنسان في مجلس أوروبا (مايو 2019)
- مبادئ الإدارة المسؤولة للذكاء الاصطناعي الموثوق به من توصية مجلس الذكاء الاصطناعي التابع لمنظمة التعاون الاقتصادي والتنمية (مايو 2019)
- تقرير APDCAT "القرارات المؤتمتة في كاتالونيا" (يناير 2020)
- الإعلان الأوروبي بشأن الحقوق والمبادئ الرقمية للعقد الرقمي (يناير 2023)
- أداة إطار عمل إدارة مخاطر الذكاء الاصطناعي NIST (يناير 2023)
- كما تم استكشافها مبادرات الشفافية الحسابية للإدارات المختلفة، والتي هي في مرحلة التطوير. يجب ملاحظة ذلك:
- سجل خوارزميات مدينة أمستردام – تم التنفيذ
- سجل الذكاء الاصطناعي لمدينة هلسنكي – تم التنفيذ
- تم تطبيق معيار الشفافية الخوارزمي الخاص بـ Eurocities، استنادًا إلى معيار المملكة المتحدة
- سجل الخوارزميات البلدية لمجلس مدينة برشلونة
- سجل خوارزميات مؤسسة الصحة الاجتماعية لتكنولوجيا المعلومات والاتصالات
- رادار خوارزميات الذكاء الاصطناعي لجدول كيانات القطاع الاجتماعي الثالث في كاتالونيا
- اقتراح لإطار عمل أخلاقي لخوارزميات حكومة كاتالونيا العامة
استنتاجات الدراسة
تتعهد الدول الأعضاء في الاتحاد الأوروبي ، من خلال الإعلان الأوروبي بشأن الحقوق والمبادئ الرقمية للعقد الرقمي ، بضمان مستوى كافٍ من الشفافية في استخدام الخوارزميات والذكاء الاصطناعي ، ولأن الناس مُعلمين ومُدرَّبين على استخدامها عندما تتفاعل معهم.
من أجل الامتثال لمتطلبات الشفافية في أنظمة الذكاء الاصطناعي للإدارات العامة، تحدد اللوائح الحالية المعلومات التي يجب تقديمها وفقًا للحالات [1]ولكنها لا تحدد آلية "ملموسة" أو شكلًا موحدًا أو صكًا قانونيًا للقيام بذلك؛ بالرغم من:
- تنص لائحة الذكاء الاصطناعي على ضرورة الاحتفاظ بسجل لجميع المعلومات ذات الصلة بأنظمة الذكاء الاصطناعي عالية المخاطر (المادة 17)؛
- ويتحدث القانون الشامل 15/2022 للمساواة في المعاملة وعدم التمييز عن تفضيل تنفيذ "آليات" بحيث تأخذ الخوارزميات المشاركة في صنع القرار في الاعتبار معايير التقليل من التحيز والشفافية وتسليم الحسابات (المادة 23)؛
- تنص اللائحة التنظيمية المتعلقة بأداء وتشغيل القطاع العام بالوسائل الإلكترونية على الالتزام بنشر قائمة الإجراءات الإدارية الآلية (AAA) على موقعه الإلكتروني - والتي قد تتضمن أو لا تتضمن استخدام خوارزميات الذكاء الاصطناعي -، وأن تصاحب كل إجراءات إدارية آلية (AAA) وصف لتصميمه وتشغيله (المادة 11).
لقد استكشفنا المبادرات المختلفة التي يتم الترويج لها من قبل الحكومات المحلية والإقليمية الأوروبية، من أجل إيجاد طريقة موحدة تسمح لنا بالامتثال لمتطلبات الشفافية في خوارزميات الذكاء الاصطناعي التي نطبقها على خدماتنا الحكومية الرقمية.
من بين جميع المبادرات التي تم استكشافها ووفقًا للالتزامات القانونية السارية ، توصلنا إلى استنتاج مفاده أن نشر تقارير الشفافية الخوارزمية على بوابة الشفافية انه حل سريع وبسيط أن يسهل الامتثال لمتطلبات الشفافية المنصوص عليها في اللوائح i يسمح لكسب ثقة المستخدمين في أنظمة الذكاء الاصطناعي للإدارات العامة.
أتاحت لنا الدراسة أيضًا تحديد المعلومات ذات الصلة التي يجب تقديمها حول الخدمات العامة القائمة على الذكاء الاصطناعي حتى يتمكن المستخدمون من فهم كيفية اتخاذ الخوارزميات للقرارات وكيفية التحقق من تلك القرارات. بخلاف ذلك، قادتنا الدراسة إلى تطوير منهجية رشيقة وعملية لتحديد وتحليل المخاطر الأكثر احتمالاً التي ينطوي عليها استخدام خوارزميات الذكاء الاصطناعي فيما يتعلق الحقوق الأساسيةوربطها بالتدابير التي يجب تطبيقها في كل حالة لضمان الامتثال لهذه الحقوق.
تركز منهجية إدارة المخاطر على حماية الحقوق الأساسية
ولضمان الاعتماد على الذكاء الاصطناعي والأخلاقي والآمن في الخدمات العامة، طورت AOC منهجيتها الخاصة لإدارة المخاطر. تتناول هذه المنهجية، التي تركز على حماية الحقوق الأساسية، المخاطر المحتملة التي قد تؤثر على المواطنين وتشرح بالتفصيل كيفية التخفيف منها أو التقليل منها. وتتكون المنهجية من ثلاث خطوات رئيسية، لكل منها أساس متين في اللوائح والمبادئ التوجيهية الدولية.
-
الخطوة 1: تحديد المبادئ والحقوق الأساسية التي يجب حمايتها
ولضمان أن يحترم الذكاء الاصطناعي القيم الديمقراطية، اعتمدنا على ميثاق الحقوق الأساسية للاتحاد الأوروبي، الذي يساعدنا في تحديد المجموعات الرئيسية للحقوق والمبادئ التي قد تتأثر بالذكاء الاصطناعي. هذه هي:- أ) المساواة وعدم التمييز
- ب) حماية البيانات والخصوصية
- ج) السلامة والمتانة
- د) الشفافية وقابلية الشرح
- هـ) الاحتفاظ بالحسابات وقابلية التدقيق
- و) التنمية المستدامة والتضامن
-
الخطوة الثانية: تحديد المخاطر المرتبطة بها وعلاقتها بالمبادئ والحقوق الواجب حمايتها
لتحديد المخاطر الأكثر شيوعًا في استخدام الذكاء الاصطناعي، اعتمدت AOCإطار إدارة مخاطر الذكاء الاصطناعي (AI RMF 1.0) من NIST، والذي يربط المخاطر المحتملة بالمبادئ والحقوق المذكورة أعلاه. يتيح هذا النهج تحديد المخاطر التي يمكن أن تعرض للخطر كل عائلة من عائلات الحقوق الأساسية، مما يساعد على توقع وإدارة المشاكل مثل التمييز أو الخصوصية أو الأمن. - الخطوة 3: تحديد تدابير إدارة المخاطر
ولتحديد الآليات والضمانات التي قد تكون أكثر ملاءمة وفعالية في كل حالة لتجنب انتهاك المبادئ والحقوق الأساسية، اعتمدنا على الفصل الثاني من المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي الموثوق به التابعة للمفوضية الأوروبية، وفي لائحة الذكاء الاصطناعي التي تمت الموافقة عليها مؤخرًا (التطبيق الإلزامي اعتبارًا من 2/8/2026)، بحيث يتم تحديد الآليات بناءً على مستوى خطورة نظام الذكاء الاصطناعي ولأنظمة أو نماذج معينة للذكاء الاصطناعي. على سبيل المثال:- مخاطر عالية: رهناً بمتطلبات محددة تتعلق بالأمن والشفافية، والالتزام بإجراء تقييم الأثر المتعلق بالحقوق الأساسية قبل نشر النظام (المادة 27)
- مخاطر محدودة: الحد الأدنى من التزامات الشفافية للسماح للمستخدمين باتخاذ قرارات مستنيرة والوعي عند التفاعل مع الذكاء الاصطناعي.
تساعدنا هذه المنهجية في الحفاظ على نظام ذكاء اصطناعي يتسم بالشفافية والأمان والالتزام بحماية الحقوق الأساسية.
→ في عرض تقديمي (PPT، 7/11/2024) يمكنك الاطلاع على جدول ملخص للخطوات الثلاث لمنهجية إدارة المخاطر الخاصة بشركة AOC.
التقارير المنشورة:
- روبوتات المحادثة الخاصة بشركة AOC - منشور على بوابة الشفافية AOC (26/5/2023)
- التعريف بالفيديو للحصول على Mobile idCat (2/2/2024)
- أتمتة تقرير فقر الطاقة (5/2/2024) (لا تتضمن هذه الخوارزمية الذكاء الاصطناعي، ولكن تم إعداد تقرير الشفافية لأنه حالة استخدام حساسة لـ RPA (أتمتة العمليات الروبوتية) مع تأثير محتمل على الأشخاص، بما يتماشى مع المعايير المطبقة على أنظمة الأتمتة المعقدة الأخرى)
- Chatbots مع الذكاء الاصطناعي التوليدي من AOC - منشور على بوابة الشفافية AOC (26/11/2024)
حالة المشروع
في الانتاج. لقد تم نشر أربعة تقارير حول الشفافية الخوارزمية.
معلومات اكثر
حالات عملية تم تنفيذها:
- سجل خوارزميات مدينة أمستردام - أمستردام Algoritmeregister
- سجل الذكاء الاصطناعي لمدينة هلسنكي - مدينة هلسنكي سجل منظمة العفو الدولية
- المعيار الخوارزمي في المملكة المتحدة – تقارير الشفافية الخوارزمية
- سجل خوارزميات الذكاء الاصطناعي لمجلس مدينة تاراغونا
الحالات في مرحلة التطوير:
- تسجيل الخوارزميات البلدية من مجلس مدينة برشلونة
- سجل أدوات الذكاء الاصطناعي (المخزون) مؤسسة الصحة الاجتماعية TIC
- رادار خوارزمية الذكاء الاصطناعي دي لجدول كيانات القطاع الاجتماعي الثالث في كاتالونيا
- إطار عمل الاقتراح لأخلاقيات الخوارزميات، من DGAD - ولاية كاتالونيا العامة
المراجع الببليوجرافية:
- وثيقة "تعريف الذكاء الاصطناعي: القدرات والتخصصات الرئيسية"من قبل فريق الخبراء رفيعي المستوى التابع للمفوضية الأوروبية بشأن الذكاء الاصطناعي (أبريل 2019)
- المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي الموثوق به، من فريق الخبراء رفيعي المستوى التابع للمفوضية الأوروبية بشأن الذكاء الاصطناعي (أبريل 2019)
- توصية المجلس بشأن الذكاء الاصطناعي منظمة التعاون الاقتصادي والتنمية (مايو 2019)
- تقرير فتح صندوق الذكاء الاصطناعي: 10 خطوات لحماية حقوق الإنسان مفوض حقوق الإنسان في مجلس أوروبا (مايو 2019)
- تقرير "الذكاء الاصطناعي في الخدمات العامة"بواسطة AI Watch، CE (2020)
- تقرير "قرارات آلية في كاتالونيا"APDCAT (يناير 2020)
- دليل تنفيذ الذكاء الاصطناعي والتقييم الذاتي للمؤسسة (ISAGO) من سنغافورة (يناير 2020)
- سجلات منظمة العفو الدولية العامة ورقة العمل، من مدن أمستردام وهلسنكي وسايدوت المحدودة (سبتمبر 2020)
- مقياس الحكومة لاستراتيجية البلدية للخوارزميات والبيانات من أجل الدافع الأخلاقي للذكاء الاصطناعيمن مجلس مدينة برشلونة (أبريل 2021)
- تقييم تأثير الحقوق الأساسية والخوارزميات (FRAIA) من هولندا (يوليو 2021)
- القانون رقم 1/2022 الصادر في 13 أبريل / نيسان بشأن الشفافية والحكومة الرشيدة لمجتمع فالنسيا (المادة 16 المعلومات ذات الأهمية القانونية) وصلة
- تقرير الذكاء الاصطناعي في القطاع العام دي L 'منظمة التعاون الاقتصادي والتنمية-OPSI (يوليو 2022)
- دليل حول القابلية للتفسير في الذكاء الاصطناعي، من TIC Salut Social Foundation (ديسمبر 2022)]
- إطار إدارة مخاطر الذكاء الاصطناعي من NIST (يناير 2023)
- أداة تقييم الأثر الخوارزمي كندا (أبريل 2023)
- نموذج التقييم الذاتي لـ PIO مرصد الأخلاقيات في الذكاء الاصطناعي في كاتالونيا (OEIAC)
- المجلد 9 مجموعة الحكومة المفتوحة: الشفافية الخوارزمية في القطاع العام ولاية كتالونيا (مارس 2023)
الإلتزامات القانونية:
الإطار الأوروبي
- اللائحة (الاتحاد الأوروبي) 2016/679 للبرلمان الأوروبي والمجلس الأوروبي ، بتاريخ 27 أبريل 2016 ، المتعلقة بحماية الأشخاص الطبيعيين فيما يتعلق بمعالجة البيانات الشخصية وحرية نقل هذه البيانات والتي بموجبها تلغي التوجيه 95 / 46 / EC ("RGPD"). وصلة
- مبادئ توجيهية بشأن القرارات الفردية الآلية والتنميط لأغراض اللائحة 2016/679. تم اعتماده في 3 أكتوبر 2017 وتم تنقيحه للمرة الأخيرة وتم اعتماده في 6 فبراير 2018. الفريق العامل المعني بحماية البيانات المادة 29 من التوجيه 95/46 / EC. وصلة
- لائحة البرلمان الأوروبي والمجلس التي تضع قواعد منسقة بشأن الذكاء الاصطناعي (قانون AI) ويتم تعديل بعض القوانين التشريعية للاتحاد. 12/7/2024. وصلة
إطار الدولة
- القانون الأساسي 3/2018 المؤرخ 5 ديسمبر بشأن حماية البيانات الشخصية وضمان الحقوق الرقمية ("لوبدجد"). وصلة
- الامتثال لـ RGPD للعلاجات التي تتضمن الذكاء الاصطناعي. مقدمة فبراير 2020. AEPD. وصلة
- القانون رقم 15/2022 الصادر في 12 يوليو ، الشامل للمساواة في المعاملة وعدم التمييز. وصلة
الإطار الكاتالوني
- القانون رقم 19/2014 المؤرخ 29 ديسمبر بشأن الشفافية والوصول إلى المعلومات العامة والحكم الرشيد. وصلة
- المرسوم 76/2020 ، 4 أغسطس ، بشأن الإدارة الرقمية. وصلة
[1] على سبيل المثال، تحدد لائحة الذكاء الاصطناعي المعلومات التي يجب تقديمها فيما يتعلق بأنظمة معينة للذكاء الاصطناعي (المادة 50)؛ تحدد RGPD المعلومات التي يجب تقديمها للشخص المعني عندما تكون هناك قرارات آلية (المادة 13)؛ وينص قانون LRJSP على وجوب الإبلاغ عن الهيئة المسؤولة عن الإجراء الإداري الآلي في المقر الإلكتروني، لأغراض الاستئناف (المادة 41).