تحد

كيفية ضمان الاستخدام المسؤول والآمن والعادل لخوارزميات الذكاء الاصطناعي التي نطبقها على الخدمات الحكومية الرقمية ونكسب ثقة المستخدم

المشكلة والسياق الحالي

أصبح الذكاء الاصطناعي (AI) جزءًا لا يتجزأ من حياتنا اليومية. تستخدمه الحكومات لتحسين إمكانية الوصول إلى الخدمات العامة وتجربتها ، أو تحسين العمليات أو إدارة الأماكن العامة ، على سبيل المثال.

تعد الخوارزميات أساس أنظمة الذكاء الاصطناعي وغالبًا ما تعمل مثل "الصناديق السوداء" للأشخاص الذين يستخدمونها ويؤثرون عليها. لمنع حدوث ذلك ، من الضروري أن يفهم المستخدمون الخوارزميات ، وأن يفهموا كيف تم التوصل إلى قرار معين ولماذا يتم اتخاذ هذا القرار. أكثر من ذلك في حالة الحكومة ، التي لا يمكن أن تعمل إلا عندما تكون هناك ثقة بينها وبين الجمهور. يجب أن تسمح الإدارة الجيدة لجميع المواطنين بفهم أسباب القرارات وإمكانية الطعن فيها.

في الحكومات الديمقراطية ، يتم ضمان الثقة من خلال العديد من الضمانات القانونية. فيما يتعلق بالالتزام بجعل خوارزميات الذكاء الاصطناعي المستخدمة في الخدمات الحكومية الرقمية شفافة ، ينص القانون على حق الأفراد في الحصول على تفسير للقرارات الآلية (RGPD) وينص على إنشاء "آليات" بحيث يمكن للخوارزميات المشاركة في اتخاذ القرار - مراعاة معايير الشفافية وقابلية التفسير (القانون الشامل 5/2023 للمساواة في المعاملة وعدم التمييز) ، لكنه لا ينشئ أي آلية محددة أو أداة قانونية للقيام بذلك - إنه يعطي توصيات فقط ويترك الأمر للمنظمات للعثور على الأداة الأنسب لـ:

  • توفير معلومات مفيدة حول منطق الخوارزميات المستخدمة وكذلك النتائج المتوقعة ، والتي تكون واضحة وتستخدم لغة مفهومة ،
  • السماح للأشخاص بفهم سبب إعطاء الخوارزمية نتيجة معينة، بالإضافة إلى الإشارة إلى الهيئة التي يمكنهم من خلالها استئناف قراراتهم الخاصة أو الاعتراض على عملها العام،
  • فتح الخوارزميات للسيطرة الديمقراطية.

نظرًا لعدم وجود آليات أو تقنيات أو طرق ملموسة لتحقيق الشفافية الخوارزمية ، أجرت AOC دراسة من أجل البحث عن أشكال موحدة للشفافية وإعطاء الأولوية لفهم الخوارزميات التي نطبقها على خدماتنا الإدارية الرقمية.

هذا هو المكان الذي تأتي منه مبادرة الشفافية الحسابية التي نقدمها.

الحل المقترح 

الشفافية في تطوير واستخدام الذكاء الاصطناعي (AI) هي قضية حاسمة لضمان أن هذه التكنولوجيا مسؤولة وعادلة تجاه المجتمع.

كوسيلة لتحقيق الشفافية الحسابية ، تقترح AOC النشر على بوابة الشفافية لرموز مفهومة لكل خوارزمية ذكاء اصطناعي يعملون في خدمات الإدارة الرقمية.

تهدف هذه المبادرة إلى أن تكون أداة من أجل:

  • مساعدة الأشخاص على فهم كيفية عمل الخوارزميات المستخدمة في الحكومة المحلية والغرض منها،
  • توفير شفافية كبيرة بطريقة موحدة والسماح بإجراء مقارنة بين الخوارزميات المختلفة،
  • تجعل من السهل على الجميع إبداء آرائهم والمشاركة في إنشاء خوارزميات تتمحور حول الإنسان.

محتوى الملف

تحتوي كل علامة تبويب شفافية خوارزمية على:

  • المشكلة التي يجب حلها بواسطة خوارزمية الذكاء الاصطناعي المعنية،
  • شرح خصائص الخوارزمية وكذلك عملها،
  • المجموعات التي قد تتأثر بالخوارزمية،
  • تحليل المخاطر أو تقييم تأثير حماية البيانات الذي تم إجراؤه (حسب الاقتضاء) لتحديد التحيزات التمييزية المحتملة للخوارزمية،
  • تحليل المخاطر الأمنية للنظام الذي تم إجراؤه لتحديد الحالات الطارئة المحتملة لتوافر وأمن النظام الذي يحتوي على الخوارزمية،
  • la إدارة المخاطر المتخذة والتدابير المطبقة لضمان الامتثال للحقوق الأساسية
  • الهيئة التي يمكن أمامها الاستئناف ضد قرارات معينة للخوارزمية أو الاعتراض على عملها العام،
  • تفاصيل الاتصال بالشخص المسؤول ومورد الخوارزمية.

→ انظر نموذج ورقة الشفافية الخوارزمية AOC (قوات الدفاع الشعبي)

كيف تم تحديد محتوى الملف

لتحديد محتوى ملفات الشفافية الخوارزمية ، أجرى فريق الابتكار والبيانات ، بدعم من الخدمات القانونية في AOC ، دراسة تشمل:  

  1. ل تحليل اللوائح الحالية التي تتناول مسألة شفافية القرارات الآلية التي تتخذها خوارزميات الذكاء الاصطناعي ، مع إيلاء اهتمام خاص لما يلي:  
  • لائحة حماية البيانات الأوروبية (RGPD) 
  • مقترح لائحة بشأن استخدام الذكاء الاصطناعي لمجلس أوروبا 
  • القانون رقم 15/2022 الصادر في 12 يوليو / تموز ، الشامل للمساواة في المعاملة وعدم التمييز 
  1. المستندات التي توفر إرشادات وإرشادات لتحقيق ذكاء اصطناعي آمن وموثوق. يجب ملاحظة ذلك: 
  • المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي الموثوق به ، من فريق الخبراء رفيعي المستوى التابع للمفوضية الأوروبية بشأن الذكاء الاصطناعي (أبريل 2019) 
  • تقرير "فتح علبة الذكاء الاصطناعي: 10 خطوات لحماية حقوق الإنسان" من قبل مفوض حقوق الإنسان في مجلس أوروبا (مايو 2019)
  • تقرير APDCAT "القرارات المؤتمتة في كاتالونيا" (يناير 2020)  
  • الإعلان الأوروبي بشأن الحقوق والمبادئ الرقمية للعقد الرقمي (يناير 2023)
  1. كما تم استكشافها مبادرات الشفافية الحسابية للإدارات المختلفة، والتي هي في مرحلة التطوير. يجب ملاحظة ذلك: 
  • سجل خوارزميات مدينة أمستردام – تم التنفيذ
  • سجل الذكاء الاصطناعي لمدينة هلسنكي – تم التنفيذ
  • المعيار الخوارزمي في المملكة المتحدة – تم تنفيذه
  • سجل الخوارزميات البلدية لمجلس مدينة برشلونة 
  • سجل خوارزميات مؤسسة الصحة الاجتماعية لتكنولوجيا المعلومات والاتصالات 
  • رادار خوارزميات الذكاء الاصطناعي لجدول كيانات القطاع الاجتماعي الثالث في كاتالونيا
  • اقتراح لإطار عمل أخلاقي لخوارزميات حكومة كاتالونيا العامة

استنتاجات الدراسة

تتعهد الدول الأعضاء في الاتحاد الأوروبي ، من خلال الإعلان الأوروبي بشأن الحقوق والمبادئ الرقمية للعقد الرقمي ، بضمان مستوى كافٍ من الشفافية في استخدام الخوارزميات والذكاء الاصطناعي ، ولأن الناس مُعلمين ومُدرَّبين على استخدامها عندما تتفاعل معهم.

من أجل الامتثال لمتطلبات الشفافية لأنظمة الذكاء الاصطناعي للإدارات العامة ، فإن اللوائح الحالية لا تنشئ أي آلية أو شكل موحد أو أداة قانونية "ملموسة" للقيام بذلك ؛ بالرغم من:

  • تشير لائحة منظمة العفو الدولية التي يعدها مجلس أوروبا ، كإجراء أول موصى به ، إلى "تسجيل وتوثيق" أنظمة الذكاء الاصطناعي التي تستخدمها المنظمات التي قد تخضع لهذه اللائحة ؛
  • المادة 23 من القانون الشامل 15/2022 للمساواة في المعاملة وعدم التمييز تتحدث عن تفضيل تنفيذ "الآليات" بحيث تأخذ الخوارزميات المشاركة في صنع القرار في الاعتبار معايير التقليل من التحيز والشفافية والمساءلة ؛
  • تحدد بعض المراسيم البلدية الالتزام بنشر قائمة الإجراءات الإدارية المؤتمتة على موقع الويب - والتي قد تتضمن أو لا تتضمن استخدام خوارزميات الذكاء الاصطناعي - مع معلومات عن القواعد المطبقة وكيفية عملها.

لقد استكشفنا مختلف المبادرات التي يتم الترويج لها من قبل الحكومات المحلية والإقليمية الأوروبية ، من أجل إيجاد "طريقة موحدة" تسمح لنا بالامتثال لمتطلبات الشفافية لخوارزميات الذكاء الاصطناعي التي نطبقها على خدمات الحكومة الرقمية لدينا.

من بين جميع المبادرات التي تم استكشافها ووفقًا للالتزامات القانونية السارية ، توصلنا إلى استنتاج مفاده أن نشر ملفات الشفافية الحسابية على بوابة الشفافية انه حل سريع وبسيط أن يسهل الامتثال لمتطلبات الشفافية المنصوص عليها في اللوائح i يسمح لكسب ثقة المستخدمين في أنظمة الذكاء الاصطناعي للإدارات العامة.

أتاحت لنا الدراسة أيضًا تحديد المعلومات ذات الصلة التي يجب تقديمها حول الخدمات العامة القائمة على الذكاء الاصطناعي حتى يتمكن المستخدمون من فهم كيفية اتخاذ الخوارزميات للقرارات وكيفية التحقق من هذه القرارات. وبخلاف ذلك، فقد بحثنا في تحديد وتحليل المخاطر الأكثر احتمالاً التي ينطوي عليها استخدام خوارزميات الذكاء الاصطناعي فيما يتعلق الحقوق الأساسيةوربطناها بالتدابير التي يجب تطبيقها في كل حالة لضمان الامتثال لهذه الحقوق. (راجع قسم إدارة المخاطر في أوراق الشفافية الخوارزمية).

الملفات المنشورة:

حالة المشروع

في الانتاج. تم نشر أول ثلاث أوراق شفافية خوارزمية.

معلومات اكثر

حالات عملية تم تنفيذها:

الحالات في مرحلة التطوير:

المراجع الببليوجرافية:

الإلتزامات القانونية:

الإطار الأوروبي

  • اللائحة (الاتحاد الأوروبي) 2016/679 للبرلمان الأوروبي والمجلس الأوروبي ، بتاريخ 27 أبريل 2016 ، المتعلقة بحماية الأشخاص الطبيعيين فيما يتعلق بمعالجة البيانات الشخصية وحرية نقل هذه البيانات والتي بموجبها تلغي التوجيه 95 / 46 / EC ("RGPD"). وصلة
  • مبادئ توجيهية بشأن القرارات الفردية الآلية والتنميط لأغراض اللائحة 2016/679. تم اعتماده في 3 أكتوبر 2017 وتم تنقيحه للمرة الأخيرة وتم اعتماده في 6 فبراير 2018. الفريق العامل المعني بحماية البيانات المادة 29 من التوجيه 95/46 / EC. وصلة
  • اقتراح بشأن لائحة البرلمان الأوروبي والمجلس لإنشاء قواعد منسقة بشأن الذكاء الاصطناعي (قانون الذكاء الاصطناعي) وتعديل بعض القوانين التشريعية للاتحاد. 21 أبريل 2021. المفوضية الأوروبية. كوم (2021) 206 نهائي. وصلة / الملحق الأول من اقتراح لائحة منظمة العفو الدولية المفوضية الأوروبية (2021)

إطار الدولة

  • القانون الأساسي 3/2018 المؤرخ 5 ديسمبر بشأن حماية البيانات الشخصية وضمان الحقوق الرقمية ("لوبدجد"). وصلة
  • الامتثال لـ RGPD للعلاجات التي تتضمن الذكاء الاصطناعي. مقدمة فبراير 2020. AEPD. وصلة
  • القانون رقم 15/2022 الصادر في 12 يوليو ، الشامل للمساواة في المعاملة وعدم التمييز. وصلة

الإطار الكاتالوني

  • القانون رقم 19/2014 المؤرخ 29 ديسمبر بشأن الشفافية والوصول إلى المعلومات العامة والحكم الرشيد. وصلة
  • المرسوم 76/2020 ، 4 أغسطس ، بشأن الإدارة الرقمية. وصلة