يمثل قانون الذكاء الاصطناعي للاتحاد الأوروبي خطوة مهمة نحو تحقيق التوازن بين الابتكار وحماية الحقوق الأساسية في المشهد المتطور للذكاء الاصطناعي. وتمت الموافقة على القانون من قبل برلمان الاتحاد الأوروبي في الثالث عشر من مارس 2024، وهو حاليًا يخضع للفحص النهائي من قبل المحامين واللغويين. كما يتطلب القانون المصادقة من قبل مجلس الاتحاد الأوروبي وسيدخل حيز التنفيذ بعد عشرين يومًا من نشره في الجريدة الرسمية.
2 الغرض من قانون الذكاء الاصطناعي:
يهدف قانون الذكاء الاصطناعي إلى إنشاء إطار قانوني شامل يحكم تطوير وترويج وتطبيق الذكاء الاصطناعي داخل الاتحاد الأوروبي. يتماشى القانون مع قيم الاتحاد الأوروبي، ما يتيح التطوير المسؤول والأخلاقي والاستخدام المناسب للذكاء الاصطناعي عبر مختلف القطاعات. إضافة إلى ذلك، يعزز القانون الذكاء الاصطناعي المركز على الإنسان والموثوق به، مع ضمان صحة المستخدمين وسلامتهم وحقوقهم الأساسية. كما يدعم القانون الابتكار مع التقليل من الآثار السلبية لأنظمة الذكاء الاصطناعي في الاتحاد الأوروبي.
3 نطاق قانون الذكاء الاصطناعي للاتحاد الأوروبي:
ينطبق القانون على جميع أنظمة الذكاء الاصطناعي، بغض النظر عن مصدرها، عندما يتم تقديمها إلى سوق الاتحاد الأوروبي، حتى لو كانت هذه الكيانات في دولة ثالثة.
4 تصنيف النظام الأساسي للذكاء الاصطناعي بحسب المخاطر:
يصنف قانون الذكاء الاصطناعي الأنظمة بحسب مخاطرها مع عدم تنظيم الأنظمة ذات المخاطر المنخفضة/المعدومة أو إعلانها للمستخدم:
4.1 أنظمة الذكاء الاصطناعي المحظورة:
تُحظر أنظمة الذكاء الاصطناعي إذا كانت تشارك في:
1- تقنيات التلاعب الدقيقة التي تسبب أضرار.
2- استغلال الثغرات لإحداث الضرر.
3- أنظمة القياس الحيوي التي تستنتج السمات الحساسة.
4. التقييم الاجتماعي الذي يؤدي إلى الضرر.
5- تقييم المخاطر الجنائية بناءً على التنميط.
6- قواعد بيانات التعرف على الوجه من الإنترنت أو كاميرات المراقبة.
7- استنتاج العواطف، باستثناء لأسباب طبية/أمنية.
8- تقييد التعرف البيومتري عن بُعد في الوقت الفعلي للأغراض القانونية، مع تقييم وترخيص إلزامي.
4.2- أنظمة الذكاء الاصطناعي عالية المخاطر:
يركز معظم قانون الذكاء الاصطناعي على أنظمة الذكاء الاصطناعي عالية المخاطر، مغطيًا تصنيفها ومتطلباتها وحالات استخدامها المناسبة.
4.2.1 أنظمة الذكاء الاصطناعي عالية المخاطر:
يُصنف نظام الذكاء الاصطناعي على أنه عالي المخاطر إذا:
1- يُستخدم كمكون أمان أو يغطيه قانون الاتحاد الأوروبي في الملحق الثاني (الجرائم الجنائية)، ما يتطلب تقييم توافق من قبل طرف ثالث.
2- يقع تحت حالات استخدام الملحق الثالث (البيومترية غير المحظورة، البنية التحتية الحرجة، إدارة العدالة.. إلخ) باستثناء المهام الإجرائية الضيقة أو التحسينات على الأنشطة البشرية السابقة.
3- دائمًا ما يُعتبر النظام عالي المخاطر إذا كان يشمل التنميط الفردي من خلال المعالجة الآلية للبيانات الشخصية.
4.2.2 متطلبات مزودي الذكاء الاصطناعي:
يجب على مزودي الذكاء الاصطناعي عالي المخاطر:
1- إنشاء نظام إدارة جودة لضمان الامتثال التنظيمي.
2- تطبيق نظام إدارة المخاطر طوال دورة حياة أنظمة الذكاء الاصطناعي عالية المخاطر.
3- ضمان حوكمة البيانات عبر مجموعات بيانات التدريب والتحقق والاختبار.
4- دمج قدرات الحفظ والتوثيق الفني في أنظمة الذكاء الاصطناعي عالية المخاطر للشفافية وتوثيق دورة حياة النظام.
5- تمكين الناشرين من تطبيق الإشراف البشري ضمن أنظمة الذكاء الاصطناعي عالية المخاطر.
6- تصميم أنظمة الذكاء الاصطناعي عالية المخاطر لتكون دقيقة ومتينة وآمنة من الناحية السيبرانية.
7- إظهار الامتثال من خلال تقييمات التوافق لأنظمة الذكاء الاصطناعي تحت الملحق الثالث قبل وضعها في السوق أو استخدامها.
8- تسجيل الأنظمة في قاعدة بيانات عامة للاتحاد الأوروبي، باستثناء تلك المستخدمة لأغراض تنفيذ القانون أو الهجرة.
هل ترغب بالتعليق على الموضوع؟
لا تتردد في إعطاء تعليقك ومشاركة رأيك