شهدت الفترة الأخيرة خطوات مهمة من أجل إصدار قانون ينظم استخدامات الذكاء الاصطناعي. ففي 13 مارس 2024 وافق أعضاء البرلمان الأوروبي على تشريع جديد يضيف قيودًا على استخدام الأنظمة المتقدمة في القطاعات عالية المخاطر، مثل الرعاية الصحية، والبنية التحتية، والتعليم. وفي 21 مارس، اعتمدت الجمعية العامة بالأمم المتحدة بتوافق الآراء -193 دولة- أول قرار دولي بقيادة الولايات المتحدة، يعمل على تحسين سياسات الخصوصية، ويضمن سلامة وأمان استخدام هذه التقنيات، والإشراف على مخاطرها المحتملة.
وعلى الرغم من التوافق الدولي على القرار، فإنه لا يزال غير ملزم، مما يثير تساؤلات حول كيفية تنفيذ ومراقبة أنشطة الذكاء الاصطناعي الخبيثة. ومع أن جميع الدول وافقت على مبدأ تنظيم واستخدام هذه التقنيات بشكل آمن، إلا أن هذا يأتي في وقت يشتد فيه التنافس الجيوسياسي والاقتصادي، فضلا عن تحذير المراقبين بشأن قوة الضوابط التي يتم فرضها على مطوري التكنولوجيا الذين يعملون في القطاع الخاص في جميع أنحاء العالم.
وفي ظل التطور السريع لتقنياته في العام الماضي، إلى درجة باتت تعكس القدرات البشرية في مجالات شتى، بل تتفوق عليها في العديد من القطاعات؛ كان هذا دافعًا وراء تنظيم استخداماته للحد من المخاطر التي أقرها قادة الصناعة أنفسهم ووصفوها بأنها تهدد البشرية جمعاء. وقبل إصدار القرار، جرت مناقشات حول أفضل السبل لمعالجة القضية في المنتديات الدولية، مثل مجموعة السبع، ومجموعة العشرين، وقمة سلامة الذكاء الاصطناعي، التي استضافتها بريطانيا في نوفمبر 2023، والتي نجحت في إصدار قانون ينظم هذه التقنيات، والذي وصفه ماريانو كويلار، من مؤسسة كارنيجي السلام الدولي، بأنه فتح فصلاً جديدًا في دبلوماسية الذكاء الاصطناعي؛ من خلال وضع العالم على طريق تقليل المخاطر، وتأمين فوائد أكبر لهذه التكنولوجيا السريعة التطور.
وقبل شهر من انعقاد قمة بريطانيا، قامت الأمم المتحدة، بتشكيل هيئة استشارية خاصة بها في مجال الذكاء الاصطناعي؛ لتعزيز سلامة وشمولية هذه التقنيات، وصياغة قانون يتوافق مع القانون الدولي. وعلى الرغم من اتخاذ العديد من الدول، بما في ذلك المملكة المتحدة، والولايات المتحدة، والصين، إجراءات أحادية بشأن استخدام الذكاء الاصطناعي، فإن قانون الاتحاد الأوروبي؛ يبقى أول تشريع واسع النطاق ينظم استخدامه في نهج متدرج، قائم على تدارك المخاطر، مع الالتزام بالشفافية للحفاظ على تقنياته آمنة في المجالات المجتمعية الرئيسية.
ومع تولي الاتحاد الأوروبي، زمام المبادرة التشريعية المبكرة لتنظيم استخدام الذكاء الاصطناعي، تتطلع القوى الأخرى أيضًا للقيام بأدوار مهمة في هذا الصدد. وأشار روبرت هارت، في مجلة فوربس، إلى حرص الولايات المتحدة، على تأكيد نفسها كزعيم عالمي، مع تأكيد كامالا هاريس، نائبة الرئيس الأمريكي أن الذكاء الاصطناعي يجب أن يكون في خدمة المصلحة العامة، وأن اعتماده وتطويره يجب أن يكون بطريقة تحمي الجميع من أي أذى محتمل. واستشهد هارت، بكيف بذل الدبلوماسيون الأمريكيون مؤخرًا جهودًا متضافرة لتكثيف وتولي دور قيادي في حوكمته العالمية أيضًا.
وكانت واشنطن قد قدمت، بعد ثلاثة أشهر من المشاورات والمفاوضات قرارًا إلى الجمعية العامة للأمم المتحدة، يدعو جميع الدول إلى تعزيز أنظمة الذكاء الاصطناعي الآمنة، والجديرة بالثقة، حيث ركز على معالجة أكبر التحديات العالمية، وتجنب التصميمات غير المناسبة أو الضارة لأنظمته، وتطويرها، ونشرها، واستخدامها بطريقة تتفق مع القانون الدولي، وسد الفجوة الرقمية بين الدول المتقدمة والفقيرة، وضمان حصول الأخيرة على التكنولوجيا والقدرات اللازمة للاستفادة من فوائد هذه التقنيات في مجالات متنوعة، مثل التنبؤ بأنماط الطقس، والممارسات الزراعية، وتدريب العمال، والرعاية الصحية، وقد شارك في رعاية القرار العديد من الدول، بما في ذلك الصين، المنافس الجيوسياسي والاقتصادي الرئيسي للولايات المتحدة.
من جانبه، أشار ريشي إينجار، في مجلة فورين بوليسي، إلى أن قرار الأمم المتحدة يعتبر نقطة مضيئة بسبب إدراج لغة تضمن امتثال أنظمته لمعايير حقوق الإنسان، واعتبر هذا الجانب، إشارة إلى التوافق العالمي حول ضرورة وضع قواعد واضحة لتنظيم تقنيات الذكاء الاصطناعي، لتجنب التهديدات الكبيرة التي قد تنشأ عنها، فيما يعكس تحولاً في الرؤى الدولية نحو الضوابط والسياسات المتعلقة بالتكنولوجيا، خاصة في ظل المعارك الدبلوماسية، التي دارت في الأمم المتحدة بين الديمقراطيات الغربية ومنافسيها في السنوات الأخيرة، حول الضوابط الجديدة للتكنولوجيا المتقدمة وآليات التجسس الإلكترونية.
ويتضح مدى نجاح هذا القرار التوافقي -باعتباره شيئًا ليس بالأمر السهل تحقيقه- من خلال تعليق سفيرة الولايات المتحدة لدى الأمم المتحدة، ليندا توماس-جرينفيلد، بأنه في الوقت الذي قليلا ما يتفق العالم على قضية ما، ربما يكون الجانب الأكثر دعما في هذا القرار، هو الإجماع الواسع الذي تم تشكيله باسم دفع التقدم والازهار والابتكار.
وكما هو الحال مع قانون الاتحاد الأوروبي -المذكور أعلاه- أشار المراقبون إلى العديد من القيود الرئيسية والمناطق الرمادية الغامضة في القرار الذي تقوده الولايات المتحدة. ففي حين أشار هارت، إلى أن نصه بالأساس يركز على الفوائد المحتملة التي يمكن أن يجلبها الذكاء الاصطناعي، بحيث يمكن استخدامه للمساعدة في تحقيق أهداف الأمم المتحدة الإنمائية لعام 2030، وخاصة تلك المتعلقة بالقضاء على الفقر، وتحسين الأمن الغذائي العالمي، ومعالجة المناخ، وتغيير وتحسين جودة التعليم؛ فقد رأى ريتشارد جوان، من مجموعة الأزمات الدولية، أن التركيز على هذه الفوائد كان جهدًا متعمدًا من جانب واشنطن للعمل على بناء نوايا حسنة لها مع الدول الفقيرة، مضيفًا أنه من الأسهل التحدث عن كيفية استخدامه للعمل على مساعدة البلدان النامية على التقدم، بدلاً من التركيز على دورها في معالجة قضايا الأمن والسلامة بشكل مباشر.
ومن وجهة نظر دانيال لوفر، من مجموعة آكسيس ناو، فإنه على الرغم من التوصل إلى إجماع دولي حول استخدام الذكاء الاصطناعي لتعزيز التنمية البشرية، ستظل هناك مفاوضات وتسويات لازمة لتحقيق هذه الغاية، خاصة مع القوى الكبرى والمنافسين الاقتصاديين، مثل الولايات المتحدة، والصين، وهو ما يهدد بجعل كل طرف يرضى بأدنى القيود، أو الضوابط لأنشطته، مضيفا أنه إذا اقتصرنا على ما يمكننا أن نجعل كل دولة تتفق عليه، فعندئذ لن نذهب بطموحاتنا إلى أبعد من ذلك مهما كان الأمر.
وبهذا المعنى، أشار إينجار، إلى أن أحد النقاط الغائبة الملحوظة بالقرار، هو عدم تناول الاستخدام العسكري المحتمل للذكاء الاصطناعي، مؤكدا أن ذلك الأمر كان متعمدا إلى حد كبير. ووصف هارت، هذا التجاهل بأنه خطير بشكل خاص؛ لأنه يترك العديد من القضايا الحاسمة، بلا معالجة، والتي من المؤكد أنها ستشكل مستقبل تطوير هذه التكنولوجيا، وقد تنشئ حالة من الانقسام بين الدول عليها مستقبلا.
وبالإضافة إلى الشكوك حول نوايا القرار الذي قادته الولايات المتحدة، وإلى أي مدى ستؤدي شروطه لمعالجة أوجه التعاون للحد من المخاطر؛ فإن إنفاذ مهام التنظيم والضوابط المستقبلية على هذه التكنولوجيا يشكل مسألة أخرى لم تتم معالجتها بعد. وباعتباره قرارًا للجمعية العامة للأمم المتحدة، فإن قرار الاستفادة من فرص الذكاء الاصطناعي لا يتمتع بنفس صلاحيات التنفيذ التي قد يتمتع بها القرار الذي يحظى بموافقة مجلس الأمن. وعلى الرغم من تأكيد ليدرير، على أنه يمثل مقياسًا عالميا يجب الالتزام به، فقد أوضح هارت، أنه حتى مع تمريره فلن يُلزم البلدان بالامتثال لنماذج حوكمة الذكاء الاصطناعي، ولا الانصياع لمجموعة معينة من القواعد بشكل عام، إلا عن طريق فرضها من قبل شركات التكنولوجيا على بعضها البعض، ضمن ولاياتها القضائية.
وبسبب هذا الواقع، حذر لوفر، من أن التزام جميع البلدان فعليًا بدعمها لقرارات الأمم المتحدة، بشأن استخدام هذه التقنيات، لا يمكن اعتباره أمرا مفروغا منه، لكن الأمر يقف عند مجرد الإشارة إلى أن هناك رسالة مفادها أن هناك استخدامات للذكاء الاصطناعي لا تتوافق مع حقوق الإنسان فحسب.
علاوة على ذلك، تمت الإشارة إلى ملامح دور تطوير واستخدام آليات هذه التكنولوجيا من قبل القطاع الخاص؛ في ضوء أن شركات التكنولوجيا الكبرى، مثل جوجل، وأمازون، ومايكروسوفت، وأوبن إيه آي، تلعب أدوارًا أكبر من الحكومات في تشكيل وتطوير الذكاء الاصطناعي. وأوضح هارت، أن قرار الأمم المتحدة لم يحدد ملامح النهج الشامل لتعامل القطاع الصناعي الخاص مع تلك التكنولوجيا المتخصصة، واصفا القرار بأنه خجول نسبيًا في تطرقه إلى هذا الشأن، مشيرا إلى فشل أمريكا في تنظيم القطاع الصناعي داخل ولاياتها، لاسيما مع عدم التزام شركاتها، سوى بـمزيج من القواعد التنظيمية والإشرافية من القوانين الحالية.
وعلى الرغم من هذه الانتقادات، رحب وزير الخارجية الأمريكي أنتوني بلينكن، بهذا الجهد التاريخي والنهج العالمي الأول من نوعه لضبط تطوير واستخدام هذه التكنولوجيا الناشئة القوية، بالإضافة إلى إعلان سفراء الأمم المتحدة من بريطانيا، واليابان، وسنغافورة، وهولندا، والمغرب، بشكل مشترك أن تمرير القرار هو يوم جيد للأمم المتحدة وللتعددية في آن واحد.
على العموم وكما هو الحال مع قانون الذكاء الاصطناعي التابع للاتحاد الأوروبي والعديد من التشريعات الفردية الأخرى التي أصدرتها دول مثل أمريكا، وبريطانيا، والصين؛ كانت هناك ثغرات في أول قرار دولي تقره الأمم المتحدة بشأن استخدام وتنظيم الذكاء الاصطناعي، والتي يجب معالجتها في مرحلة ما حتى يمكن استخدام هذه التكنولوجيا القوية لتحسين معالم الإنسانية، وعدم استغلالها من قبل الجهات الفاعلة الخبيثة.
وفي الأخير، فإن حقيقة أن هناك إجماعا دوليا، على تنظيم أنظمة تكنولوجية تتطور بسرعة البرق، وضبط فعاليتها واستخداماتها، والموافقة على الاستخدام الآمن والشفاف لها، حتى في ظل المنافسة الجيوسياسية بين القوى الكبرى، هي شهادة على كيفية إدراك الدول لحجم المخاطر الناجمة عن ترك مثل هذه التقنيات المتقدمة دون أدنى رقابة أو مساءلة.
هل ترغب بالتعليق على الموضوع؟
لا تتردد في إعطاء تعليقك ومشاركة رأيك