ترى «منظمة التعاون الاقتصادي والتنمية» أن الاقتصاد العالمي يشهد حاليًا «ثورة» في تطوير واستخدام الذكاء الاصطناعي (AI)، حيث أصبح الآن «مكونًا متأصلًا»، في التصنيع، والتمويل، والأعمال، والترفيه، ووسائل التواصل الاجتماعي، والعديد من التفاعلات المجتمعية. وبالرغم من فوائده، التي لا يمكن إنكارها، كالحد من الخطأ البشري، وتجميع البيانات وتحليلها بسرعة، واتخاذ القرارات؛ فقد تجلت مخاطر اقتصادية ومجتمعية لهذه التقنية.
ومن المعلوم أن تلك التقنية تقدمت بقيادة أكبر شركات التكنولوجيا في العالم، مثل «مايكروسوفت، وآي بي أم». وكان أحد العوامل المحفزة لفهم إمكاناتها في إدارة تحليل البيانات وتقديم المعلومات هو إطلاق برنامج الذكاء الاصطناعي «Chat GBT»، الخاص بشركة (Open AI) في نوفمبر 2022، وهي عبارة عن روبوت محادثة يستخدم هذه التقنية، مع القدرة على «إدراك تعقيدات وتفاعل اللغة البشرية»، وقد سيطر على التغطية الإعلامية العالمية، حيث حشد أكثر من 100 مليون مستخدم بحلول فبراير 2023، لكن هذا أيضًا أثار بعض الأسئلة حول طبيعة الذكاء الاصطناعي، وما يعنيه بالنسبة إلى الاقتصاد بشكل أعم.
ويعد برنامج الذكاء الاصطناعي «Chat GBT»، هو الأكثر شهرة من بين آلاف الأنظمة الأخرى، التي أقبل عليها الأفراد والشركات والمؤسسات عبر قطاعات وتخصصات متعددة، حيث وصفته صحيفة «الإيكونوميست» بـ«انفجار ريادة الأعمال»، ما يجعل «طفرة الإنترنت» في مطلع الألفية تبدو «متواضعة» بالمقارنة، مضيفة أن هذه التقنية «مهيئة لتغيير الحوسبة، والثقافة ومسار التاريخ»، وشبهه «جاك كلارك»، من شركة «أنثروبيك»، بـ«تصنيع محركات دون إلمام بعملية الاحتراق بالمحرك».
وفي ضوء هذه الديناميكيات رأت «كاثي لي»، من «المنتدى الاقتصادي العالمي»، أنه «من المهم أن يستوعب الجميع إمكانات هذه التكنولوجيا الجديدة»، وكذا «التحديات والمسؤوليات التي تأتي معها». وفي المجال الاقتصادي، حذرت «منظمة التعاون الاقتصادي والتنمية» من مخاطر «استبدال» الذكاء الاصطناعي بالوظائف، وأنه على الرغم من أن التكنولوجيا في الوقت الحالي تغير الأدوار الوظيفية، بدلًا من استبدالها بشكل مباشر، فقد يجد الأكاديميون ذوو التعليم العالي أنفسهم مستبدلين بآلة، داعية إلى اتخاذ إجراءات عاجلة، من أجل «التأكد من استخدام التقنية بطريقة مسؤولة».
وبالنسبة إلى حماية الحقوق المدنية، فإن انتشار الأنظمة -التي وصفها الاتحاد الأمريكي للحريات المدنية بأنها «يكتنفها السرية»- تشكل «تحديًا كبيرًا لضمان الحريات». وأشارت «نيكول تيرنر لي» و«جاك مالامود»، من «معهد بروكينجز»، إلى أن الاستخدام الحالي للذكاء الاصطناعي من قِبل سلطات إنفاذ القانون -وخاصة استخدام تقنية التعرف على الوجه-قد أثار العديد من الاعتراضات القانونية والأخلاقية من قِبل خبراء قانونيين. وكما أوضحت جامعة «كامبريدج»، فإن قوة هذه التكنولوجيا محتكرة حاليًا من عدد قليل من الشركات الكبرى؛ مثل (جوجل، ميتا، مايكروسوفت وأمازون)، وهو «اختلال في التوازن»، محذرة من «أن يؤدي ذلك إلى إساءة استخدام التقنية»، وسط تنافسها التكنولوجي والاقتصادي.
الأهم من ذلك، أن قادة هذه الشركات -ومعهم مطورو الذكاء الاصطناعي- هم الذين حذروا من مخاطرها، وانضموا إلى الدعوات لاتخاذ إجراءات عالمية لفهم وتخفيف أسوأ مخاطر هذه التقنية. وعلى سبيل المثال، تم التوقيع على بيان مشترك عن أهمية التخفيف من مخاطر الانقراض بفعل الذكاء الاصطناعي، مع الإصرار على أنه ينبغي اعتبارها «أولوية عالمية»، من قبل الحكومات الوطنية، بنفس أهمية منع الأوبئة والحرب النووية.
ومن الواضح أن هناك نهجًا مختلطًا لتنظيم الذكاء الاصطناعي عبر حكومات العالم. وفي حين فرض «الاتحاد الأوروبي» قيودًا صارمة على استخدامه، كانت الحكومتان الأمريكية والبريطانية «أكثر تساهلًا». فيما ينظر التحليل الغربي إلى محاولات الصين على أنها تركز على الحفاظ على السلطة المركزية. وترى «الإيكونوميست» أن «بروكسل» أخذت زمام المبادرة بأشد القواعد بشأن الذكاء الاصطناعي، ووافق البرلمانيون الأوروبيون في يونيو 2023 على قانون ينظم استخدام التقنية. علاوة على إنشاء كيان أوروبي للذكاء الاصطناعي؛ للإشراف على تنفيذ اللوائح الجديدة، ومن المقرر أن تصل العقوبات إلى (30 مليون يورو).
من جانبه، أوضح «سبنسر فينغولد» من «المنتدى الاقتصادي العالمي» أن «حجر الزاوية في قانون الذكاء الاصطناعي هو نظام تصنيف يحدد مستوى المخاطر، التي يمكن أن تشكلها التقنية على صحة الفرد، وسلامته وحقوقه الأساسية». وبينما يُسمح باستخدام أنظمة الذكاء الاصطناعي ذات المخاطر المحدودة؛ فإن الأنظمة الأكثر تقدمًا التي تغير البيانات الحيوية لأغراض تحديد الهوية «محظورة مع استثناءات قليلة».
وعلى سبيل المقارنة، أوضحت «وحدة الاستخبارات الاقتصادية» أن الولايات المتحدة تفضل تقديم مقترحات جديدة على إقرار نظام بعينه، مؤكدة أن النظام السياسي في أمريكا هو الذي يعيق أي محاولة للتنظيم، حيث إن مقترحات تنظيم التقنية بمجلس الشيوخ، وقانون محاسبة الخوارزميات المقدم بمجلس النواب لتنظيم استخدام الذكاء الاصطناعي؛ من غير المرجح أن يتم تمرير أي منهما قبل انتهاء ولاية الكونجرس في 2024.
وبالفعل، قامت بعض الوكالات الحكومية الأمريكية بتأسيس توجيهاتها الخاصة بآليات استخدام التقنية. وأصدرت إدارة «بايدن» قانون «حقوق تنظيم استخدام أنظمة الذكاء الاصطناعي»، الذي حدد خمسة مبادئ لتوجيه، وإدارة التطوير، والتنفيذ الفعال لأنظمة الذكاء الاصطناعي، ومعالجة عواقب انتهاك الحقوق المدنية، وحقوق الإنسان المترتبة على استخدام التقنية. ومع ذلك، فإن الإرشادات ليست إلزامية للشركات والمؤسسات لاتباعها، ومن ثم أكد الخبراء أن عدم وجود نظام إنفاذ أو هيئة إدارة مركزية للقانون غير كافٍ للحماية من «الأضرار المحتملة».
وبالنسبة إلى المملكة المتحدة، فقد أكدت نهجها المؤيد لمبدأ الابتكار. وأشاد رئيس الوزراء «ريشي سوناك» باقتراح أن تصبح بريطانيا «مركزًا عالميًا» للشركات التكنولوجية الرائدة، وتنظيم الذكاء الاصطناعي. وبدأت الحكومة الاستعداد بالفعل لأول قمة دولية، حول الاستخدام الآمن للتقنية، التي تُعقَد في وقتٍ لاحق من عام 2023، بمشاركة قادة دول وشركات التكنولوجيا، وأكاديميين؛ لمناقشة المخاوف الخاصة بتطورات التقنية.
وفي هذا الصدد، أوضح «مات ديفيز» و«مايكل بيرتويستل»، من معهد «ادا لوفليس»، أنه لا توجد قوانين تحكم تطوير، أو نشر، أو استخدام الذكاء الاصطناعي في بريطانيا، حيث تتبع الشركات «شبكة مجزأة من القواعد تدير البيئية التنظيمية للتقنية فيها». ولمعالجة ذلك، ذكرت «فيونا دينيهي»، من معهد «آلان تورينج»، أن الحكومة أنشأت فريق عمل للمساعدة في تطوير نماذج أولية للذكاء الاصطناعي بتمويل قدره (100 مليون جنيه إسترليني)؛ لضمان تحقيق قدرات سيادية اقتصاديًا، والاعتماد الواسع لنماذج التطوير الأساسية الآمنة والموثوقة.
وفي الصين، كتب «مات شيهان»، من «مؤسسة كارنيجي»، أن الحكومة تطرح بعضًا من أقدم اللوائح، وأكثرها تفصيلًا في العالم، بشأن الذكاء الاصطناعي. وأوضحت «الأيكونوميست» أن الحد من مخاطر هذه التقنيات يتركز حول حماية قواعد «السلطة والسيطرة»، وخاصةً مع عدم رغبة الحزب الحاكم في السماح بظهور مجالات بديلة للسلطة، التي يمكن أن تتحدى سلطته المهيمنة على الشؤون السياسية والاقتصادية.
وفي حين أقر «شيهان» بأن جهود «بكين» لتنظيم التقنية يتم تجاهلها غالبًا في الغرب، ويُنظر إليها من خلال مفهوم «المنافسة الجيوسياسية البحتة»، إلا أنه يصر على أن طريق الصين للسيطرة على التقنية يمكن أن يعلّم العالم طبيعة الهياكل الأساسية للنُهج التنظيمية التكنولوجية المختلفة»، ولا سيما مع «وجود قانون ذكاء اصطناعي وطني شامل»، يُتوقع تقديمه في أواخر عام 2023.
وعلى المستوى الدولي، بدأت جهود الاتفاق على لوائح دولية بشأن استخدام الذكاء الاصطناعي. وفي مايو 2023، دعت شركة (Open AI) المطورة لروبوت الدردشة «Chat GBT» إلى تنظيم عالمي أكثر صرامة للذكاء الاصطناعي «الفائق»، حيث دافعت الشخصيات الرئيسية بالشركة «سام ألتمان»، و«جريج بروكمان»، و«إيليا سوتسكفر»، عن ضرورة وجود منظم دولي له مكانة وصلاحيات، شبيهة بالـ«وكالة الدولية للطاقة الذرية»، من أجل فحص الأنظمة، ومتابعة عمليات التدقيق، واختبار الامتثال لمعايير السلامة، ووضع قيود على درجات الانتشار والتوزيع ومستويات الأمان.
وفي السياق ذاته، عقد «مجلس الأمن» في يوليو 2023 جلسته الأولى حول تهديدات الذكاء الاصطناعي للسلام والاستقرار الدوليين، وأعرب الأمين العام للأمم المتحدة «أنطونيو غوتيريش» عن موافقته على «هيئة رقابة عالمية»، للإشراف على أنظمة التقنية.
ومع ذلك، سيكون الوصول إلى توافق في الآراء بشأن سياسة تنظيم التقنية بين الدول «مهمة صعبة»، ولا سيما فيما يتعلق بالحد من التسلح، وإمكانية أن تصبح الأنظمة غير المأهولة أكثر انتشارًا في الجيوش العسكرية. وحذر «غوتيريش» من استخدام الذكاء الاصطناعي المتقدم في أدوات «الموت والتدمير».
وفي نوفمبر 2020 رأى العالم لمحة عن الإمكانات الهائلة للتقنية خلال عمليات الاغتيال الهجومية، التي أشارت إليها «نيويورك تايمز»، على أنها «قصة مباشرة من الخيال العلمي»، والمتعلقة بتطوير إسرائيل روبوتًا يستخدم ذكاء اصطناعيًا متقدمًا يتم التحكم فيه عن بعد، ويعمل عبر الأقمار الصناعية، لاغتيال العالم النووي الإيراني «محسن فخري زاده».
وفي إطار هذا الواقع، حث «جوتيريش» الدول للموافقة على «اتفاقية دولية»، لحظر استخدام أنظمة الذكاء الاصطناعي المؤتمتة في أغراض التسلح. ومن وجهة نظر «فرناز فاسيحي»، في صحيفة «نيويورك تايمز»؛ فإن احتمالية وجود «قرار ملزم قانونًا» من الأمم المتحدة لإنشاء هيئة للإشراف على حوكمة الذكاء الاصطناعي «لا يزال بعيدًا»، ولا سيما مع وجود شكوك لدى كل من روسيا، والصين، وأمريكا، إزاء مثل هذه الخطوة؛ حيث دافعت الأخيرة بقوة عن ضرورة وجود إرشادات دولية بشأن طبيعة استخدامها، بدلًا من الاتجاه نحو الحظر الشامل.
وفي حالة «أنظمة الأسلحة الفتاكة المستقلة ذاتيًا»، و«نماذج اللغة المتقدمة للذكاء الاصطناعي»، و«أنظمة تحليل البيانات»، على حد سواء؛ فإن القضية المشتركة حول التنظيم تكمن في أن إدخال وتطبيق تشريعات تنظيمية سيكون غير متزامن مع حجم التطورات التقنية المستمرة، واتجاهات الاستخدام الشائعة الجديدة.
ولإثبات هذا الخلل في التوازن؛ أشارت وحدة «الاستخبارات الاقتصادية» إلى أنه تم اقتراح قانون الذكاء الاصطناعي للاتحاد الأوروبي في الأصل، قبل «ظهور نماذج الذكاء الاصطناعي التوليدية المتعددة»، مثل روبوت الدردشة «Chat GBT»، الذي يتطلب «إعادة صياغة» للتشريعات المقترحة، ومن ثم تأخر تنفيذها.
ومع احتمال أن تستغرق المفاوضات بشأن هذه الضوابط «شهورًا» من الدبلوماسية الدقيقة، والآراء الفنية من قبل الخبراء، حول الذكاء الاصطناعي؛ فمن المحتمل أن تكون المقاييس التي تمت مناقشتها في بدء المحادثات قديمة جدًا، مقارنة بالآن، ومن ثم عملية إبرام أي اتفاق ستكون في الأساس «بلا معنى».
ومع استمرار تطوير الذكاء الاصطناعي بسرعات يصعب تصديقها، ما قد يعني رعاية صحية أفضل، وإزالة الأخطاء البشرية، فإن هناك مخاطرة أيضًا بفقدان المزيد من الوظائف بشكل كبير، والنيل من الحقوق المدنية جراء استغلال المراقبة الآلية الخاضعة للذكاء الاصطناعي، والتهديد بأن مثل هذه القدرات يمكن أن يتم استخدامها لأغراض عدائية، مثل التضليل أو التسلح.
وبناء عليه، يرى «ستيفن كيف»، من معهد «كامبردج للتكنولوجيا والإنسانية»، أنه على الرغم من أن الرأي القائل إن «التقنية ستؤدي إلى انقراض الإنسان، أو انهيار الحضارة»، يعد مبالغا فيه؛ لكنه «لا يعني أنها لن تسبب ضررًا للمجتمع إذا لم نتوخ الحذر».
على العموم، مع إصرار «تيرنر لي»، و«مالامود»، على أن «الأفراد يجب أن يتمتعوا بالحق في الوصول إلى أنظمة مؤتمتة آمنة، وذلك أثناء قيام التقنية بمهامها التي تبدأ بتحليل وفرز وتصنيف وفهم البيانات والمعلومات، ثم اتخاذ قرارات واستبعاد أخرى؛ فإنه يجب التأكيد أن «بالإمكان توفير نظام إنفاذ موثوق به»، قائم على التشريعات المخصصة لذلك.
وفي الوقت الحالي، يعتبر «الاتحاد الأوروبي»، الرائد عالميًا في تنظيم الذكاء الاصطناعي. ومع ذلك، فإنه مع إشارة «وحدة الاستخبارات الاقتصادية» إلى أنه «لا يختلف عن دول العالم»، فقد خلُصت إلى أن جهوده المستقبلية للتخفيف من الجوانب السلبية للذكاء الاصطناعي عرضة لـ«التجزئة والخضوع للنزعات الإقليمية»، وهي الاشتراطات التي ظهرت بالفعل في المحادثات الدولية للحد من انتشار أنظمة الأسلحة المستقلة ذاتيًا في المجال العسكري.
هل ترغب بالتعليق على الموضوع؟
لا تتردد في إعطاء تعليقك ومشاركة رأيك