هل سيحل الذكاء الاصطناعي محل البشر؟ هل سينقلب على صانعيه؟ هل يمثل خطرا على الجنس البشري؟
هذه ليست سوى بعض الأسئلة التي كانت تثير الجدل العام وتحرك وسائل الإعلام منذ انتشار أدوات الذكاء الاصطناعي التوليدية على نطاق واسع والتصريحات المثيرة لبعض الشخصيات العامة. ومع ذلك، على الرغم من أن هذه الأسئلة مثيرة للاهتمام بنفس قدر أهمية الافتراضات من وجهة نظر فلسفية، فإن معظم الخبراء يتفقون على أنها سابقة لأوانها.
صحيح أن للذكاء الاصطناعي إمكانات هائلة، فهو تقنية ستمكّن من أتمتة مجموعة كبيرة من المهام، وخلق خدمات جديدة، وفي نهاية المطاف ستكون الاقتصادات أكثر كفاءة. يمثل الذكاء الاصطناعي التوليدي مرحلة جديدة في هذا الاتجاه الذي بدأنا للتو في اكتشاف تطبيقاته العديدة.
ومع ذلك، يجب ألا نغفل حقيقة أنه على الرغم من الأداء الرائع لأنظمة الذكاء الاصطناعي فإنها آلات في الأساس، وليست أكثر من خوارزميات مدمجة في معالجات قادرة على استيعاب كميات كبيرة من البيانات.
لقد قيل لنا إن هذه الأدوات الجديدة ستكون قادرة على اجتياز اختبار تورنغ. على الأرجح هذا حقيقي، لكن الاختبار الذي كان يُعتقد سابقاً أنه قادر على رسم الخط الفاصل بين الذكاء البشري والذكاء الاصطناعي لم يعد له أي أهمية حقيقية منذ فترة طويلة. هذه الآلات غير قادرة على الذكاء البشري، بالمعنى الكامل للمصطلح (أي الحساسية، والتكيف مع السياق، والتعاطف...)، ولا على الانعكاسية والوعي، وربما سيستمر الأمر فترة طويلة مستقبلاً. لا يسع المرء إلا أن يفكر في أن أولئك الذين يتخيلون أن هذه الأدوات سرعان ما ستمتلك تلك الخصائص، قد تأثروا بشكل مفرط بالخيال العلمي والشخصيات الأسطورية مثل بروميثيوس أو غولم، والتي طالما كانت تتميز بما يسحرنا.
إذا اتخذنا وجهة نظر أكثر واقعية فإننا سندرك أن الأسئلة الأخلاقية التي أثارتها الأهمية المتزايدة للذكاء الاصطناعي ليست جديدة، وأن ظهور ChatGPT والأدوات الأخرى جعل هذه الأسئلة ببساطة أكثر إلحاحاً. وبصرف النظر عن موضوع التوظيف، من ناحية، تتطرق هذه الأسئلة إلى التمييز الذي أحدثه الذكاء الاصطناعي أو زاد من حجمه، وبيانات تدريب الخوارزميات التي يستخدمها، ومن ناحية أخرى، نشر المعلومات المضللة (إما عن عمد وإما نتيجة لـ«هلوسة الذكاء الاصطناعي»). ومع ذلك، لطالما كان هذان الموضوعان مصدر قلق لباحثي الخوارزميات والمشرعين والشركات العاملة في هذا المجال، وقد بدأوا بالفعل في تنفيذ الحلول التقنية والقانونية لمواجهة المخاطر.
دعونا نلقي نظرة أولاً على الحلول التقنية. يتم دمج المبادئ الأخلاقية في تطوير أدوات الذكاء الاصطناعي. وفي تاليس، التزمنا منذ بعض الوقت بعدم بناء «الصناديق السوداء» عند تصميم أنظمة ذكاء اصطناعي. لقد وضعنا إرشادات تضمن أن الأنظمة شفافة وقابلة للتفسير. كما أننا نسعى إلى تقليل التحيز (ولا سيما فيما يتعلق بالنوع والمظهر الجسدي) في تصميم خوارزمياتنا، من خلال بيانات تدريب الخوارزميات التي نستخدمها وتشكيل فرقنا.
ثانياً: الحلول القانونية. وهنا، تولى الاتحاد الأوروبي القيادة بلا شك. تعمل المفوضية الأوروبية والبرلمان الأوروبي منذ أكثر من عامين على مشروع قانون يهدف بموجب القانون إلى الحد من استخدامات الذكاء الاصطناعي الأكثر خطورة.
ومع ذلك، لن ننجح في تلافي المخاطر الكامنة في إساءة استخدام الذكاء الاصطناعي إلا من خلال التعليم والتغيير المجتمعي الحقيقي. يجب أن ننجح سوياً في إخراج أنفسنا من ثقافة «الفورية» التي ازدهرت مع ظهور التكنولوجيا الرقمية، والتي من المرجح أن تزيد بسبب الانتشار الهائل لهذه الأدوات الجديدة. كما نعلم، يتيح الذكاء الاصطناعي التوليدي إنتاج محتوى سريع الانتشار ويتم إنتاجه بسرعة بالغة، ولكنه ليس بالضرورة محتوى موثوقا. وهناك خطر تضخيم عيوب كيفية عمل وسائل التواصل الاجتماعي، ولا سيما في ترويجها لمحتوى مشكوك فيه ويتسبب في الخلاف، والطريقة التي تثير بها ردود الفعل والمواجهة على الفور.
علاوة على ذلك، من خلال تعودنا على الحصول على إجابات «جاهزة للاستخدام»، دون الحاجة إلى البحث أو التحقق أو مقارنة المصادر بمصادر أخرى، تجعلنا هذه الأنظمة كسالى فكرياً. وهي تجازف بالتسبب في تفاقم الوضع من خلال إضعاف تفكيرنا النقدي.
وعلى الرغم من أنه سيكون من غير المعقول أن نبدأ في أن ننذر بوجود خطر وجودي على الجنس البشري، فإننا في حاجة إلى إطلاق تحذير. يجب أن نبحث عن طرق لوضع حد لهذا الميل الضار للفورية التي كانت تلوث الديمقراطية وتخلق أرضية خصبة لنظريات المؤامرة ما يقرب من عقدين من الزمن. «فكر في الأمر مدة 30 ثانية» هذا هو العنوان الرائع لدورة تدريبية نظمها مركز كيبيك للتعليم في مجال الإعلام والمعلومات. فاستغراق الوقت الكافي لوضع المحتوى في سياقه وتقييم مدى موثوقيته وإجراء حوار بناء بدلاً من التفاعل الفوري هو اللبنة الأساسية لحياة رقمية صحية. نحن بحاجة إلى التأكد من أن تدريس هذه الأنظمة نظرياً وتطبيقياً يمثل أولوية مطلقة في أنظمة التعليم في جميع أنحاء العالم.
إذا واجهنا هذا التحدي فسنكون قادرين في النهاية على الاستفادة من الإمكانات الهائلة التي تتمتع بها هذه التكنولوجيا لتطوير العلوم والطب والإنتاجية والتعليم.
هل ترغب بالتعليق على الموضوع؟
لا تتردد في إعطاء تعليقك ومشاركة رأيك