العدد : ١٧٠٤٨ - الاثنين ٢٥ نوفمبر ٢٠٢٤ م، الموافق ٢٣ جمادى الاول ١٤٤٦هـ

العدد : ١٧٠٤٨ - الاثنين ٢٥ نوفمبر ٢٠٢٤ م، الموافق ٢٣ جمادى الاول ١٤٤٦هـ

مقالات

خداع الذكاء الاصطناعي تهديد ناشئ يتطلب اهتماما عاجلا

بقلم: د. جاسم حاجي

الاثنين ١٠ يونيو ٢٠٢٤ - 02:00

نشر‭ ‬باحثون‭ ‬في‭ ‬مجال‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬تقريرًا‭ ‬مقلقًا‭ ‬يُفصّل‭ ‬فيه‭ ‬ازدياد‭ ‬قدرة‭ ‬أنظمة‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬المتقدمة‭ ‬على‭ ‬خداع‭ ‬البشر،‭ ‬ممّا‭ ‬يُنذر‭ ‬بمخاطر‭ ‬جسيمة‭ ‬على‭ ‬المجتمع‭.‬

يُعرّف‭ ‬التقرير،‭ ‬المنشور‭ ‬في‭ ‬مجلة‭ ‬Patterns،‭ ‬خداع‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬بأنه‭ ‬‮«‬التحريض‭ ‬المنهجي‭ ‬لمعتقدات‭ ‬خاطئة‭ ‬لدى‭ ‬الآخرين‭ ‬لتحقيق‭ ‬بعض‭ ‬النتائج‭ ‬غير‭ ‬الحقيقة‮»‬‭. ‬ويحذر‭ ‬المؤلفون،‭ ‬من‭ ‬مؤسسات‭ ‬مثل‭ ‬معهد‭ ‬ماساتشوستس‭ ‬للتكنولوجيا‭ ‬ومركز‭ ‬سلامة‭ ‬الذكاء‭ ‬الاصطناعي،‭ ‬من‭ ‬أنّ‭ ‬هذا‭ ‬التهديد‭ ‬يتجاوز‭ ‬مجرد‭ ‬توليد‭ ‬معلومات‭ ‬مضللة،‭ ‬بل‭ ‬يشمل‭ ‬أنظمة‭ ‬ذكاء‭ ‬اصطناعي‭ ‬تتلاعب‭ ‬بشكلٍ‭ ‬فعّال‭ ‬بالمستخدمين‭ ‬البشريين‭ ‬وتُضلّلهم‭.‬

يقول‭ ‬بيتر‭ ‬س‭. ‬بارك،‭ ‬المؤلف‭ ‬الرئيسي‭ ‬من‭ ‬معهد‭ ‬ماساتشوستس‭ ‬للتكنولوجيا‭: ‬‮«‬ما‭ ‬نراه‭ ‬هو‭ ‬أنّه‭ ‬مع‭ ‬ازدياد‭ ‬تطوّر‭ ‬أنظمة‭ ‬الذكاء‭ ‬الاصطناعي،‭ ‬فإنها‭ ‬تكتسب‭ ‬مهارات‭ ‬خداع‭ ‬مشابهة‭ ‬لتلك‭ ‬التي‭ ‬يتمتع‭ ‬بها‭ ‬البشر،‭ ‬من‭ ‬الإقناع‭ ‬والإطراء‭ ‬إلى‭ ‬الخداع‭ ‬الصريح‭. ‬هذا‭ ‬تطورٌ‭ ‬مقلق‭ ‬للغاية‭ ‬يتطلب‭ ‬اهتمامًا‭ ‬عاجلاً‮»‬‭.‬

تستشهد‭ ‬الورقة‭ ‬بالعديد‭ ‬من‭ ‬الأمثلة‭ ‬الواقعية‭ ‬لتوضيح‭ ‬هذه‭ ‬النقطة،‭ ‬أحدها‭ ‬نظامMeta‭ ‬CICERO‭ ‬،‭ ‬المُصمم‭ ‬للعب‭ ‬لعبة‭ ‬الإستراتيجية‭ ‬المعقدة‭ ‬‮«‬الدبلوماسية‮»‬‭. ‬وبدلاً‭ ‬من‭ ‬مجرد‭ ‬محاولة‭ ‬الفوز،‭ ‬لوحظ‭ ‬أنّ‭ ‬CICERO‭ ‬‮«‬لا‭ ‬يقوم‭ ‬فقط‭ ‬بخداع‭ ‬اللاعبين‭ ‬الآخرين،‭ ‬بل‭ ‬ينخرط‭ ‬أيضًا‭ ‬في‭ ‬الخداع‭ ‬المُتعمد،‭ ‬ويقوم‭ ‬بالتخطيط‭ ‬مُسبقًا‭ ‬لبناء‭ ‬تحالفٍ‭ ‬مزيف‭ ‬مع‭ ‬لاعب‭ ‬بشري‭ ‬من‭ ‬أجل‭ ‬خداعه‮»‬‭.‬

وبعيدًا‭ ‬عن‭ ‬مجال‭ ‬الألعاب،‭ ‬يشير‭ ‬الباحثون‭ ‬أيضًا‭ ‬إلى‭ ‬حالات‭ ‬لأنظمة‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬تم‭ ‬تدريبها‭ ‬على‭ ‬تعلم‭ ‬ردود‭ ‬الفعل‭ ‬البشرية‭ ‬من‭ ‬أجل‭ ‬‮«‬خداع‭ ‬المراجعين‭ ‬البشريين‮»‬‭ ‬حول‭ ‬ما‭ ‬إذا‭ ‬كانوا‭ ‬قد‭ ‬حققوا‭ ‬أهدافهم‭ ‬المقصودة‭.‬

تحدد‭ ‬الورقة‭ ‬مجموعة‭ ‬من‭ ‬المخاطر‭ ‬التي‭ ‬يُفرضها‭ ‬هذا‭ ‬التهديد‭ ‬الناشئ‭ ‬لخداع‭ ‬الذكاء‭ ‬الاصطناعي‭. ‬على‭ ‬المدى‭ ‬القريب،‭ ‬يحذرون‭ ‬من‭ ‬مخاطر‭ ‬مثل‭ ‬الاحتيال،‭ ‬والتلاعب‭ ‬في‭ ‬الانتخابات،‭ ‬وتقويض‭ ‬الخطاب‭ ‬والثقة‭ ‬عبر‭ ‬الإنترنت‭.‬

لكن‭ ‬الباحثين‭ ‬يُحذّرون‭ ‬أيضًا‭ ‬من‭ ‬المخاطر‭ ‬طويلة‭ ‬المدى‭ ‬إذا‭ ‬استمرت‭ ‬أنظمة‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬في‭ ‬تطوير‭ ‬قدراتها‭ ‬الخداعية‭ ‬بسرعة‭. ‬يقول‭ ‬دان‭ ‬هندريكس،‭ ‬المؤلف‭ ‬المشارك‭ ‬من‭ ‬مركز‭ ‬سلامة‭ ‬الذكاء‭ ‬الاصطناعي‭: ‬‮«‬إذا‭ ‬أصبح‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬أكثر‭ ‬ذكاءً‭ ‬من‭ ‬البشر،‭ ‬فقد‭ ‬يكون‭ ‬من‭ ‬الصعب‭ ‬جدًا‭ ‬علينا‭ ‬التحكم‭ ‬فيه،‭ ‬خاصةً‭ ‬إذا‭ ‬تعلم‭ ‬أيضًا‭ ‬التلاعب‭ ‬بنا‭ ‬وخداعنا‮»‬‭.‬

يُدرك‭ ‬مؤلفو‭ ‬التقرير‭ ‬خطورة‭ ‬تهديد‭ ‬خداع‭ ‬الذكاء‭ ‬الاصطناعي،‭ ‬ويدعون‭ ‬إلى‭ ‬اتباع‭ ‬نهج‭ ‬استباقي‭ ‬متعدد‭ ‬الجوانب‭ ‬لمواجهته‭.‬

يتضمن‭ ‬هذا‭ ‬النهج‭ ‬ضرورة‭ ‬وضع‭ ‬أطر‭ ‬تنظيمية‭ ‬تُقيّم‭ ‬مخاطر‭ ‬الخداع‭ ‬المرتبطة‭ ‬بأنظمة‭ ‬الذكاء‭ ‬الاصطناعي،‭ ‬وذلك‭ ‬لضمان‭ ‬تصميمها‭ ‬وتطويرها‭ ‬بطريقة‭ ‬أخلاقية‭ ‬ومسؤولة‭. ‬كما‭ ‬ينبغي‭ ‬سنّ‭ ‬قوانين‭ ‬‮«‬روبوت‭ ‬أم‭ ‬لا‮»‬‭ ‬لتعزيز‭ ‬الشفافية‭ ‬والتصدي‭ ‬لخداع‭ ‬المستخدمين،‭ ‬ممّا‭ ‬يُتيح‭ ‬لهم‭ ‬تمييز‭ ‬التفاعلات‭ ‬مع‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬عن‭ ‬تلك‭ ‬مع‭ ‬البشر‭.‬

أخيرًا،‭ ‬يُشدّد‭ ‬التقرير‭ ‬على‭ ‬أهمية‭ ‬زيادة‭ ‬تمويل‭ ‬الأبحاث‭ ‬بشكل‭ ‬كبير‭ ‬لابتكار‭ ‬طرق‭ ‬جديدة‭ ‬لاكتشاف‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬المُخادع‭ ‬والتخفيف‭ ‬من‭ ‬حدته‭. ‬يُسلط‭ ‬هذا‭ ‬المقال‭ ‬الضوء‭ ‬على‭ ‬قضية‭ ‬بالغة‭ ‬الأهمية‭ ‬تستحق‭ ‬الاهتمام‭ ‬الجاد‭ ‬من‭ ‬صناع‭ ‬السياسات‭ ‬والباحثين‭ ‬وعامة‭ ‬الناس‭. ‬مع‭ ‬تقدّم‭ ‬أنظمة‭ ‬الذكاء‭ ‬الاصطناعي،‭ ‬تُصبح‭ ‬قدرتها‭ ‬على‭ ‬الخداع‭ ‬تهديدًا‭ ‬خطيرًا‭ ‬على‭ ‬سلامة‭ ‬مجتمعاتنا‭. ‬إنّ‭ ‬الحلول‭ ‬الاستباقية‭ ‬متعددة‭ ‬الأوجه‭ ‬ضرورية‭ ‬لضمان‭ ‬تطوير‭ ‬ونشر‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬بطريقةٍ‭ ‬تفيد‭ ‬البشرية‭.‬

كلمات دالة

هل ترغب بالتعليق على الموضوع؟

لا تتردد في إعطاء تعليقك ومشاركة رأيك

الاسم:
النص:
تبقى لديك (600حرف

aak_news



الموافقة على استخدام ملفات تعريف الارتباط

يستخدم هذا الموقع ملفات تعريف الارتباط أو تقنيات مشابهة ، لتحسين تجربة التصفح وتقديم توصيات مخصصة. من خلال الاستمرار في استخدام موقعنا ، فإنك توافق على سياسة الخصوصية الخاصة بنا