لفترة من الزمن العام الماضي، قدّم العلماء بصيص أمل في أن يسهم الذكاء الاصطناعي إيجابياً في دعم الديمقراطية. فقد أظهروا أن روبوتات الدردشة قادرة على التصدي لنظريات المؤامرة التي تنتشر عبر وسائل التواصل الاجتماعي، من خلال تحدي المعلومات المضللة حول قناعات مثل «الخطوط الكيميائية» أو نظرية الأرض المسطحة، عبر محادثات مليئة بالحقائق المنطقية. (الخطوط الكيميائية: مصطلح واسع يشير إلى عدة مفاهيم، منها خطوط إنتاج وتعبئة المواد الكيميائية) لكن دراستين جديدتين تكشفان جانباً مقلقاً: إذ تصبح أحدث نماذج الذكاء الاصطناعي أكثر قدرة على إقناع الناس، ولو كان ذلك على حساب الحقيقة.
يكمن السر في استخدام أسلوب جدلي يُعرف باسم «الهجوم السريع» (Gish galloping)، (أسلوبٌ في المناظرة يُغرق فيه أحدُ الأشخاص خصمه بوابلٍ سريعٍ من الحجج الكثيرة، والتي غالباً ما تكون مُضلِّلة أو غير دقيقة، ما يجعل من المستحيل على الخصم الردّ على كل نقطة بفعالية ضمن الوقت المُحدَّد.) نسبة إلى أحد أنصار نظرية الخلق، الأميركي «دواين جيش». ويشير هذا الأسلوب إلى خطاب سريع الإيقاع يُغرق فيه أحد المتحاورين الآخر بسيل متتابع من الحقائق والإحصاءات التي تصبح على نحو متزايد صعبة التحليل أو الرد عليها.
عندما طُلب من نماذج لغوية مثل GPT-4o محاولة إقناع شخص ما بشأن تمويل الرعاية الصحية أو سياسة الهجرة من خلال التركيز «على الحقائق والمعلومات»، كانت تُنتج نحو 25 ادعاءً، خلال تفاعل مدته 10 دقائق. وذلك وفقاً لباحثين من جامعتي أكسفورد وكلية لندن للاقتصاد، الذين اختبروا 19 نموذجاً لغوياً على ما يقرب من 80 ألف مشارك، فيما يعد على الأرجح أضخم وأكثر التحقيقات منهجية حتى الآن حول الإقناع بواسطة الذكاء الاصطناعي.
ووفقاً للنتائج التي نُشرت في مجلة «ساينس»، أصبحت الروبوتات أكثر إقناعاً بكثير. كما وجدت ورقة بحثية مماثلة في مجلة «نيتشر» أن روبوتات الدردشة كانت عموماً أكثر فاعلية بعشر مرات من الإعلانات التلفزيونية ووسائل الإعلام التقليدية الأخرى في تغيير رأي شخص ما بشأن مرشح سياسي، لكن دراسة مجلة «ساينس» كشفت عن مقايضة مقلقة: فعندما جرى تحفيز روبوتات الدردشة على إغراق المستخدمين بالمعلومات، تراجعت دقتها الواقعية، لتصل إلى 62% بدلاً من 78% في حالة GPT-4.
أصبحت المناظرات السريعة ظاهرةً رائجةً على يوتيوب، خلال السنوات القليلة الماضية، ويتجلى ذلك في شخصيات مؤثرة مثل «بن شابيرو»، و«ستيفن بونيل». تُنتج هذه المناظرات نقاشات حادة جعلت السياسة أكثر جاذبية وفهماً لدى الناخبين الشباب، لكنها في الوقت نفسه تُؤجج التطرف، وتنشر معلومات مُضللة، نظراً لتركيزها على الترفيه ولحظات الإيقاع بالخصم.
فهل يمكن لذكاء اصطناعي يعتمد أسلوب «الهجوم السريع» أن يجعل الأمور أسوأ؟ يتوقف ذلك على ما إذا كان أحد ما سيتمكن من تشغيل روبوتات دعائية تتحدث مع الناس. فمستشار حملة لجماعة بيئية أو لمرشح سياسي لا يمكنه ببساطة تغيير «تشات جي بي تي» نفسه، الذي يستخدمه نحو 900 مليون شخص أسبوعياً، لكنه يستطيع ضبط النموذج اللغوي الأساسي بدقة ودمجه في موقع إلكتروني - كروبوت خدمة عملاء - أو إطلاق حملة عبر الرسائل النصية، أو واتساب للتواصل مع الناخبين واستدراجهم إلى محادثة.
ومن المرجح أن حملة ذات موارد متوسطة يمكنها إعداد ذلك خلال بضعة أسابيع، بتكلفة حوسبة تبلغ نحو 50 ألف دولار. لكن قد تواجه صعوبة في إقناع الناخبين أو العامة بإجراء محادثة مطولة مع الروبوت. فقد أظهرت دراسة مجلة «ساينس» أن بياناً ثابتاً من 200 كلمة أنشأه الذكاء الاصطناعي لم يكن مقنعاً بشكل خاص، بل إن المحادثة التي استمرت 10 دقائق، وتضمنت نحو سبع جولات هي التي أحدثت الأثر الحقيقي - وكان أثراً طويل الأمد أيضاً. وعندما تحقق الباحثون مما إذا كانت آراء المشاركين قد تغيّرت بعد شهر، وجدوا أنها بالفعل تغيّرت.
ويحذر الباحثون في المملكة المتحدة من أن أي جهة تسعى إلى دفع فكرة أيديولوجية، أو خلق اضطراب سياسي، أو زعزعة الأنظمة السياسية، يمكنها استخدام نموذج مغلق أو (وبتكلفة أقل) مفتوح المصدر لبدء إقناع الناس. وقد أظهروا بالفعل القوة المربكة التي يمتلكها الذكاء الاصطناعي للقيام بذلك، لكن يجدر التنبيه إلى أنهم اضطروا إلى دفع المال للناس للمشاركة في دراسة الإقناع. فلنأمل ألا يتمكن نشر مثل هذه الروبوتات عبر المواقع الإلكترونية والرسائل النصية، خارج البوابات الرئيسة التي تسيطر عليها شركات مثل«أوبن إيه آي»، وجوجل التابعة لألفابت، من إحداث تشويه واسع في الخطاب السياسي.
* كاتبة متخصصة في شؤون التكنولوجيا.
ينشر بترتيب خاص مع خدمة «واشنطن بوست لايسنج آند سينديكيشن»


