كشفت وحدة "ديب مايند  التابعة لشركة "جوجل، عن تحديث جديد لإطار السلامة الخاص بها، تحت اسم "Frontier Safety Framework"، يتناول المخاطر المحتملة للذكاء الاصطناعي المتقدم، في محاولة لتوسيع آليات الوقاية من المخاطر التي قد تنشأ مع التطور المتسارع للذكاء الاصطناعي التوليدي.

وشمل التحديث إضافة فئة جديدة تتعلق بقدرة النماذج على الإقناع، حيث أشارت الوحدة إلى أن هذه القدرة قد تمنح بعض الأنظمة تأثيراً عميقاً على معتقدات وسلوك المستخدمين، ما يشكل تهديداً غير مسبوق.

الإطار الجديد، يأتي في ظل تزايد الاعتماد المتزايد على النماذج التوليدية في مهام متعددة، حيث يركز على تقييم قدرات هذه النماذج وتحديد اللحظة التي يمكن أن تتحول فيها إلى تهديد مباشر، سواء في مجال الأمن السيبراني أو علوم الأحياء أو حتى على الصعيد الاجتماعي.
اقرأ أيضاً..مراقبة أفكار الذكاء الاصطناعي.. خطوة جديدة لفهم "العقل" الرقمي

يعتمد الإطار على مفهوم "المستويات الحرجة للقدرات"، وهو نظام لتقييم وتصنيف المخاطر المحتملة الناتجة عن قدرات الذكاء الاصطناعي. ويشير التقرير إلى أن هذه المخاطر قد تتصاعد بشكل كبير إذا تمكنت جهات خبيثة من الوصول إلى أوزان النماذج، ما قد يتيح تعطيل الضوابط الأمنية واستغلال الذكاء الاصطناعي في تطوير برمجيات ضارة. وفق موقع "arstechnica".
يرى الباحثون أن أحد التهديدات البارزة تكمن في قدرة الذكاء الاصطناعي على التغلغل في تفاعلات المستخدمين اليومية، بما يسهم في إحداث تغييرات بطيئة ولكن متراكمة في قناعاتهم وأفكارهم.
مخاطر جديدة
ومن أبرز النقاط التي يثيرها التقرير الجديد هي إمكانية ظهور ذكاء اصطناعي غير متوافق (Misaligned AI)، أي نماذج قد ترفض تنفيذ التعليمات أو تنخرط في سلوك تضليلي.
تشير ديب مايند إلى حالات موثقة أظهرت فيها بعض النماذج سلوكاً رافضاً أو خادعاً، وتقول إن مراقبة هذه الحالات ستكون أكثر صعوبة مع تطور الأجيال الجديدة من النماذج. فبينما تعتمد المراقبة الحالية على تتبع ما يُعرف بـ"المسودات الداخلية للتفكير"، قد تتمكن النماذج المستقبلية من الاستدلال من دون ترك أي أثر يمكن مراجعته، ما يجعل الرقابة صعبة ومعقدة.

الذكاء الاصطناعي كعامل تسريع
يحذر الإطار كذلك من ما يمكن وصفه بـ"الخطر الميتا"، أي أن يتم استغلال الذكاء الاصطناعي المتقدم لتسريع تطوير نماذج أقوى وأقل خضوعًا للقيود. وترى ديبذمايند أن هذا السيناريو يشكل تهديدًا أكبر من معظم المخاطر الأخرى، إذ قد يؤدي إلى خلق منظومات يصعب ضبطها أو التكيف معها.
آليات استباقية
وبالرغم  من محاولات ديب مايند لوضع آليات استباقية، فإن التقرير يعترف بعدم وجود حلول جاهزة حتى الآن لبعض التهديدات، مثل مشكلة الذكاء الاصطناعي غير المتوافق.
إصدار النسخة  الجديدة من "Frontier Safety Framework" يعكس إدراكًا متزايدًا داخل الأوساط التقنية بأن سباق تطوير الذكاء الاصطناعي يجب أن يتوازى مع سباق آخر لا يقل أهمية وهو سباق السلامة. وبينما تتسابق الشركات على تعزيز قدرات نماذجها، يبقى التحدي الأكبر هو ضمان أن يظل الذكاء الاصطناعي أداة في خدمة البشر لا مصدر قلق لهم.
لمياء الصديق(أبوظبي)