اكتشف باحثون طريقة جديدة تمكّن القراصنة من التلاعب بالذكاء الاصطناعي عبر إخفاء تعليمات خبيثة داخل الصور.
ووفقًا لمدونة Trail of Bits لأبحاث الأمن السيبراني، يُمكن إخفاء نص داخل الصور، بحيث لا يُصبح قابلاً للقراءة إلا بعد ضغط الصورة، وهي عملية تستخدمها العديد من المنصات لتقليل حجم الملف. بمجرد ظهور هذا النص لنظام الذكاء الاصطناعي، يُمكن تفسيره على أنه تعليمات، مما يدفع النموذج إلى تنفيذ إجراءات لم يطلبها المستخدم مطلقًا.
قد يُؤدي ضغط الصورة إلى إنشاء آثار تُفسرها أدوات الذكاء الاصطناعي على أنها نص قابل للقراءة. بالنسبة للإنسان، لا تبدو الصورة الأصلية مختلفة عن ذي قبل. فعند تحميلها إلى نظام مثل "جيميني" من جوجل أو أداة البحث "دوائر" في "أندرويد"، يضغط البرنامج الخلفي الملف قبل معالجته. ثم تظهر الكلمات المخفية، وقد يتصرف الذكاء الاصطناعي بناءً عليها. في الاختبارات، أوعزت الصور المضغوطة إلى "جيميني" بإرسال بيانات التقويم إلى جهة خارجية.
اقرأ أيضا... الذكاء الاصطناعي يتنبأ بالعواصف الشمسية وطقس الفضاء
يوضح هذا كيف أن التفاعلات اليومية مع الذكاء الاصطناعي، مثل تحميل لقطات شاشة أو طرح سؤال "ما هذا؟" حول صورة، قد تؤدي إلى هجوم. حاليًا، لا يوجد دليل على استخدام هذه الطريقة في هجمات الأمن السيبراني الفعلية، ولكن يمكن استغلالها بسهولة.
يقول الخبراء إن أفضل وسيلة دفاعية هي أن تبني منصات الذكاء الاصطناعي ضمانات أقوى ضد الأوامر والاستعلامات الخفية.
منذ إطلاق الذكاء الاصطناعي، نشهد بشكل متزايد طرقًا جديدة قد يستغلها المتسللون لمنصات الذكاء الاصطناعي من أجل القرصنة.
مصطفى أوفى (الاتحاد)