لا يكاد يمرّ علينا يومٌ من دون اللجوء إلى الذكاء الاصطناعي، سواء كنا أفراداً أو مؤسسات، بمعزل عن الاهتمام بالمخاطر، على مستوى محيطنا الضيّق، أو على مستوى الدول والعالم برمّته.وفي ظل تسارع وتيرة التقدّم، تتراوح تقديرات المخاطر بين التأثير في جودة الحياة وتهديد البقاء، وقد تصل إلى تفوق الآلة على البشر، أو حتى الانقراض البشري. وفي قلب التطور التكنولوجي، بات الذكاء الاصطناعي أحد أوجه المنافسة الدولية في السباق على التقنيات بلا قواعد حاكمة للتنظيم والتطوير، وضمان أدنى الحقوق للحماية.
وبالنظر إلى خريطة تطوير الذكاء الاصطناعي في العالم، فإن القوى الدولية تختلف حول سُبل تطوير الذكاء الاصطناعي وحوكمته، ولا يوجد إجماع عالمي على كيفية تعظيم الاستفادة ومعالجة المخاوف بدافع المنافسة، والخشية من أن الحوكمة قد تعطل أو تقوّض الابتكار، ومن ثمّ تحجيم الاستثمار التكنولوجي، إضافةً إلى تكلفة الإنفاق على الامتثال والقواعد المعقدة، ما يوجّه الاستثمار نحو الدول ذات التنظيم المرن.
ويظل الذكاء الاصطناعي رهن أمر الإنسان، لكن إلى متى ستظل التعليمات البرمجية والخوارزميات طيّعة للبشر، ومن يضمن استخدام الذكاء الاصطناعي كقوة خير، لا أداة فتك، مع توسع الصناعات العسكرية في استخدامه، وفقدان الوظائف، والتحيز الخوارزمي، وانتهاك الخصوصية، وانتشار المعلومات المضلِّلة، والمساعدة في الهجمات السيبرانية، أو تنفيذها بمفرده؟
إن غياب آليات للحوكمة قد يخرجنا من دوائر الفاعلين إلى دوائر المتأثرين، ونتيجة ذلك اتجهت بعض الدول إلى تبنّي قوانين صارمة للذكاء الاصطناعي، كالاتحاد الأوروبي، لكننا بحاجة إلى قوانين توازن بين الابتكار والحوكمة وتنظم البحث والتطوير ولا تقيّده، إضافةً إلى سياسات دولية متفق عليها لا تتجاوزها الدول في قوانينها، وهنا تقف الاختلافات الجيوسياسية حائلاً أمام التنظيم، مع غياب التوافق الدولي الذي تحكمه المصالح الاقتصادية، بعيداً عن أية معايير ترتبط بحوكمة التطوير.
وتعتمد الشركات والدول على الذكاء الاصطناعي كأحد أوجه التنمية البشرية، وقوة دافعة مهمة لجولة جديدة من الثورة التكنولوجية والتنمية، ولكن بلا سياسات دولية واضحة سنفاجَأ جميعاً بكوارث تكنولوجية واقتصادية واجتماعية، وربّما يكون التوازن بين حوكمة الذكاء الاصطناعي والابتكار هو مخرجنا من هذا المأزق، بضمان التطوير الأخلاقي والمسؤول من دون قيود على الابتكار، وإقرار بعض الحوافز للشركات المطورة مع معالجة المخاطر لتعزيز الثقة بالذكاء الاصطناعي.
إن التوازن بين التطوير والحوكمة سيحمينا من خطر «الهوس» بالتقنية، وسيحقق ميزات سوقية طويلة المدى، وسيعيد سطوة الإنسان على الآلة، إذ تستخدم الآلة لمساعدة الإنسان وليس لقيادته، وقد يتحقق ذلك عبر العمل الدولي على إطلاق حوار عالمي دوري جادّ يعالج التحديات ويضع إطاراً لتنظيم الذكاء الاصطناعي، ويطور باستمرار استراتيجية الحوكمة، لمواكبة التغيرات المطّردة.
ولا خلاف في مجتمع الذكاء الاصطناعي على وجود مخاطر، بَيد أن الخلاف يتعلق بحجم هذه المخاطر وسُبل مجابهتها، والعمل على إقرار الدول قوانين لتقنين الذكاء الاصطناعي، يمثل خطوة مهمة نحو حوكمة مسؤولة للذكاء الاصطناعي، لكنها تظل غير كافية من دون سياق دولي بمعايير محددة، في ظل تباين القدرات، على أن تشمل المعايير توجّه الذكاء الاصطناعي نحو الخير والتنمية العادلة وخدمة الشعوب، واحترام سيادة الدول، ودعم الأمن الإنساني، والإنصاف، والشمول، والانفتاح، والتعاون بين الدول.
إن لهذه التكنولوجيا المتقدّمة طبيعة لا تشبه سابقاتها في التحديات، ويتحقق نجاح حوكمة الذكاء الاصطناعي العالمية بمرونة السياسات والحوكمة الرشيدة عبر مبادئ يعتمد عليها العالم في حركة التطور، تشمل الوقائية والتعديل والتصحيح في السياسات لمواكبة حركة التطور، وإحكام آليات الامتثال، حتى لا تخرج الأمور عن السيطرة.
لقد آنَ للعالم وضع الحوار حول حوكمة الذكاء الاصطناعي في الحسبان، لضمان السلامة ومعالجة المخاطر، عبر منصة دولية تقرّر، وتُحدِّث استراتيجية عالمية لحوكمة الذكاء الاصطناعي متوازنة مع الابتكار، فليس بوسعنا انتظار الكارثة، لأن كلفة المواجهة وتدارك الحلول ستتضاعف وقد تصبح بعيدة المنال.
*باحث متخصص في الذكاء الاصطناعي- مركز تريندز للبحوث والاستشارات.


