هناك جدل دولي اليوم عن جدوى إبقاء وتطوير منصات «تشات جي بي تي» من عدمه، وهي تدخل في إطار الذكاء الاصطناعي اللامتناهي وخلق عقول غير بشرية تفوقنا ذكاءً وتتفوق علينا في عدة مهام وتحل محلنا، وتقوم هذه المنصاتُ بالجمع الجماعي للبيانات الشخصية وتخزينها لغرض «تدريب» خوارزميات تشغيل المنصة. شخصياً كأستاذ جامعي يؤطر أبحاثَ نهاية الدراسة في الجامعة، أنا ضد تطوير هذه الأنظمة، إذ أنها ستساهم في جلب جيل من الباحثين لا قدرةَ لهم على الفهم والشرح والتنظير والإبداع. ولأن معد أطروحة الدكتوراه مثلاً في العلاقات الدولية والعلوم السياسية، والذي يشتغل على النظام الدولي الجديد، أو على العقيدة الاستراتيجية الروسية الجديدة أو على الأنظمة الدستورية في أفريقيا، أو على مسألة فصل السلط.. سيضع هذه المواضيع على المنصة ويأمرها بعدد الصفحات، وستأتيه المنصة بأعمال جاهزة ودقيقة وتخضع لقواعد الأكاديمية والعلمية. والشيء ذاته يقال في ميادين الطب والبيولوجيا وغيرها.. إلخ. والأدهى من ذلك أنه يمكن استخدام «تشات جي بي تي» لكتابة رموز معلوماتية من دون الحاجة إلى امتلاك معرفة تقنية.
ولن نجد نحن المؤطرين مفراً من قبول هذه الأعمال، لأنك ولو بحثت باستخدام كل الأنظمة المعلوماتية المختصة بالبلاجيا (الانتحال)، ستجد هذه الأبحاث خاليةً من النقل وكأنها من تأليف الطلبة والباحثين، والنتيجة بالطبع ستكون مدمرةً للمجتمعات العلمية ومقوضةً لأسس الجامعات، وستوقف إعمال العقل والاجتهاد عند ملايين البشر، وسنخرج إلى السوق الفكرية أشخاصاً لا علاقة لهم بالبحث العلمي ولا بالتنمية وغير قادرين على حمل مشعل التأطير الفكري والتوجيه العلمي، وسينجحون بسهولة وسيتوفرون في النهاية على شهادات أكاديمية لا تعكس الشروط المطلوبة. ويجب أن لا ننسى أن مثل هذه المنصات ستقوّي من خطر تنامي الخداع الإلكتروني ونشر المعلومات المضللة والجرائم السيبرانية. 
ونفهم في هذا السياق لماذا دعا الملياردير الأميركي إيلون ماسك ومجموعة من خبراء الذكاء الاصطناعي ومديرون تنفيذيون لبعض الشركات المختصة، في رسالة مفتوحة وقعها أكثر من ألف شخص، إلى التوقف لمدة ستة أشهر عن تطوير أنظمة أقوى من روبوت الدردشة «تشات جي بي تي» الذي أطلقته شركة «أوبن إيه. آي» في الآونة الأخيرة، مشيرين إلى المخاطر المحتملة لمثل هذه التطبيقات والروبوتات والمنصات والأنظمة الذكية على المجتمع.
كما أشارت رسالة صادرة عن معهد «فيوتشر أوف لايف» (والذي تموله كل من مؤسسة ماسك، ومجموعة فاوندرز بليدج في لندن، فضلاً عن مؤسسة سيليكون فالي كوميونيتي)، إلى وجوب «تطوير أنظمة الذكاء الاصطناعي القوية فقط عندما نكون واثقين من أن آثارها ستكون إيجابية، وأن مخاطرها ستكون تحت السيطرة».
وبذلك نفهم لماذا بدأت بعض الدول في منع هذه المنصات والتطبيقات والروبوتات في بلدانها، مثل إيطاليا التي منعتها بمبرر أنها لا تحترم التشريعات المتعلقة بالبيانات الشخصية، ولا تتوفر على نظام للتحقق من عمر المستخدمين الذين قد يكون بعضهم من القصّر.

*أكاديمي مغربي